ADEY1025

只要是資安習慣稍微好一點的使用者,應該都知道定期升級軟體、更新密碼等工作的重要性,然而,隨著 AI 應用陸續進入你我常用的軟體和服務,各種隱私侵犯問題卻也正悄悄發生。

網路安全公司趨勢科技全球消費者教育 VP Lynette Owens 即表示,由於 AI 正在快速融入我們的日常生活,過去關於隱私權保障方面的疑慮和擔憂,自然就被延續到了更敏感的 AI 時代。

模糊的規範、隱藏的設定

時至今日,許多常見的軟體和網路應用,包含電子郵件、帳務程式、生產力工具、社交媒體甚至影音串流服務等,雖然原則上都受到一定的隱私權政策所規範,但大多數卻都沒有表明,使用者的個人資料和隱私數據,是否能夠被廠商用於訓練 AI 模型。

Lynette Owens 強調,軟體業者刻意訂下的模糊規範,以及各種隱藏起來的設定等,讓使用者很容易於未經適當同意的情況下,就使自己的個人資料遭到廠商利用。

Lynette Owens 認為,現在正是時候重新思考、審視與檢查,那些常見的應用程式、網站和線上服務,究竟蒐集了哪些資料,並且將數據與誰共用、如何共用,以及使用者在操作服務的過程中,是否明確給予廠商授權,允許它們將資料用於 AI 模型訓練。

早已無處不在的 AI 功能

Lynette Owens 說,早在 AI 成為爆紅名詞之前,不少廠商就已經將人工智慧應用整合到了產品之中,導致擁有潛在隱私問題的工具,其實跟民眾日常使用的多數程式都出現了重疊。

舉例來說,Google 旗下的 Gmail 即利用 AI 實現垃圾郵件過濾,同時提供 Smart Compose 智慧撰寫功能,預測使用者的文字輸入;Netflix 等影音串流平台更仰賴 AI 分析使用者觀看習慣,藉此推薦相關內容;Facebook 等社群媒體更將 AI 用於照片臉部識別與個人化推播。

Lynette Owens 直言,雖然這些工具提供使用者強大的便利性,但用戶更應該考慮潛在的隱私權衡,例如到底有多少個人資料遭到收集,以及這些數據如何被用於訓練 AI 系統。

微軟「連線體驗」的隱私風險

其中資安專家們特別在意的應用,即是微軟於 2019 年開始導入旗下服務的「連線體驗」,它們通常被內建於 Word、Excel 等微軟所開發的應用程式之中;隱私權專家擔心,微軟可能會藉由「連線體驗」設定,導致使用者透過 Word 所處理的資料和文字,未來被用於 AI 模型訓練。

微軟的「連線體驗」服務關乎 Word、Excel 等軟體的即時共同撰寫、雲端儲存,以及提供拼字與文法建議的編輯器等功能,因此 Lynette Owens 表明,當「連線體驗」這類工具出現且不斷進化,即便軟體本身的隱私權設定沒有出現變動,資安衝擊也會變得更為廣泛。

面對質疑微軟發言人向外媒解釋,公司絕對不會使用 Microsoft 365 等工具蒐集的客戶資料,用以訓練大型語言模型;不過微軟也指出在某些情況下,使用者可能會同意將數據用於特定方面,例如由商業客戶明確要求,希望將它們的資料拿去進行客製化的 AI 模型開發。

願意分享資料不應該是預設值

資安軟體公司 Approov 執行長 Ted Miracco 表示,微軟的「連線體驗」功能本身就是一把雙面刃, 它所關聯的各種應用雖然能夠提升用戶生產力,但同時也會引發嚴重隱私問題;除此之外「連線體驗」在軟體中預設為開啟狀態,可能會導致使用者根本不知道自己正在被蒐集資料。

Ted Miracco 認為,微軟發言人的解釋並不足以減少「連線體驗」所帶來的隱私權疑慮。

SEO 行銷公司 RiseOpp 創辦人 Kaveh Vadat 則點出使用者觀感方面的不平衡,稱微軟自動啟用「連線體驗」跟相關功能,即便動機是出於好意,但本質上卻是將檢視和修改隱私設定的責任,全部都放在終端使用者身上,這對於某些用戶來說會產生「被操弄」感覺。

Kaveh Vadat 認為,在外界仍對 AI 充滿不信任與懷疑的情況下,像微軟這類的科技巨頭,更應該提高透明度,而非降低透明度,該類選項更該把「關閉」當成預設值,並提供給使用者更細緻、更加非技術性的解釋資訊,說明廠商會如何處理隱私資料,讓使用者主動願意授權。

「商業考量」碰上「企業道德」

英國華威大學商學院教授 Jochem Hummel 直言,軟體廠商預設開啟資料蒐集設定,從商業的角度看十分合理,然而對消費者的隱私保護卻非常不利。

Jochem Hummel 教授表示,廠商通常會藉由蒐集消費者隱私資料,強化產品並維持市場競爭力,然而就使用者的立場來看,開發商應該要以隱私為優先,以「選擇性加入」的方式提供選項,才算是更符合企業道德的做法。

只不過 Jochem Hummel 教授也分享他的觀察,指出許多學生即當代年輕人,由於適應了由網路、鏡頭、社交媒體所環繞的日常生活,導致他們較不關心隱私權問題,只是單純熱情地擁抱各種 AI 工具,使人工智慧跟隱私權之間的取捨問題,似乎變得更為複雜。

掌握資料隱私,你可以怎麼做?

隨著外界目前都把 AI 風險的焦點,擺在大型語言模型可能會抄襲人類創作,進而引發著作權侵犯等相關疑慮,因為 AI 演進所帶來隱私權保障議題,其關注度確實相對不足。

美國科爾比學院圖書館館長 Kevin Smith 認為,個人資料之所以擁有價值,關鍵在於數據本身擁有「關聯性」;隨著人工智慧高速發展,廠商可能會為了訓練 AI 模型,深度挖掘存在於「靜態」系統中,那些保護較好的資料,這才是外界必須正視並加以管理的風險。

使用者若想主動掌握資料存取權,以 Microsoft 365 辦公室軟體為例,可以在 Word、Excel 程式內點選 「檔案」分頁後,於左邊欄最下方的「選項」中,在「一般」頁面中找到「隱私權設定」,然後將「連線體驗」中的所有選項取消勾選。

至於在 Gmail 方面,開啟網頁後點擊右上方的齒輪,接著按下「查看所有設定」,再於「一般設定」分頁中,關閉所有智慧功能及個人化選項即可。然而,無論是微軟產品或 Google,將這些資料蒐集選項全部關閉,即意味著使用者會失去某些方便功能,用戶必須多加思考利弊權衡。

缺乏一套強而有力的保障系統

資安廠商 Malwarebytes 過去就曾提出建議,指出如 Microsoft 365 中的「連線體驗」等相關設定,只要使用者的日常工作不會涉及檔案協作等功能,在出於隱私保護的前提下,建議都應該把選項轉成關閉。

資料隱私專家 Wes Chaar 進一步指出,雖然關閉設定的操作步驟都很簡單,但問題癥結點依然在於,消費者不應該承擔主動停用資料蒐集選項的責任,尤其大多數使用者基本上都無法深入理解,究竟他們同意過哪些資料可以遭到廠商蒐集。

Wes Chaar 說,廠商將管理、限制甚至撤銷資料存取權的決定,全都交給消費者負擔,突顯出目前數位生態系統的不平衡;Wes Chaar 認為,在缺乏強而有力的系統,優先保障使用者同意權和控制權的情況,個人隱私資料就很容易在未經預期且無益的情況下,遭到廠商加以濫用。

本圖/文由「Techorange科技報橘」授權刊登,非經同意不得任意轉載。
原文出處:導入 AI 卻出賣你的隱私?專家發現 Gmail、Word 常見工具潛藏隱憂