草根影響力新視野(琪拉編譯) 

隨著科技公司競相開發越來越強大的聊天機器人,它們的廣泛採用在一些公司、監管機構和行業觀察人士中引發了一系列新的資料隱私問題。

包括摩根大通(JPM)在內的一些公司已經禁止員工使用ChatGPT,這個病毒式的人工智慧聊天機器人首次掀起了大科技公司的人工智慧軍備競賽,原因是違反員工使用協力廠商軟體有關的合規問題。

當ChatGPT背後的公司OpenAI披露它不得不在3月20日暫時關閉該工具,以修復一個允許一些用戶看到其他使用者的聊天記錄中的主題句的錯誤時,這只是增加了對隱私的擔憂。而就在上周,義大利的監管機構在OpenAI披露漏洞後,以隱私問題為由,該國發佈了對ChatGPT的臨時禁令。

資安專門律師馬克·麥克雷裡說,當使用者向這些工具輸入資訊時,你不知道它隨後會被如何使用。隨著越來越多的員工隨意採用這些工具來幫助處理工作郵件或會議記錄,公司商業機密被丟進這些不同的各種人工智慧的機會只會增加。

波士頓諮詢集團的首席人工智慧道德官史蒂夫米爾斯同樣告訴CNN,大多數公司圍繞這些工具的最大隱私擔憂是 “敏感資訊的不慎洩露“。

幫助 機器人 符號 高科技 虛擬 軟件 在線 現代 聊天的 公司 因特網 方便 信息 支持 數字 業務 談話 發育 對話 發言 捲筒紙 服務 助理 概念 智能 新 插圖 信息 設備 標誌 網站 屏幕 通訊 情報 顧客 聊 電腦 技術 開 人造的
圖片取自:(示意圖123rf)

你讓所有這些員工做的事情可能看起來非常無害,比如可以用這個來總結一個會議的筆記,但在將會議記錄黏貼到提示中時,你突然間就有可能披露了一大堆敏感資訊。

他說[如果人們輸入的資料被用來進一步訓練這些人工智慧工具,正如這些工具背後的許多公司所說的那樣,那麼你就失去了對這些資料的控制,而被別人掌握了。]

不過,ChatGPT的隱私政策規定,除非法律要求,否則它可以在不進一步通知使用者的情況下向協力廠商提供個人資訊。如果超過2000字的隱私政策看起來有點不透明,那可能是因為這幾乎已經成為互聯網時代的行業規範。OpenAI也有一個單獨的使用條款檔,它把大部分責任放在用戶身上,讓他們在使用其工具時採取適當的措施。

不過,消費者仍然在學習這一切是如何運作的。你只是不完全知道你投入的資訊,如果它被用來重新訓練這些模型,這些表現如何輸出的,是否會被輸出。有時用戶和開發者甚至沒有意識到新技術所潛伏的隱私風險,直到為時已晚。

因此,在我們還未了解全貌以前,專家建議消費者不應該在這些工具中放入任何你不願意假設會與他人共用的東西。

資料來源https://edition.cnn.com/