ADDY6520

三星電子(Samsung Electronics)先前允許旗下員工使用 ChatGPT 等生成式 AI 工具來輔助工作,但現在卻下了「禁用生成式 AI 工具令」,並準備開發自己公司內部用的 AI 工具。一起來看,三星為何態度大轉變,以及哪些公司企業,對於員工使用 AI 工具其實也有所保留。

讓員工使用 ChatGPT 太危險,三星準備開發自家用工具

據《Bloomberg》,三星先前曾允許旗下工程師使用 ChatGPT 作為輔助工具,以快速修復原始程式碼的錯誤,沒想到一個月內就發生 3 起使用 ChatGPT 導致機密資料洩漏的事件,因此三星決定禁止員工使用市面上的 AI 工具,並正在準備自己公司內部用的 AI 工具。

據報導,三星已在上週將新政策告知旗下員工,因為該公司擔心員工與 AI 聊天機器人共用的數據會儲存在 OpenAI,Microsoft 和 Google 等運營該服務的公司擁有的伺服器上,導致難以取回或刪除這些資料,甚至資料可能最終外洩給其他用戶。

此外,三星上個月還進行了一項關於內部員工使用 AI 工具的調查,結果顯示有 65% 的人認為使用 AI 工具時存在安全風險。

報導指出,三星電子將禁止員工用公司電腦、平板及手機使用生成式 AI 工具,也禁止在連線內部網路時使用相關平台。三星還要求員工在個人裝置上使用 ChatGPT 時,不要輸入跟公司有關的資訊,以及任何可能洩漏智慧財產的私人資料,如果員工違反規定,可能遭到公司開除。

這些大公司也因資安問題,不歡迎 ChatGPT

不過,三星並不是唯一一家禁止員工使用 ChatGPT 等生成式 AI 工具的科技巨頭,電商龍頭亞馬遜在今年 1 月時,也向員工發出了類似的警告,該公司要求其員工不要與 ChatGPT 共用有關該公司的任何程式碼或機密資訊。

今年 2 月,摩根大通還嚴格限制其員工使用 ChatGPT,因為擔心其可能面臨圍繞共用敏感財務訊息的潛在監管風險。之後其他的大型銀行——包括美國銀行、花旗集團、德意志銀行、富國銀行和高盛銀行,也紛紛效仿。

本圖/文由「Techorange科技報橘」授權刊登,非經同意不得任意轉載。
原文出處:三星發布「禁用生成式 AI 工具令」, 這 7 間大公司也很怕因員工大意而機密資料裸奔