如果你有在使用 ChatGPT、Bing 聊天機器人,你可能知道它會「亂說話」,編造一些虛假資訊,有時候給出的回覆還蠻搞笑的。但當 ChatGPT 捏造出以假亂真的資訊,並對真實存在的人做出不實指控時,就一點都不好玩了。
美國法學教授 Jonathan Turley 日前收到一封來自他同事的奇怪電子郵件,這位同事表示他使用 ChatGPT 做研究,要求它生成一份涉及性騷擾案件的法律學者名單,而 Jonathan Turley 的名字竟出現在名單上,而且 ChatGPT 還引用了《華盛頓郵報》2018 年的文章做為資訊來源,說他曾在阿拉斯加旅行時,對學生進行性騷擾。
但 Jonathan Turley 表示,《華盛頓郵報》從未發表過這樣的文章,他也從未被任何人指控性騷擾或性侵犯。他一開始覺得這個不實指控很滑稽,但經過一番思考後,他認為聊天機器人這樣的「失誤」意味著更大的威脅性,不只人會無緣無故被誹謗,包括越來越多的假訊息會被捏造出來,甚至被拿來做政治操作。
AI 帶來的負面影響未來恐怕會層出不窮?近期也有越來越多專家呼籲暫緩 AI 發展,同時加速制定 AI 相關的管理規範。而這類的擔憂也越來越多,像是生命未來研究所(Future of Life Institute)在上個月發布的一封公開信中,表示AI 系統「可能對社會和全人類構成嚴重風險」。
◆ 延伸閱讀:【沒趕上車的他,現在叫大家快停下來】馬斯克帶頭呼籲全面暫停訓練 AI,被批虛偽
這週(4/4)美國總統拜登會晤總統科技顧問委員會(PCAST)時,當被問到 AI 是否危險時,他說:「這仍有待觀察,可能是有危險的。」他也表示,AI 能幫助因應疾病和氣候變遷,但如何因應社會、國家安全和經濟面臨的潛在風險也很重要。
除了美國,最近歐洲國家也相當關切 AI 訓練所衍生的隱私問題。義大利數據監管局認為與 ChatGPT 對話可能會造成隱私方面的侵害,當局宣布從 3 月 31 日開始,暫時封鎖 ChatGPT,也開始調查 OpenAI 收集用戶數據以訓練 AI 的行為。
本圖/文由「Techorange科技報橘」授權刊登,非經同意不得任意轉載。
原文出處:ChatGPT 製造性騷擾醜聞事件!一位美國教授被指控有案底,直喊冤枉
Polygon recent comments