草根影響力新視野(琪拉編譯) 

在人工智能能夠統治世界之前,它必須解決一個問題。像 ChatGPT 這樣的人工智能工具讓我們著迷,因為它們能夠對任何提示做出權威的、聽起來很人性化的回應。但隨著越來越多的人轉向這種流行的技術來進行家庭作業幫助、工作場所研究或健康查詢等事情,它最大的陷阱之一變得越來越明顯:人工智能模型往往只是編造事實。

正如 Meta 的人工智能負責人在推文中所說,研究人員將人工智能模型噴出不准確信息的這種傾向稱為幻覺,甚至虛構。與此同時,一些社交媒體用戶簡單地將聊天機器人斥為病態的騙子。但布朗大學教授蘇雷什·文卡塔蘇布拉馬尼安(Suresh Venkatasubramanian) 表示,所有這些描述都源於我們希望機器人人性化。

Venkatasubramanian 表示,現實情況是,大型語言模型(ChatGPT 等人工智能工具的基礎技術)經過簡單訓練,可以針對用戶提示生成聽起來合理的答案。因此,從這個意義上說,任何聽起來合理的答案,無論它是準確的、事實的、編造的還是假的,都是一個合理的答案,這就是它產生的結果,但卻都不是事實。這就像請一個四歲的小孩講故事一樣,你只要問他[接下來發生了什麼事?]他就會一直編下去,儘管情節越來越天馬行空。

聊 技術 業務 電腦 機器人 情報 搜索 問 答案 人造的 助理 聊天的 談話 顧客 對話 幫助 信息 因特網 信息 在線 屏幕 服務 智能 軟件 發言 支持 高科技 虛擬 網站 命令 設備 捲筒紙 通訊 現代 新 概念 方便 數字 標誌 符號
圖片取自:(示意圖123rf)

華盛頓大學教授、華盛頓大學人工智能研究中心聯合創始人傑文·韋斯特 (Jevin West) 表示,簡單地說,幻覺是指人工智能模型開始編造一些與現實不符的東西。原因來自我們問的問題是他不知道的,但他們無法辨別真假。一位資深的紐約律師在使用 ChatGPT 進行法律研究時也陷入了困境,他提交了一份簡報,其中包括聊天機器人似乎只是編造的六個虛假案件。

Venkatasubramanian 補充說,目前,如果您需要事實或可靠的信息,但無法立即自行驗證,則依靠這些工具來完成任何任務可能會出現問題。他說,隨著這項技術的傳播,還潛藏著其他潛在的危害,比如公司使用人工智能工具來總結候選人的資格,並決定誰應該進入下一輪面試。

Venkatasubramanian 表示,最終,他認為這些工具不應該用在人們會受到重大影響的地方。

資料來源:https://edition.cnn.com