當你在使用 ChatGPT 或是其他由生成式 AI 所驅動的聊天機器人時,可以感覺到好像真的在和他「聊天」。對答流利、文法正確、甚至還帶有一點節奏感,他們是怎麼辦到的?
他們只是個機器人,並不像人類有自己的思想和情感,所以這些看似流利的對話,其實都是被「訓練」出來的。
除了訓練自己,聊天機器人也能接受人類的訓練
OpenAI 的 ChatGPT 等其他聊天機器人都是建立在大型語言模型上,透過大量閱讀網路上的公開資訊,或是經過許可的第三方資訊來源獲得的文本數據集進行訓練;再根據文本上下文常出現的單字,去推測接下來最有可能出現的單字,以及之後接續出現的單字,一步一步的拼湊出答案。
舉例來說,在訓練模型的初期,工程師會先讓模型自行完成句子:他沒有向左轉,而是轉向 __——這個時候模型可能會利用隨機但不準確的答案回應訊息;但經過閱讀更多的資訊進行訓練之後,它可以更理解這句話的意思,並且推測出「右邊」或是「後面」這種答案,所以完整的句子就會是:他沒有向左轉,而是轉向右邊。
除了系統自行訓練之外,聊天機器人也可以進一步接受人類的訓練,以防止錯誤的訊息出現。例如你可以跟聊天機器人說:這是錯誤訊息。這樣系統就可以自行修正錯誤答案,防止再度出現。除了用戶可以給予反饋之外,官方也會有工程師進行提示的修正,這就是提示工程師的工作範圍。
但是,聊天機器人不知道自己不知道什麼
基於這樣的運作原理,聊天機器人似乎無論如何都會生出一個答案。所以當系統遇到不知道答案的問題時,它不會說不知道,反而還會給出一些似是而非的答案。這些答案只是系統的猜測,但它也不會跟你說它是用猜的,而是用肯定的語氣呈現,這種狀況稱之為「幻覺(Hallucination)」。
OpenAI 當然也知道這種狀況,並針對幻覺進行研究。在 2023 年 5 月 31 日的一篇研究文章中指出,他們可能找到了一種方法,可以更符合邏輯,避免幻覺的狀況發生。
OpenAI 利用「監督過程」的方法訓練了一個能夠解決複雜數學問題的模型,而不是之前使用的「監督結果」——「監督過程」是指針對每個單獨的推論步驟提供反饋,一步一步引導模型解出正確的答案;而原本的模型只有針對結果進行反饋,機器人比較容易出現「裝懂」的狀況。
但 OpenAI 也提到,目前只在數學問題中測試這個模型,還不清楚在其他的領域表現如何。如果監督過程可以被廣泛應用,將可以有效提升系統的效率和準確性。
本圖/文由「Techorange科技報橘」授權刊登,非經同意不得任意轉載。
原文出處:聊天機器人總是「不懂裝懂」?因為它有幻覺、它不是故意的
Polygon recent comments