草根影響力新視野 法蘭瓷編譯  

這幾年人工智慧不斷蓬勃發展,生成式 A.I. 在過去一年裡更是迅速成長。然而,A.I.技術仍面臨一個大問題,可能會對現實世界造成潛在的毀滅性後果,那就是「人工智慧偏見」。

人們可能會因為種族、性別或收入等各種因素而對他人產生隱性或公開的偏見,而由人類創建的人工智慧模型當然也承襲同樣的信念。人工智慧模型使用一系列複雜的演算法來處理大量資料,但如果訓練資料本身有偏差,人工智慧模型可能會發現偏差模式並產生類似的偏差輸出。當人工智慧模型的輸出產生偏見或扭曲時,相當於反映了人類的偏見,這就是「人工智慧偏見」。

例如,假設某家公司想要使用人工智慧系統來篩選應徵者 ,若這公司僱用的男性員工人數多於女性,因此該公司在使用歷史資料來訓練人工智慧系統時,“電腦” 非常有可能會直接淘汰女性求職者,反而直接將男性應徵者標記為合格。Lemurian Labs 首席技術長 Theodore Omtzigt表示,如果給予模型錯誤的數據集,那麼就會創建出一個有偏見的系統。

人造的 情報 軟件 革新 概念 移動 數字 機 安全 網絡 未來 技術 業務 背景 雙 多 曝光 素描 手 女人 打字 筆記本電腦 運用 女實業家 解 機器人 腦 備忘錄 統計 頭腦風暴 工作 諮詢 金融 啟發 企業家 咖啡 想法 加快 摘要 複雜 信 線路 歐洲的 僱員 會議
圖片取自:(示意圖123rf)

不過,若只是簡單地讓數據多樣化 — 例如採用兩種不同偏見的資料庫來訓練A.I.聊天機器人 — 恐怕也是無法解決有偏見的人工智慧模型。Omtzigt解釋道:「這樣的做法並不意味著偏差會相互抵消。將兩種資料集結合起來並沒有消除偏見,反而是創建出一個帶有兩種偏見的人工智慧系統。」

Omtzigt 表示,每個資料集都在某種程度上受到限制,因此都會存在著某些偏見,這就是為什麼應該要有人或系統來檢查人工智慧模型的反應是否存在著潛在的偏見,並判斷這些輸出是否有不道德或欺詐的風險。「人工智慧無法判別好壞,因此,當我們在接受A.I.反饋的信息時,必須具備批判性思維能力或懷疑的精神,並且仔細檢驗:這些反饋是真的嗎?」Omtzigt說。

人工智慧領航員 OpenAI 和Google均表示已在努力解決人工智慧偏見的問題。但在偏見被客觀地避免之前,使用者最好更加小心謹慎地判別 A.I.提供的回饋,好讓人工智慧成為工作及生活上的助力,而非阻力。

Reference

‘AI doesn’t know good from wrong,’ says tech expert—why AI bias happens, and how to fix it