草根影響力新視野 喬依絲編譯
由Google前執行長艾瑞克·施密特(Eric Schmidt)領導的專案小組於1月底進行了為期兩天的公開討論,討論美國應如何考慮將AI(人工智慧)應用於國家安全和技術進步層面。專案小組表示,AI犯下錯誤的機率比人類來得低,同時可以減少人員傷亡數量,因此美國在「道德上」應積極開發AI武器,不應禁止使用或禁止開發由AI軟體驅動的自主武器。
專案小組副主席為美國前國防部副部長羅伯特·沃克(Robert Work),他表示:「自主武器在戰爭中的錯誤率預計會少於人類的錯誤率,進而減少目標誤認所造成的人員傷亡或衝突,因此在人道上勢在必行。」然而,專案會議的討論為了人權和戰爭領域陷入了爭議。有一個非政府組織聯盟在過去八年來持續推動「禁止殺手機器人」條約,強調對於襲擊的判斷和為戰爭罪負責等層面絕對需要人為的控制。聯盟網站宣稱,從2014年起聯合機構即已針對此議題舉行討論會議,包括巴西和巴基斯坦在內的30個國家均表示希望實行此禁令。
自主武器的發展已有數十年之久,各國人民十分關注為此類系統提供動力的AI相關技術開發以及關於AI濫用範例的研究。由美國國家人工智慧安全委員會組成的美國專家組在本週的會議上承認自主武器的風險,包括製造快速反應的自主機器可能會加劇衝突。專案小組希望人類只需要做出發射核彈頭這類的決定,並仍認為禁止AI武器的發展將違反美國利益。
已參與「禁止殺手機器人」運動八年之久的瑪麗·威爾漢姆(Mary Wareham)表示,委員會對於中國和俄羅斯所進行的投資競爭展現出的關注,等於是在鼓勵軍備競賽。
除了AI自主武器之外,專案小組提出的報告還建議情報機構使用AI來簡化數據收集和審查工作,而每年用於人工智慧研究的聯邦資金為320億美元。專案小組預定於三月份向美國國會提交最終報告,但報告內容純屬建議性質,並沒有實質的約束力。
AI武器對於人類發展到底是福還是禍? 恐怕要由歷史來見證一切了。
Reference :
US has ‘moral imperative’ to develop AI weapons, says panel
Polygon recent comments