草根影響力新視野 文:喬依絲編譯 Photo Credit: geralt @ pixabay by CC0 Public Domain
首先,先來了解什麼是「AI人工智慧(Artificial Intelligence)」,簡單來說,就是由機器或系統代替人類去做需要經由智慧分析及思考邏輯所做的事,像是 : 理解人類的自然語言、辨識照片中的臉孔、駕駛汽車、依據我們過去的閱譯習慣來推薦我們可能會有興趣的書…等,這和設計用來做工廠生產線上單調且重覆性工作的機器手臂不同。
人工智慧其中且最大的一個功能是「機器學習machine learning」: 機器由大量的數據資料中進行學習及分析,找到可遵循的規則,進而做出進一步的預測,例如 : 消費者行為模式分析、圖片臉孔辨識、棋盤步驟解析…等。「機器學習」可以被應用於解決各類問題,如Google旗下人工智慧公司DeepMind正在與英國健保局合作進行多項醫療專案,包括透過病人的掃描影像診斷出癌症及眼部疾病,以及找出心臟病及阿茲海默症初期患者。人工智慧還可以幫助我們管理高度複雜的系統,例如全球航運網絡。事實上,AI人工智慧無所不在,從金融到交通運輸,監控股市的可疑交易,或協助地面和空中進行交通管制,甚至幫忙將垃圾郵件自e-mail信箱中移除,應用範圍仍在不斷增加。
AI人工智慧發展至今已60多年,並且有著令人驚奇的成果,尤以機器人的發展最為顯著。然而在過去這幾年,已有不少名人發出警告,包括著名的物理學家史蒂芬霍金(Stephen Hawking)、伊隆·馬斯克(Elon Musk)、比爾·蓋茲(Bill Gates)等人,他們提醒大家要特別注意「超級聰明」的AI發展,例如殺人機器人的問世,這些人工智慧最後極有可能會導致人類的滅亡。但有人持相反意見,史丹佛大學副教授、百度首席科學家、國際人工智慧最具權威學者之一的吳恩達博士則表示 : 「恐懼殺人機器人的興起就好比擔心火星人口過多一樣」。
然而,AI的真正風險來自於人類的「過度信賴」,試想一下,AI僅能死板地依靠所提供的大量資料進行分析,可怕的是「資料本身並不完美」,我們不應該過於信任AI將分析出完美不會出錯的資料,尤其是當這些所分析的事物是與人類生命有關時,例如 : 病患死亡風險分析、囚犯是否值得獲准假釋、刑事司法領域的決策…等。生活中任何重要事物如果未經充分審查,僅僅依賴AI的分析結果,那麼「風險」已經存在了。
依據AI人工智慧所做的決策過程需要更多的「人工審查」,畢竟,AI是人類開發的,它有可能像人類一樣聰明,同時也有可能像人類一樣「不完美」。
Reference :
The real risks of artificial intelligence
Polygon recent comments