草根影響力新視野 法藍瓷編譯
網路上存在一些人們正在進行許多事的影片, 而事實上這些都不是當事者做的。我們可以看到影片是真人, 有著像照片一般栩栩如生的臉孔、畫面, 但卻全都是假的。
這樣的影片有一個專有名詞叫做『深度偽造影片』(deepfakes), 是透過 AI 人工智能來修改的高端偽造技術。這樣的技術一開始出現, 無可避免的是被運用在色情影片, 也就是將明星臉孔秀到女主角上, 真實度幾可亂真, 不明究理的人會以為這是某個明星被狗仔偷拍外流的畫面。而現在這樣的技術也侵犯到政治領域, 帶來的衝擊不容小覷, 甚至讓人們開始擔心並開始建議英國政府、美國國會是否要開始立法規範一下。
這樣的影片之所以開始被引起注意, 起因於今年五月份, 一位美國眾議院議員Nancy Pelosi的媒體專訪被人蓄意修改正常速度, 也就是將原本其正常速度降速75%, 降速過後的Nancy Pelosi在影片中就好像微醺及意識不清一般的陳述其言論 (連結)。這部被修改過後的影片在各平台上被瘋傳百萬次以上, 分享者包含前美國紐約市市長及現任川普律師 Rudi Giuliani。諷刺的是, 這部影片甚至還沒用到任何高端AI技術來製作。
當Pelosi的影片傳出後, 『深度偽造』更將觸角伸向許多的名人, 例如, 臉書執行長馬克.祖克伯(Mark Zuckerberg)也在一段被惡搞的視頻中闡述自己手上握有十幾億人個資, 並感謝神秘的Spectre 漏洞技術, 誰握有技術誰就掌握控制大權(連結)。我們可以在這邊數算曾被惡搞的名人, 從娛樂界、科技業、到政經界都有, 只要有心人拿到錄好的影像, 就可透過影像重新編排嘴型、陳述的內容, 最終讓人被誤導。
事實上, Spectre是利用OS作業系統在存取數位檔案時所產生的漏洞來修改; Spectre使用的並非檔案中單一漏洞, 而是一群漏洞, 而作業系統針對這樣的漏洞是不容易修復的, 這讓有心人可透過漏洞所提供的地利之便隨時更改檔案, 更改則透過開發的AI圖像技術生成新圖像。透過如此的圖像生成技術, 不須用到真人也可讓一般人誤以為此人真的存在, 點選連結 (this person does not exit), 每刷新一次就會出現如真人般的照片。
『在現今資訊科技發達的現代, 許多人或許對資安的顧慮存在過多的恐懼, 但這一次不同。』英國牛津大學的牛津互聯網協會 (Oxford Internet Institute)的AI人工智能法教授Sandra Wachter說道。『任何發展過快或隨意濫用的技術都有可能導致意料之外或不可控制的結果, 我們能夠在這個事件中看到假消息是如何以最短的時間內被精良的製作出來, 進一步被如病毒般快速散播, 完全沒經過查證就被瘋傳, 這是很可怕的。』
有鑑於此, 英國開始積極規劃相關法令準備打假, 準備成為全球第一個針對假AI做出的消息有所規範的國家。雖然目前要蒐集的資料繁多, 不過卻是很重要的一步, 因為科技在往前走, 法令要追得上, 不能有灰色模糊地帶。根據一份針對資訊素養研究顯示, 芬蘭兒童對假消息真偽的辨別能力最高。因此在未來, 民眾也需要提升資訊素養來分辨消息的真假, 防止一錯(原本就是假的)再錯(還傳出去)的窘況。
Reference : What do we do about deepfake video?
Polygon recent comments