來自文案生成 AI 的虛假信息威脅
草根影響力新視野 夜未央編譯
一份新報告列出了尖端文案生成 AI 模型可用於協助虛假宣傳活動的方式。
重要性:在錯誤的人手中,文案生成系統可用於擴大國家資助的虛假信息工作—而人類將很難知道自己何時被欺騙。
工作原理:像 OpenAI 領先的 GPT-3 這樣的文案生成模型接受了大量網路數據的訓練,並學習根據人類提示編寫出栩栩如生的文案。
- 在今天上午發布的新報告中,喬治城 (Georgetown) 安全與新興技術中心 (Center for Security and Emerging Technology / CSET) 的研究人員研究了 GPT-3 可能如何被用來加強虛假信息宣傳活動,就像俄羅斯網路研究機構 (Internet Research Agency / IRA) 在 2016 年大選期間開展的那樣。
他們的發現:雖然「目前沒有任何自治系統可以取代整個網路研究機構」,但基於算法的技術與經驗豐富的人類操作員相結合,產生的結果簡直令人恐懼。
- 安全與新興技術中心的CyberAI 項目主管與該報告的合著者本·布坎南 (Ben Buchanan) 表示,與許多其他自動化和人工智慧技術一樣,GPT-3 的真正力量在於其擴展能力。
- GPT-3「讓操作員在一條信息上嘗試一堆變異,看看什麼是有效的」他說。 「規模可能會導致更有效的回饋循環和迭代。」
- 「例如,未來的虛假宣傳活動可能涉及高階管理人員向機器發出指令,而不是監督人類內容創建者團隊」作者寫道。 「管理人員將審查系統的結果並選擇最有希望的結果進行分發。」
看點:雖然 OpenAI 嚴格限制了對 GPT-3 的使用權,但布坎南指出,「GPT-3 的開源版本很可能最終會出現,這使得鎖定該技術的任何努力都變得非常複雜」。
- 華為的研究人員已經創建了 GPT-3 規模的中文版,並計劃免費提供給所有人。
- 由於辨別最新的電腦生成文案很困難,布坎南說,最好的防禦措施是平台「打擊用於傳播錯誤信息的虛假帳號」。
底線:與更廣泛的社交媒體一樣,該報告的作者寫道,像 GPT-3 這樣的系統似乎「更擅長作為寓言家而不是沉穩的說真話的人」。
Polygon recent comments