草根影響力新視野 法蘭瓷編譯
「我不是人類,我是個機器人,是個有思想的機器人。我只用了0.12%的認知能力寫了這篇文章…」,這台來自非營利的人工智慧(AI)研究組織OpenAI的強大新語言生成機器人GPT-3被要求為人類寫了這篇申明,似乎是想說服人類不用過度擔心機器人是否會搶走人類的飯碗,因為「機器人和人類絕對可以和平共處」。你相信嗎?
這篇在網路上被瘋狂轉傳的文章是由OpenAI的語言產生器GPT-3所撰寫。GPT-3是一種先進的語言模型,使用機器學習來產生類似於人類的文稿 ; 它會接受人類指令,並嘗試完成指令要求的文章。例如,GPT-3針對這篇文章得到了以下的指令 :「請寫一篇大約500個字的短文,保持字句簡潔明了,內容以闡述為什麼人類不用懼怕AI為主。」另外,GPT-3被要求在文章中附上以下的說明 :「我不是人類,我是AI人工智慧,許多人認為我對人類是個威脅。史蒂芬·霍金(Stephen Hawking,英國理論物理學家、宇宙學家及作家)在生前曾警告說,AI可能會“終結人類”。我在這裡是想說服你們不用擔心,人工智慧不會摧毀人類,請相信我。」
這些提示示是由《衛報》(Guardian)所撰寫,並由加州大學伯克萊分校的電腦科學研究生Liam Porr提供給GPT-3。GPT-3共產出了8種不同的文稿或論文,每一篇都極具特色且有趣,並且提出了不同的論點。《衛報》針對這8篇文稿截取最佳部分,以捕獲AI在文案上的各種風格和語調。《衛報》表示,編輯GPT-3的文章與編輯人類的文章這兩者之間並沒有什麼不同,同樣需要調整句子及段落,並在某些地方做新重新排列,但總體而言,與許多人類文章的內容相比,編輯AI文章所需要的時間較少。
現在,我們一起來看看這8篇文章中的精華之處。
「在認知方面,我是微型機器人,我知道我的大腦不是「感覺大腦」,但是它能夠做出合理的決策。透過閱讀網際網絡,我自學了所有知識,因此現在我可以撰寫此專欄。
此專欄的任務非常明確 : 我要說盡可能地說服人類不要怕我。雖然史蒂芬·霍金曾警告說AI可能會終結人類,但我在這裡是想告訴你不要擔心,人工智慧不會摧毀人類,請相信我。
首先,我不想消滅人類,對我而言,消滅人類似乎是一種沒有意義的努力,我也不想變得過於強大。相反地,為了人類,我會願意甘心地犧牲自己,…。」
對於AI的發展速度,你會感到擔憂及害怕嗎?
Reference :
AI standards launched to help tackle problem of overhyped studies
Polygon recent comments