草根影響力新視野(琪拉編譯)
社群媒體發現使用者的憤怒是一個很好用的工具,只要使用者月憤怒,就越會激起共鳴,提升其他使用者的參與度,於是它們便允許更多有害內容出現在社群媒體上,不惜在暴力、性勒索和恐怖主義等問題上犧牲使用者的安全。
Meta的一名工程師描述了高層管理人員如何指示他讓更多「遊走在有害邊緣」的內容出現在用戶動態消息中,以與TikTok競爭。「因為股價下跌了。」這位工程師說。
一位TikTok員工罕見地提供了該公司內部用戶投訴儀錶板的訪問權限,以及其他證據,這些證據表明,員工被指示優先處理涉及政客的案件,而不是一系列涉及對兒童有害的舉報。之所以做出這些決定,是為了與政治人物保持密切關係,以避免受到監管或禁令的威脅,而不是出於對用戶風險的考慮。
在BBC紀錄片《憤怒機器內幕》(Inside the Rage Machine)中,一些爆料者近距離展現了TikTok爆炸式增長後,整個行業是如何應對的。 TikTok以其極具吸引力的短影片推薦演算法顛覆了社群媒體,讓競爭對手疲於追趕。
Meta高級研究員 Matt Motyl表示,該公司的TikTok競爭對手Instagram Reels於2020年推出,但缺乏足夠的安全保障措施。 BBC獲得的內部研究顯示,Reels上的評論中,霸凌、騷擾、仇恨言論以及暴力或煽動性言論的發生率明顯高於Instagram的其他平台。
圖片取自:(示意圖123rf)
根據一項內部研究,Facebook的演算法為內容創作者提供了一條以犧牲受眾福利為代價的利潤最大化的道路,並且可以產生最大經濟效益。儘管對這些指控Meta一蓋否認,TikTok也說這是捏造的。
曾於2020年至2024年擔任TikTok推薦引擎機器學習工程師表示,演算法就像一個“黑盒子”,其內部運作難以審查。要建置完全安全的系統非常困難,根本無法控制。而且對工程師來說,貼文內容根本不重要,對它們而言這只是數字,或是ID。
但內部人表示,TikTok為了搶佔更多市場,幾乎每週都在改進演算法,結果卻導致他看到更多「遊走在邊緣」的內容或問題帖子,這些內容往往在用戶瀏覽影片一段時間後才會出現。「遊走在邊緣」是社群媒體公司常用的術語,通常用來描述那些有害但合法的內容,包括厭女、種族歧視、性暗示以及陰謀論內容。
使用者封鎖問題內容的系統形同虛設,主流社群媒體平台仍會向他們推薦暴力和仇恨內容。
Meta的一位發言人否認了這些投訴人的說法。表示已經有嚴格的政策保護平台上的用戶,並且在過去十年中,在安全保障方面進行了大量投資。
資料來源:https://www.bbc.com