草根影響力新視野 編譯/陝紅宇
CEO薩爾帕薩說,“Predictim是一款使用人工智能審查潛在保姆的應用程序,可以幫助父母決定他們想要信任的人,即使這項服務被Facebook和Twitter阻止,但也會堅定繼續使用社交媒體數據來改善其推薦引擎。”
薩爾帕薩的公司從社交媒體網站收集的大量信息並使用一種自然語言AI形式來過濾和排序。 他說,公司的產品旨在幫助父母和寵物主人更多更好地瞭解潛在保姆,瞭解看護人的個性特徵。
該公司的技術員會根據社交媒體活動產生對應的“風險評分”,對一個人的生活態度以及他們參與網上騷擾或濫用藥物的可能性進行排名,並標記可疑內容,然後自動生成一個報告,並解釋每個排名的含義。
“我們的人工智能可以評估個體在欺凌,騷擾,性暴力內容和濫用藥物方面的在線行為,”薩爾帕薩說。
Facebook,Instagram和Twitter最近因違反科技公司的數據收集和用戶隱私規則而阻止了Predictim公司的行為。“我們嚴格禁止將Twitter數據和API用於監視目的,包括進行背景調查,”Twitter發言人Nick Pacilio說。 “當我們意識到Predictim的服務時,我們進行了調查並撤銷了對Twitter公共API的訪問權限。”API是應用程序編程接口的首字母縮寫,該技術允許計算機應用程序交換信息。Facebook最近指出,“在Fb上蒐集人們的信息違反了我們的服務條款。”
但薩爾帕薩反對禁令。 “我們使用的是公開數據,不會違反他們的平台政策。”
自該產品推出以來,Predictim應用程序對公共數據的使用一直存在爭議。 Twitter上的一些用戶指出該公司的結果不一致,並表示擔心除了社交媒體信息之外,Predictim公司可能依賴於開源智能(OSINT),如學術期刊,智囊團研究和傳統媒體報導等。
數字隱私專家Sarah Clarke擔心在OSINT上使用數據過於通用,並且會產生“內容模糊容易出錯”的結果。AI專家對該公司不透明的方法表示懷疑,並擔心其使用的數據源可能導致不準確,不完整或破壞性的結果。
“事實上很多數據庫都存在偏見,特別是針對女性和少數民族,”人工智能專家詹姆斯巴拉特講道。 “許多數據庫都是手工編碼,有些事幾十年前創立的,他們傳承了創造者的偏見。例如,佛羅里達州的監獄判刑算法是使用歷史監獄判決建立的,他們對少數民族更加苛刻。”
巴拉特也對使用人工智能根據社交媒體信息對個人進行排名持懷疑態度。
“是什麼讓未來真正的雇主有權利通過要求訪問他們的社交媒體帳戶來侵犯某人的隱私?”巴拉特問道。 “這些神奇的排名算法背後的過程是’黑盒’系統,這意味著你無法深入瞭解排名是如何製作的。”
另一位專家Hansson 說,保姆可能會受到依賴社交媒體數據的AI系統的傷害。他說:“我認為不可能查看22篇Twitter帖子,然後以合理的確定性宣稱撰寫這些帖子的人容易吸毒或社交性格差。”“他們的尊嚴因受到這個過程的影響而降低”,“他們可能無法獲得他們非常有資格的工作,因為機器給了他們一個糟糕的分數。”
但薩爾帕薩反對批評,“我們將技術與其他模型疊加在一起,每一次被標記為中等或高風險的掃描都由受過有意識和無意識偏見訓練的分析師進行人體評估後得出的,解釋是合理的,而不是黑盒子。”
Polygon recent comments