
英國政府推動了一項引發民眾關注的 AI 研究計畫,目標是預測特定個體未來是否有犯下謀殺罪的潛在風險。
該計畫原名為「謀殺預測計畫」(Homicide Prediction Project),後更名為「共享數據以改善風險評估」(Sharing Data to Improve Risk Assessment),不過核心內容皆尚未修改,旨在透過數據分析找出潛在高風險會犯下謀殺罪的民眾。
儘管政府強調該系統僅處於研究階段,且僅使用已有定罪紀錄者的資料,外界仍對其隱私風險提出疑慮。
被害人紀錄也被算進來?資料使用邊界模糊
首先,該事件的爭議核心點在於系統所使用的資料來源。根據非營利組織、旨在監測歐盟和公民自由發展的 Statewatch 所取得的文件顯示,這項計畫的演算法不僅使用犯罪紀錄,還可能涵蓋多種非犯罪資訊,包括民眾與警方首次接觸的年齡、作為受害者的紀錄(包含家暴),以及健康相關內容,如心理健康、藥物成癮、自殘、身心障礙等。
英國司法部則堅稱只會使用有定罪紀錄者的資料,但 Statewatch 揭露的數據卻指出,受害者背景與警方初次接觸年齡等資料其實也都已經被列入——對於曾向警方求助但無犯罪紀錄的民眾來說,政府這樣應用資料的方式引發了重大倫理疑慮。
模型加深偏見?AI 預測恐成「數位種族歸納」
另外, Statewatch 也指出,該系統會強化各種偏見。由於其納入族群、社經地位、健康等變項,極可能加劇對少數族群與低收入族群的負面預測。研究者將其比喻為「數位種族歸納」(digital racial profiling),這種方式容易加深社會偏見,尤其針對少數族裔與弱勢族群。
對此政府表示,這套系統目前僅作為研究用途,不會直接應用於警察執法或實施預防性逮捕。官方也強調,資料來源僅限於已具犯罪紀錄、目前正接受司法體系管理的人士。但外界擔心的是,「只是研究」可能只是種說法,未來很可能是政策試水溫的第一步。
預測犯罪不是數學題,AI 治理應更嚴格透明
特別是在司法體系中,如果我們讓 AI 來判斷誰可能會犯罪、誰要被特別盯著,即使對方什麼都還沒做,就可能已經受到不公平對待。這樣的科技應用如果沒有邊界,很容易變成打著「安全」之名的監控工具。
因此,當政府要推動這類 AI 系統時,必須有更嚴格的標準和更透明的機制。包含資料來源要清楚、模型偏誤要定期檢查、結果的應用要被監督。再強大的科技,如果失去信任與正義作為基礎,也可能對社會造成深遠的傷害。
本圖/文由「Techorange科技報橘」授權刊登,非經同意不得任意轉載。
原文出處:英國政府研究「誰會殺人」,人民健康和報案紀錄都用來預測犯罪?
Polygon recent comments