智慧醫療

智慧醫療是目前全球力圖發展的產業,但隨著智慧醫療的發展,它的問題也一一浮現。WHO 6 月發布了一項有關 AI 醫療倫理與治理的 報告 ,分析了智慧醫療中的 AI 醫療會出現的問題。

智慧醫療發展過程中,出現隱憂

生物醫療的大數據可以優化診斷的速度與準確性,改善照護品質並減少主觀的決定。但目前還在發展的 AI 醫療,已經遇到幾個難題,尤其是在蒐集與使用個案的醫療資料的層面。

智慧醫療資料隱憂一資料品質

有關醫療資料的第一個隱憂,是資料的品質。生活艱難或位置偏遠的地區缺乏醫療服務,導致資料幾乎無法蒐集,或者不準確。

中低收入國家由於數位落差,蒐集資料有難度。例如,即便設備的費用持續降低,在中低收入國家,還是有 12 億的女人因為無法負擔,或者對科技不信任,而不使用行動網路。性別還只是眾多數位落差的一個面向,其他包括地域、文化、種族、性傾向、宗教、語言和世代等。

此外,語言障礙或者不信任,導致人們會提供不正確或者不完整的資訊。要是蒐集到不相關的資料,整個資料庫的品質就會降低。

再者,由於不同人口屬性的樣本數不足,系統用來學習的資料,總是產生多項制度性偏見。而在隨後建立模型以及演算法擴散階段時,這些偏見會浮現。

智慧醫療資料隱憂二:敏感的個案隱私

第二個醫療資料的隱憂,就是個案隱私。

資料的蒐集、應用、分析與分享等行為,讓人持續關切個案隱私的問題,因為這可能會傷害個人,比如以後社會可能會歧視該個案的健康狀態,或者敏感的醫護資料被分享或外流。醫療資料在分享和傳送時,都會暴露在駭客偷竊或意外外流的風險。

新冠疫情期間,許多國家都藉由數位身份來儲存醫療資訊。中國使用 QR 碼,經由演算法計算個案有無感染風險;印度則使用生物辨識數據庫 Aadhaar 追蹤疫苗施打情形;許多國家與地區也使用疫苗護照來辨識使用者是否已經施打疫苗。

這些科技都產生了疑慮,包括它們是否有效、會不會引發歧視,或者可能排擠無法使用技術或設備的人群等;另外,也有政府能否利用這些資訊監控大眾,企業運用在其他用途的疑慮。

智慧醫療資料隱憂三:政府使用資料的用途

第三個隱憂,則是蒐集來的資料用途,可能會比原先設定來得多。

去年初疫情爆發後,新加坡推出「合力追蹤」計畫。當民眾出入公共場所時,包含商場、個別商家、學校、公司行號及所有公共設施等,必須用「合力追蹤」手機 APP 或「行動防疫器」刷進刷出。

初期部分民眾由於隱私疑慮,使用意願不高。為鼓勵使用,主管新加坡智慧國家計畫的外交部長維文(Vivian Balakrishnan)去年 6 月表示,「合力追蹤」資料僅會用於追蹤接觸者。

到今年 4 月,已有 90 %的新加坡民眾參與此計畫,新加坡成為全球新冠肺炎追蹤機制密度最高的國家之一。但當局隨後在今年初承認,合力追蹤的用戶數據可根據新加坡《刑事訴訟法》規定用於刑事調查,引發批評聲浪。

新加坡智慧國家及數位政府署隨後 表示,先前未說明「合力追蹤」資料受刑事訴訟法約束,「是我們的失誤」;並說明政府將立法明定,僅有在調查 7 種嚴重犯罪行為時,包括持有危險武器、恐怖攻擊、謀殺、販毒、綁架、性侵等,警方和法庭才能使用追蹤接觸者的資料。

新加坡「合力追蹤」手機 app 和防疫器使用方式:

除了政府外,這些醫療資料也有分享給商業公司的疑慮,比如保險公司,或者大型科技公司。

Google 在 2017 年 5 月宣佈與美國芝加哥大學和芝加哥大學醫學中心合作,研發預測如突發住院等醫療事件的工具。研究過程中,校方分享給 Google「去識別化」的個案資料,但其中一個病患丁奈史旦(Matt Dinerstein)事後發起集體訴訟,指控大學和 Google 外洩病患紀錄。

丁奈史旦表示只要透過上網查詢,就能夠輕易地把其他如 Google 地圖的可見資料,結合病患個資,來辨認病患身份。他同時聲稱校方並未取得每個病患的同意將醫療紀錄分享給 Google,畢竟該資料對 Google 來說具備商業利益。地區法官閃避了「身份再辨識」的問題,在去年(2020 年)9 月駁回此案,原因包括原告無法證明此件合作案造成了傷害。

這件案件反映出,與「資料分享」相關的訴訟極具挑戰性,同時突顯了醫療個資的隱私缺少足夠的保護。在缺乏倫理規範與足夠法條的情況下,病患可能難以掌握醫療個資的控制權,尤其是當資料被分享給第三方,而且缺乏方法避免「身份再辨識」的時候。

智慧醫療資料隱憂四:資料提供方的弱勢處境

第四個憂慮為蒐集資料可能會強化資料蒐集方與提供方的差距,尤其可能發生在弱勢族群。

舉例而言,通常蒐集中低收入國家的資料,是為了研發或人道關懷,而不是為了促進當地的經濟與治理。

從中低收入國家產生資料有其風險,譬如「資料殖民主義」(data colonialism),意指資料可能在未經同意、未考量到隱私與自主權的情況下使用;或者在忽視個案自主性、尊嚴或人權的情況下,沒有通知個案資料的用途。

報告指出,雖然歐盟的《一般資料保護規範》有境外條款,要求遵守相關守則,但是執行單位沒有提供求償權的義務,且企業可能使用了資料,卻未向提供資料的社群或國家適當的產品與服務。

智慧醫療的 6 大指導原則

WHO 的報告 列出 6 大指導原則,將人工智慧為醫療服務所帶來的好處最大化,並限制風險:

1、保護個人自主權:醫療服務系統和決策仍應由人主導,個人隱私必須獲得保護,患者必須知情同意。

2、保護個人健康安全及公共利益:人工智慧技術應滿足安全、準確和有效的要求,使用領域必須明確定義,必須建立品質控制和技術改進機制。

3、確保透明度:必須公開人工智慧技術的設計與應用資訊,且這些資訊必須容易取得,並確保公眾能夠討論。

4、促進責任和問責制:利益相關單位必須確保人工智慧技術在適當情況下、由經過適當訓練的人員使用,對於受到演算法決策不良影響的個人和群體,應建立有效的問責和賠償機制。

5、確保包容和平等:應鼓勵人工智慧技術盡可能廣泛和平等的使用和獲取,無論各種人口特質。

6、促進人工智慧技術可回應和永續使用:設計、開發和使用人員應持續評估技術的應用效果。人工智慧系統應提高能源使用效率。政府和企業應評估人工智慧技術可能對勞動力市場所造成的影響,並採取應對措施。

本圖/文由「BuzzOrange 報橘」授權刊登,非經同意不得任意轉載。
原文出處:智慧 AI 醫療的隱憂 你擔心自己的疾病個資都用在什麼地方嗎?