HOME

 

 

那福忠,網路作者。
   
  西海岸數位隨筆
美國西海岸 吸取太平洋與陽光精華 隨時有精彩故事發生
  Novebber 03, 2019  醫保AI的偏差與矯正
  請把你的想法寫信給我: [email protected]
   


你是否需要醫療的特別照顧,可能是由 AI 軟體來決定 。Photo by Pixaby from Pexels

   AI 用在非技術性領域,尤其是涉及到人,出現偏差的情況越來越引人注意,對 AI 運算的有失公允,也越來越教人憂心。「科學」(Scicnece)雜誌簡單的舉了幾個例子:高薪的求才廣告就不太讓女性接觸到,用影像搜尋專業的 CEO 就很少出現女性的照片,用在治安的臉部辨識對女性與非裔則有欠精確,搜尋非裔有名望的人卻轉到通緝嫌犯的名單。對性別與族群出現忽隱忽現的歧視,AI 究竟在哪裡出了問題?

   有人說歧視是設計的人故意留下的,如果是的話是違法,即使有這樣的人也是極少數。AI 的製程是一個很複雜的流程,在先天上有偏差的元素,例如首先要決定這個 AI 要做什麼事,就要製造一個機器學習的模型,做什麼事可能是含糊的語言,要逐項具體化才能轉換成機器學習的模型,這是人與機器的溝通,不同與思維與語言,出入難免。

   收集訓練機器的資料,是可能導致 AI 偏差的最大原因。資料從多處不同來源,品質不一,如果本身就有偏差,那結果必然偏差。資料代表性不足,例如用太多膚色淺的照片訓練認臉,那對深膚色的臉部辨識就不精準。歷史資料代表一個機構的特質,如果一家公司男性員工多,用應聘的歷史資料訓練求才的 AI,那 AI 必然傾向雇用男性,造成性別的失衡。

   有了資料,就要從龐大資料群選擇內容,也就是用哪些項目來訓練機器,希望 AI 來考慮。涉及到人的事情,不外年齡、性別、住址等基本資料,或學歷、經驗、專長、財務狀況等職業資料,但這些資料項目相互關連,選用哪些與放棄哪些,往往是一大挑戰,因為都會影響結果的精確性。

   AI 在製作上有這麼多發生偏差的機會,一旦發現偏差要改正卻是另一個難題,因為首先要找到哪一項或哪幾項資料導致偏差,即使找到更改,有時會製造另一個偏差。其實基本問題在 AI 的技術性製程,幾乎全由電腦技術人員負責,涉及到的許多社會問題,往往疏於考慮,像是「公平」並沒有名確定義,同一 AI 在甲地認為偏差不公,在乙地就可能沒有問題。

   加州大學柏克萊分校的學者,最近做了一大善事,破解了美國健保的一大偏差,受惠的人無以估計。美國的健保機構用 AI 來預估病人是否需要額外的照顧,但這一結果卻傾向白種人,對於需要特別治療的複雜病情如腎臟病或糖尿病,白種人則優先於非裔黑種人。生病不分黑白,治療卻分先後,這是 10 月 25 日「科學」期刊的一篇研究報告「剖析管理大眾健康演算法的種族偏差」報導的。

   研究人員從一家大型教學醫院取得五萬份資料,發現白種人較同樣病情的非裔族群,更容易獲得較高的「危險分數」,被選為需要額外照顧的病人,經研究人員估算,這一偏差可能讓原本應得到額外照顧的非裔病人,減少一半。華盛頓郵報指出這一性命交關的軟體叫 Optum,為有 7,000 萬顧客的保險機構 UnitedHealth 所擁有,研究人員又找出業界最常用的 10 種演算法,累積的類似偏差涉及到 2 億美國人。

   美國的醫保為營利機構,用商業的方法來決定病人的保健,所以電腦軟體的演算法採用了歷史資料,也就是用病歷年來預估醫保系統的成本,歷年醫療花費越多,「危險分數」越高,遇到複雜病情就越需要特別照顧。邏輯不錯,社會現象卻錯了,因為非裔族群由於社會經濟的種種原因,同樣的病情在醫療的花費較白種人少,所以同一電腦「危險分數」,非裔病人就較白種病人病情嚴重得多。。

   現在問題就非常明確了,病人需不需要特別照顧,是看病情、不是看估算出來的成本。這一原本認為可以準確預估成本的系統,卻假設同一病情的非裔病人較白種病人健康,分配到較少的醫療資源,造成不平等的現象。

   幸好研究人員及時改正了 Optum 軟體,使偏差矯正了八成以上,新的版本除了預估病人未來的成本,也預估病人今後舊病復發的次數,使得需要特別照顧的裁決因素更為合理。

   AI 的偏差不是不能矯正,但找到偏差問題所在並不容易,找到又要怎麼更改,是不是會延伸另一偏差,也是大家所顧慮的,這恐怕是看到偏差卻少有人更改的原因。加州大學柏克萊分校的學者找出醫保的偏差,然後公允矯正,值得讚揚。但像徵才、信用評等、保險估價、乃至刑事公正,電腦運算或有欠公允的情況,就仍待專家們去剖析匡正了。




上一篇  下一篇  索引