(2019-04-02)AI的進展已從科技、商業、製造業進入我們的生活,許多事情都是AI替我們決定,但應用在生活上的AI,難道不會有「失手」的時候嗎?
(2019-04-02)AI的進展已經從科技、商業、製造業進入了我們的生活,許多事情都是AI替我們決定的,我們並不知情。申請學校、求職、人事考核升遷、貸款、購房、醫療、警力治安,甚至法官對罪犯量刑,原都是需要人的判斷又耗費時間的工作,運用或參考AI運算的結果,不但提升效率,又可避免人為介入之嫌,促使AI的運用範圍越來越廣。
我們相信AI,因為有科學的依據,AI是用龐大的資料,藉由一個模擬我們腦子的神經網路訓練出的結果,這一程序製作無數的AI實例,讓我們知道可以信賴它。技術有了,資料更要可靠,所製作出來的AI才可以信賴。
但應用在生活上的AI,多是從統計資料中找出相關的模式,而「相關」並不一定等於「因果」,這就會導致AI的偏差,有人可能因此受到不公平的對待。
康乃爾大學的Rediet Abebe教授,日前在MIT EmTech Digital的會議上表示,AI研究人員必須面對「錯過了的機會」來增進社會福祉,AI務必深層的與社會科學以及弱勢社區合作,來確保AI工具製造的問題不會多過解決的問題。Abebe教授專精AI演算法,以及AI應用的社會福祉,而他所謂「錯過了的機會」,就是指AI應用的偏差。
美國是全球被監禁人數最多的國家,據2016年資料顯示,有220萬人被監禁在看守所與監獄,另外有450萬人在懲教機構接受教化,約每38位美國人就有一個人的行動被限制或被監督。為了減少囚禁人數,同時又不冒增加犯罪的危險,開始採用自動化工具,希望盡可能做到迅速又安全,例如用臉孔識別辨認嫌犯。
人臉辨識,是近年AI的一大進展,全球各地都相繼採用,作為身份的認證。那人臉辨識可靠嗎?用來辨認嫌疑犯不會認錯人嗎?當然會,亞馬遜(Amazon )的人臉識別系統Rekognition不是把28位國會議員認成嫌犯嗎?
但據MIT媒體實驗室研究,人臉辨識率在今年比去年改善不少,深膚色男性、深膚色女性、淺膚色男性、淺膚色女性,四大類別辨識率都有提升,唯有深膚色女性的辨識率,各個系統有很大差異。
2018年,IBM系統的辨識率,淺男99.7%、深女65.3%,相差高達34.4%;Face++系統的辨識率, 淺男99.2%、深女65.5%,相差33.8%;微軟的辨識率,淺男100%、深女79.2%,相差20.8%。其餘深男與淺女都在88%~99%之間,唯有深膚色女性的辨識率偏低。
2019年新加了兩家系統,亞馬遜,以及Kairos,亞馬遜的淺男與深女比較為100%比68.6%,相差31.4%;Kaios的淺男與深女比較為100%比77.5%,相差22.5%;而IBM、Face++、微軟三家的淺男與深女差異,分別下降為16.7%、3.6%、1.5%。至於深膚色女性的臉部辨識為什麼困難,有專家認為所取用的照片樣本太少,或者是照片的角度太少。
認臉可能讓警察抓錯人,隨著技術的改善,機會也會越來越小,但抓到人以後所用的「風險評估」,就比認錯臉嚴重多了。「風險評估」是一個評估再次犯罪的AI工具,評估結果給予「分數」。會不會成為屢犯,是法官對一個人犯量刑的考量,如果法官為了省事,用風險評估的分數做為量刑的標準,一旦這個分數出了偏差,就可能影響人的一生命運。
現代化的犯罪風險,是以歷史資料為基礎,如前所述,歷史資料是統計,從中找出相關的模式,並不代表因果關連。
舉例來說,統計資料找出屢犯與低收入相關,如果以這個結果訓練「風險評估」,那低收入的人屢犯的風險分數必高,量刑也因此加重。但問題是,低收入與屢次犯罪並非有確定的因果關係,更嚴重的是,偏差的AI會繼續自我訓練,循環的結果,偏差的程度越加放大。
以上僅是兩個AI偏差的例子,近年有越來越多學者指出AI用在生活上的偏差,特別在弱勢族群,製造有失公允的結果。Abebe教授呼籲大家要面對事實,結合科技與社會科學,共同來增進AI對社會的福祉,使得不再是「錯過了的機會」。
為此,Abebe教授也發起一個跨領域的研究團體,「社會福祉機制設計」(Mechanism Design for Social Good),寄望成為一個大家合作與參與的典範。
記得一位專家說過:「有了常識之後才是真正的AI。」AI越來越打入我們的生活,而生活又離不開常識,這一斷層,讓我們對AI疑慮,又得接受。在有常識的AI出現之前,這一窘境,也只能希望設計AI的人能加入一點常識來抒解。
本文取材自2019年3月31日「那福忠西海岸數位隨筆(93)」:面對AI用在生活的偏差
對本文有任何看法,歡迎 E-Mail:frank.na@gmail.com 給作者,分享您對本文的看法。