(2020-06-30)AI時代,真的能透過機器學習、大數據分析,預測一個會犯罪的人,甚至進一步用AI軟體相面,只看一個人的臉,就能知道會不會犯罪?
(2020-06-30)2002年好萊塢科幻大片「關鍵報告」(Minority Report),根據美國科幻作家菲利普·狄克的小說改編,由史蒂芬·史匹柏導演、湯姆·克魯斯主演,故事講述若干年後,警察局裡有三名特異功能的人,躺在水池裡互動,就能預測誰會是下一個犯罪的人,警察在他沒犯案之前先抓進警局,成為維繫社會安寧的最好辦法。
有一天特異功能小組又發出有人要犯罪的消息,拿給飾演警察局局長的湯姆·克魯斯一看,竟然是局長自己,戲劇從此展開...。
現在是AI時代,透過機器學習、大數據分析,預測一個會犯罪的人,甚至更進一步用AI軟體相面,只要看一個人的臉,就可以知道會不會犯罪。美國賓州Harrisburg大學的Nathaniel Ashby教授,研究認臉技術,不是從臉部辨識這個人是誰,是從臉部辨識這個人會不會犯罪。這不是科幻,這是真的。
Ashby教授說,這是從警方龐大的罪犯資料與生物特徵,經過深層的神經網路運算得到的結果,有80%的準確度,沒有任何族群偏頗,可以用來發展預防犯罪的工具用於警方與軍方,不會有偏頗與情緒的反應。
當然現在僅是研究報告,並沒有發展成軟體,預備在Springer出版社一系列的下一本書中發表。消息傳出,立即遭到AI專家、教授、研究學者,及跨領域的社會學家等兩千多人,對出版社提出公開信,要求停止出版這樣的研究。
這些學者在信中說,預測犯罪的軟體最需要的是公平,而臉部辨識技術本身就有很多瑕疵,尤其對非白種人的辨識經常出錯。機器學習並非中性,所用的資料常被文化的傳統主導,無可避免的在演算法設計上有所偏頗,以致發展出的軟體造成社會階級,甚至對弱勢族群的暴力合理化。這封信很長,有三個論點:
一、從刑事司法系統取得的資料,不可以用作辨認罪犯,或預測犯罪的行為,因為「罪犯」本身就含有族群偏頗的潛在意涵,所以用任何方法發展出來的系統,都無法脫離族群偏頗的元素。(指少數族群常受執法不公對待)
二、技術上的「公平」被爭議多年,因為設計的學者多半沒有受過方法、架構、及語言的訓練,以致不能在文化背景與內涵的假設上提出質疑,而倫理的公正,只能用數學定義的狹小範圍來權衡,以致無法伸張。
三、預測犯罪技術會再度製造冤屈,帶來真正的傷害。目前有越來越多的AI軟體在族群、階級、性別上顯示偏差,有用機器學習來放大傳統歧視的趨勢,產生新的技術倫理。如果把預測犯罪技術與現實的偏頗結合,所製造的歧視與傷害更可想而知。
這封信是學者寫的,有點學術語言,簡單的說就是美國運用AI在生活上出現偏差,入學、求職、貸款、升遷、醫保、乃至執法,所做的決定很多是靠電腦軟體,為了省事、也為了公平。
但軟體是由人設計的,有意或無意的加入有失公允的變數,列如郵遞區號可能隱射族群、經濟能力、治安狀況,如果居住在經濟能力較差的郵遞區號區域,申請貸款時就可能遭拒,這如果用在執法後果更可能不堪設想。
所以AI設計即使數學上公平,用在現實世界仍難免出現偏差甚至歧視,這一現象越來越為一些學者所詬病,現在又用不成熟的認臉技術,來捉捕未來的罪犯,只能說亂上加亂。
運用AI作為預測性的執法,全球學者都表示反對,日前一群美國數學家也寫了一封公開信,呼籲同僚不要做這樣的研究,除了認臉,也包括預測犯罪行動一類的軟體,尤其是最近發生的佛洛伊德事件,更應該拒絕與警察機構合作,因為這樣太容易給族群偏見覆蓋一件科學的外衣。
不算題外話的題外話,中國的相面之術由來已久,起源於氏族社會,成熟於春秋戰國,有「相由心生」的說法,心裡想的由相貌表現出來。以後更有「麻衣相法」,把人的五官、額頭、下顎、頭髮,都詳細列入相命,其中有「兩眼視物如針、此相不奸即盜」的命相,不知真假,Ashby教授或有興趣研究一下中國的面相之術。
本文取材自2020年6月28日「那福忠西海岸數位隨筆(158)」:科幻成真?
對本文有任何看法,歡迎 E-Mail:frank.na@gmail.com 給作者,分享您對本文的看法。