珂伊爾
• 英國劍橋大學公共政策學教授
演算法和演算法所依賴的資料都有缺失,而且一切資料都是帶有偏見的,即使是「官方(official)」統計資料也不能認定代表客觀永恆的「事實(facts)」。
政府發佈的數字代表當前的社會狀況,在搜集資料的人看來具重要性和相關性,但是被用來理解資料的範疇和分類並非中立的,就像吾人只衡量所看到的那樣,一般往往會對衡量範疇以外的東西視而不見。
就像演算法決策擴散到更大範圍的決策領域一樣,它正在刺眼地暴露出曾經藏在我們搜集資料陰影中的社會偏見,透過將現有結構和流程納入邏輯極值,人工智慧(artificial intelligence, AI)迫使所有人正視AI所創造出的社會。
問題不僅在於我的劍橋大學同事潘恩(Jonnie Penn)所提出,設計電腦的初衷是讓它可如企業般思考,而是,電腦也在模仿經濟學家的思考方式。畢竟,AI是人類想像範圍內從不出錯的「經濟人(homo economicus)」,它是一種能夠合理計算、邏輯連貫並以目標為中心的代理,旨在利用有限的計算資源實現預期的局面,若以「效用最大化(maximizing utility)」論之,它們的有效性超過任何人。
「效用(Utility)」之於經濟學就如以往「燃素(phlogiston)」之於化學一般,早期的化學家們假設可燃物質均含有一種隱蔽元素(也就是燃素),用以解釋物質在燃燒時會發生形式改變。
但儘管竭盡全力,這一假設卻永遠無法被證實,化學家無法證明燃素的存在,同理,現今的經濟學家也無法測量實際效用。
經濟學家利用效用的概念來解釋人們作出選擇的原因:買什麼、投資什麼,工作多努力:每個人都試圖根據自身關於世界的偏好和信念來實現效用最大化,同時也受到收入和資源稀缺所帶來的侷限。
儘管並不存在,但效用卻是一種強勢結構,人們似乎自然而然地認為,每個人都在盡一切可能為自己的利益打算。
此外,經濟學家的實用概念源於古典功利主義(classical utilitarianism),為最多人獲取最大的利益便是古典功利主義的目標。正如現代經濟學家追隨彌爾( John Stuart Mill)的腳步一樣,絕大多數演算法的設計者都是功利主義信徒,他們相信,如果知道有「好處(good)」,那麼就可以將好處最大化。
但這種假設可能造成的結果卻會令人不安。
例如,假設使用演算法來決定囚犯是否應當獲得假釋,2017年一項重要的研究發現,演算法在預測人類累犯率的成效時遠遠勝於人類的預估,同時可用來減少「監禁率(jailing rate)」40%以上,而「不會增加犯罪率(with no increase in crime rates)」。
於是在美國,AI可被用於改變非裔監禁人口不成比例的狀況,但若由AI接管假釋程式後,非裔美國人的監禁比例仍然高於白人該怎麼辦?
高效的演算法決策讓這些問題持續浮現,並迫使人類更準確地決定究竟應當最大化哪些結果,是單純減少總體監禁人口,還是也應當恰當的關注「公平性(fairness)」?儘管政治可以允許回避和妥協來隱藏這種權衡,但電腦代碼卻必須清楚明瞭,無從馬虎。
這種對「清楚(clarity)」的要求使人們對社會不公平的結構性來源更難忽視,在人工智慧時代,演算法將迫使人類清晰地認識過往社會、政治衝突結果如何透過對資料的利用而延續到現在。
多虧AI道德倡議和人工智慧合作夥伴等團體的努力,關於人工智慧道德更廣泛的討論已逐漸出現,但AI演算法僅按照編碼來工作,真正的問題不只限於企業和政治治理領域對演算法決策的運用,同時也在打擊我們社會的道德基礎。
在對透過AI實現效用「最大化(maximizing)」所需實踐和哲學權衡展開辯論的同時,人類也需要進行自我反思,演算法正在凸顯迄今人類如何組織社會、政治和經濟關係的根本性問題。
人類現在必須決定,是否真的希望將現有的社會安排編入到未來的AI決策機制,鑒於目前世界各國正在發生的政治分裂,這似乎是開啟全新篇章的最好時機。
(責任編輯:簡嘉宏)
(原標題為《Lies, Damned Lies, and AI》文章未經授權,請勿任意轉載)
世代傳媒股份有限公司
信箱:service@upmedia.mg
電話:+886 (2) 2568-3356
傳真:+886 (2) 2568-3826
地址:新北市新店區寶橋路188號8樓
探索網站
地址:新北市新店區寶橋路188號8樓
電話:+886 (2) 2568-3356
傳真:+886 (2) 2568-3826
e-mail:service@upmedia.mg
關注我們的報導社群
提供新聞:news@upmedia.mg
投書評論:editor@upmedia.mg
客戶服務:service@upmedia.mg
廣告合作:ad@upmedia.mg