懲罰貧窮:大數據橫行的自動化時代,隱藏在演算法之下的不平等歧視

NT $ 380
NT $ 300


2019年莉莉安・史密斯圖書獎(LillianSmithBookAward)、2018年麥加農中心圖書獎(McGannonCenterBookPrize)獲獎作品 本書揭露高科技工具影響人權與經濟公平。看似客觀中立的機器運算,可能在學習人類提供的資料後,再複製社會偏見與歧視,形成「自動不平等」! ▴美國印第安納州在三年內駁回100萬人的醫療照護、糧食券和現金救濟申請,只因為資格自動審查機制把不完整的申請錯誤統統歸結為申請者未能配合。繁瑣的行政程序和不合理的期望使人們無法獲得應得的利益,只有少數幸運兒得以獲得公共資源。 ▴▴洛杉磯由於住房有限,當局採用一種演算法,計算成千上萬名無家可歸者的「相對弱勢」,並按照優先排序提供這些人住房服務與資源。然而,這套系統會跟警察系統共享貧窮人口和工人階級的個資,造成窮人與犯罪分子輕易被歸納為同一個分類,否決了他們的基本權利,損害了他們的人性與自主權。 ▴▴▴賓州阿格勒尼郡的風險預測模型以統計數據來預測哪些家庭會虐童、哪些人是問題父母,但數據庫的資料來源卻集中在仰賴公共資源的低收入家庭。光是在2016年,模型預測的1萬5139筆虐童報告中,就有3633筆不正確;在此同時,數千個貧困家庭與少數族群的生活早已無端遭受侵入及監視。 進入數位時代以來,金融、就業、政治、衛生和公共服務、治安管理等領域的決策都經歷了革命性的變化。如今是由自動化系統而不是由真人來掌控哪些社區受到監管,哪些家庭獲得需要的資源,或是哪些人該接受詐欺調查。雖然人人生活在這種新的資料制度下,但侵入性及懲罰性最強的制度,卻完全針對窮人所設計。 政治學家維吉妮亞・尤班克斯在本書中,有系統地探究了資料探勘、政策演算法、預測性風險模型對美國窮人與勞工階級的影響。書中充滿了令人揪心、瞠目結舌的故事,例如印第安納州一名婦人因為癌症末期住院治療,錯過了重新認證補助資格的預約,被取消福利救濟;賓州的某個單親媽媽每天都擔心失去女兒的撫養權,只因她符合某種統計形象。 美國一直以來使用最尖端的科學與技術來遏制、調查和懲戒窮人。「數位追蹤」與「自動化決策系統」就像以前的郡立濟貧院以及科學慈善運動,讓中產階級看不到貧困,讓國家抽離了道德規範,做出非人道的選擇:誰能獲得溫飽、誰得挨餓受凍;誰有住房、誰依舊無家可歸;政府應該拆散哪些家庭。在這過程中,它們更削弱了民主,背叛了人們最珍視的民族價值觀。 也許,貧窮並非我們都需要馬上面臨的課題,但在演算法的使用之下,所有人都將無可避免地受到資源分配的影響。這本研究深入、慷慨激昂的好書來得正是時候! 本書特色 1.綜觀書市,大部分類似的書籍都僅探討演算法對於社會的影響,很少有如本書一樣聚焦於「貧困」議題;而這個問題並不單單只會發生於窮人身上,因為演算法讓所有的人都有可能遇到類似的困境。這樣的主旨使本書在相關作品中更顯獨特。 2.本書特別針對公共福利相關的措施來做描述,從事社會福利相關職業、關注當今貧窮社會議題的讀者,或是對科技應用於社會福利制度有興趣的讀者,在閱讀完本書之後,都能對貧困現象的產生與發展有更進一步的瞭解。


自動化 補助 演算法 模型 住房 洛杉磯 家庭