AI歧視的💁就是你

 
你也可以按這裏觀賞視頻版,聽説更精彩!

或者是按這裡取得各大Podcast平台的連接! 

老大哥(Big Brother)是喬治歐威爾在他的反烏托邦小說《一九八四》中塑造的一個人物形象,小說裡的老大哥是大洋國的領袖、黨內的最高領導人,儘管書中的老大哥從頭到尾都沒有真正出現過,甚至也無法肯定他是否存在,但是透過無處不在的監視設備、以及舉目所見的海報標語「老大哥在看著你」,大洋國的人民堅信老大哥的無所不能,服從他的極權管控,喬治歐威爾早在1949年就預料到了未來世界中,人人家裡都會布滿各種監控設備,但是他沒有預料到的是,我們居然會自己買回來裝上。

您好,歡迎來到《聽說你很棒》,我是你讀書時唯壹的朋友,今天為您帶來的是編碼歧視。

我們關於人工智慧AI的認知,很多都是來自科幻作品,比方2002年的電影《關鍵報告》就從國家設立了犯罪防治中心來展開故事,電影說在2054年的未來,我們能以人工智慧解讀先知的夢境來預測犯罪、搶先一步找出被害人與加害人,電影呈現出來的人工智慧,對電腦添加了很多魔幻的遐想。但是自從智慧手機誕生,幾十億人天天掛在網路上,為谷歌、臉書、騰訊、阿里巴巴之類的企業提供大量數據做分析,加速人工智慧的發展,所以如今的人工智慧已經進化到電腦自己會消化這些資料,就像學生寫練習題,練得夠多、反應的時間越短、學習效果就越顯著。

現有的人工智慧工具使得政府可以方便地進行大規模的維穩,例如「刷臉」,再配合「社會信用」的系統來進行管理,各種行為都有可能會影響個人,甚至是家人朋友的得分,時時提醒大家要謹言慎行。

許多人現在的生活中就有很多需要使用人臉識別系統的機會,包括逛超市、搭乘大眾交通工具、進出各種門禁,只要刷臉就能開鎖甚至消費,很方便,反過來說,因為這張臉就代表個人的信用,市民也認知到失去社會信用就會相對的被限制行動,這會促使人們好好經營自己的臉面。試想一下,如果一位新朋友的社會信用度很高,你會不會比較放心的和他來往?

除了政府的治理,商人也把手伸了進來。我們每天都受到了各種電腦演算法的騷擾,購物網站以購物記錄決定每個人買到的商品的價格、銀行以交易記錄計算一個人的貸款利率,連一個人是否有逃漏稅的傾向、會不會隱瞞婚姻狀況?這些數據全都存在某一個冷冰冰的電腦機房裡,貼好標籤、明碼標價,明目張膽的把隱私當成商品四處兜售。

在中國、政府建造一些自動化分類全中國人民的系統,用來維持社會穩定。反之在美國,人工智慧的開發不是以公眾利益為出發點,而是為了商業利益、為了增加利潤,各領域的獨角獸竭盡全力吸引你的注意力,直到把你的口袋掏空。而且在美國,人工智慧竟然還學會了美國人的文化特產,那就是各種歧視,例如性別歧視、種族歧視。

最有名的人工智慧歧視來自全世界最會賺錢的蘋果公司,蘋果的一位合夥創辦人指控自家公司新推出的電子信用卡涉嫌性別歧視,這位賈伯斯的創業夥伴、被暱稱為神奇巫師的史蒂夫沃茲尼克在推文上說,他和妻子沒有各自獨立的帳戶或財產,但是他的信用卡額度卻是妻子的十倍,他不知道這個結果是如何運算出來的?

換句話說就是,這位蘋果的最高層主管雖然主持編寫了演算法,但是卻無法掌握運算的過程,這下子問題來了,要是我們無法掌控演算法的邏輯,那要怎麼維持公平正義呢?

無獨有偶,亞馬遜的工程師使用人工智慧來協助篩選應徵者,卻在這個過程中發現了詭異的瑕疵,最後放棄了這項人工智慧的審核工具,因為這個程式被發現竟然會歧視女性,自動拒絕所有來自女性的申請,只要出現了女子相關的字眼,例如女子大學、女子運動,女子社團,都被程式一一排除,以致於亞馬遜只有很少數的女性有機會擔任高層科技職位。而且事情還沒完,演算法不只決定了工作機會,甚至還左右了生病就診的權利,紐約的保險監管機構正在調查聯合健保,因為有研究顯示聯合健保的演算法存在偏見,簡單說就是小病的白人竟然會比重病的黑人更優先得到治療。

現在的科技企業對我們的私生活全都瞭如指掌,比如一個人是否具備賭徒性格的傾向,精明的演算法可以輕鬆找出有機會染上賭癮的人,然後瘋狂的向這些人展示飛往賭城的特價機票,直到這些人傾家蕩產,再也榨不出一分錢為止。

在網路的世界中,這些企業總可以找到你最脆弱的時刻,用你最抵擋不了的東西引誘你,機器學習展現的就是這樣的功能,它獲得數據、學會分類與判斷,然後精準推銷,每個人都難以逃離這樣的影響。這些獨角獸企業輕輕鬆鬆就推翻了世界上最困難的兩件事:一是把別人的錢放進自己的口袋,二是把自己的想法裝進別人的腦袋。有了人工智慧的演算法,不論是電子產品、化妝品、奢侈品,甚至連思想都能夠販賣。

2010年的某一個選舉日,臉書私下對6100萬的美國用戶做了一場實驗,這些人都在自己個人的頁面上看到「今天是選舉日」的提醒,不過其中一部份用戶的頁面下方、還能看到自己已經去投票的朋友的頭像,臉書後來發現這些頭像影響了30萬人出門去投票,要不是臉書把這個實驗結果公佈出來,它的用戶恐怕到今天都不知知道自己已經被臉書無聲無息的控制了。

現在的人工智慧已經成長成了一個黑盒子,埋藏了說不清道不明的秘密,一切都任由程序與數據自動做出決定,從選擇誰被聘用、誰被解僱,到保險金額的高低、網路購物的價格,問題是竟然沒有人知道電腦是如何做出這些決定的。

美國有一個叫做「教師增值模式」的演算法,顧名思義,它是一種計算老師們為學校貢獻多少產能、多少價值的電腦程序。一位在德州的中學老師桑托斯就被這個增值模式給解僱了,但是這位桑托斯老師得過兩次年度最佳教師獎、全月最佳教師獎、是被表揚的志工、也因為對學生盡心盡力而被家長、教育局讚不絕口。但是演算法無法將這些口頭評價列入計算,於是得出了他不適任的結果,應該予以解聘。被解僱後的桑托斯老師陷入人生低潮,甚至開始懷疑自身價值,好在最後桑托斯老師決定走出低谷,開始著手調查這個詭異的電腦演算法,最後向聯邦法院提出訴訟,並且找出其他可能也受到這個不公平對待的老師們。

結果不出所料,這個世界上竟然沒有人能解釋他們被解僱的原因,連編寫演算法的人自己都講不清楚裡面的邏輯,於是聯邦法院最後裁定這個「教師增值模式」侵犯了老師們的工作權。因為工作權遭受剝奪,那被剝奪的人總有權利知道自己被解僱的原因吧,既然說不清楚,那就是無理的侵犯。

不管是哪一種人工智慧,或者叫演算法,最讓人擔心的其實是背後的權力,也就是誰擁有這些程式碼,誰決定把它們應用在什麼人身上,這個決定本身就很危險。

大公司所開發的演算法號稱只有數學架構,不帶有歧視,也就是和種族、收入、或性別毫無關係,但數據是來自過去的歷史,近到昨天,遠到上古,

在演算法存在之前,人類就已經存在,我們都知道,人類有時候很不公平、本能的親疏有別、趨吉避凶、避重就輕,如果我們使用的數據出現偏差,得到的結果自然也會偏差,

我們以為有了現代化的萬能演算法,就可以避免這些歧視,實現世界大同,現在是不是覺得這個想法實在太天真了。

原先我們用人性與理智爭取到的社會進步,有可能在機器不會偏心的誤解下演變成文明的倒退,現在依靠演算法去判斷誰可以貸款或是傾家蕩產、誰可以得到或是失去工作,要是我們不再抗拒這些科技的獨角獸,下一個被歧視的很快就會是你跟我。所謂的各種演算法,總有一款適合羞辱你。

今天的分享希望您會喜歡,我是你讀書時唯壹的朋友,

《聽說你很棒》是一個有趣、有料、有意義的有聲雜誌,為您不定期的分享我們的心得、發現與故事。下期,更精彩!

留言