AI Delusion-錯覺.AI如何通過數據挖掘誤導我們

先用一句話來介紹這本書:大數據與人工智能,帶著幾分神秘的科技色彩、悄然無聲地開始支配著我們的行為,然而它所代表的強大與智慧,來源卻是我們的錯覺。
作者舉例說:許多人認為,人工智能和大數據可能會比工業革命更大幅度地改變人類,然而作者認為這種說法誇大了,因為計算機只是擅長收集、儲存和搜索數據,它們沒有常識或智慧,不知道數字和語言的意思,無法評估數據內容的相關性和有效性,它們沒有區分真數據、假數據和壞數據所需要的人類的判斷力,沒有分辨有理有據和虛假僞造的統計分析所需要的人類智慧。
作者進一步說明,現在許多的大數據挖掘,都是先找到數據特徵,再到數據庫中去發掘具有高度相似特徵的其它數據,然後再創造理論來解釋它們之間的關係,實際上完全沒有意義,簡單說就等於是先射箭再畫靶。
例如我們可以很容易地把某個上市公司的股價走勢,與地球上某個城市在過去某段日期區間的溫度走勢,完美地高度重疊在一起,但它們之間只有相似關係,完全沒有因果關係,但是人類卻可以因此編造出頭頭是道的理由,比方說高溫的時候人類容易衝動,所以會有更大的股價波動。更可悲的是,因為使用了人工智能這樣令人敬畏、同時充滿時尚感的名稱,許多人真的會因此相信氣溫與股價存在因果關係的連動。
作者認為,我們熱愛計算機為我們帶來便利的同時,不應該忽略計算機的局限性。真正的危險不是計算機比我們更聰明,而是我們認爲計算機具有人類的智慧與常識,甚至認為大數據挖掘就等於不斷的“發現新知識”,進而信任計算機爲我們做出重要决定。事實上更多的計算能力與更多的數據,並不等於更多的智能,我們需要對人類的智慧抱持更大的信心。
本書作者加里·史密斯(Gary Smith)是耶魯大學經濟學博士,現任波莫納學院經濟學教授,撰寫過80多篇學術論文和12本書,他的研究被世界各大主流媒體競相報導。
接下來我們就一起來聽聽,史密斯教授要從什麼角度告訴我們,已經輕鬆打敗世界圍棋棋王李世石的計算機,與早就已經深刻影響我們生活的大數據,它們的聰明為什麼只是我們的錯覺而不是真正的智能。

接下來我們進入主題,下面將從三個部分來解釋並舉例,為什麼人工智能與大數據挖掘,實際上是為了商業目的製造的誇大的錯覺。
第一部分:一個最像計算機的人:
有一位住在馬來西亞的新西蘭人,耐吉(Nigel Richards)他花了9個星期的時間背下了法語字典,並贏得了法語拼字游戲的世界冠軍,但有趣的是,耐吉一句法語都不會講,而且,他也不理解任何法語單詞的含義,他只是死背硬記。
計算機就好比耐吉,他們都不知道任何單詞的真正含義,它們只是將正確的字母組合存放在記憶體裏面。但是耐吉畢竟只是個異類,人類最終還是無法在記憶與運算速度爲王的活動上與計算機競爭。
但是人類就因此註定要對計算機俯首稱臣了嗎?不見得,因為人類擁有機器難以學習或複製的智慧。智慧使人類能够識別出含義模糊的語言和扭曲變形的圖像,人們會對問題追根溯源,能夠應對異常情况以及很多雖遵循規則却無法處理的事情。
比方說,人類可以輕易理解“能穿多少穿多少”,這句話在夏天與冬天所傳遞的不同含義,但是計算機卻無法理解這句話。也正因為如此,人類早就已經放棄使用計算機來模仿人類大腦的運作,而是將精力與資源投注在儲存、搜索與運算能力的提升,因為前者曠日費時而後者立即有利可圖,因此商業社會的投資報酬邏輯等於限制了計算機的潜力,至少在未來的數十年內,計算機都無法擁有人類的思維能力。
目前的計算機程序並不是以人類大腦的方式運作,因此,人工智能這樣的稱呼具有高度的誤導性。例如:有人對著自己的蘋果手機說:Siri,我要叫救護車。Siri回答他:好的,從現在開始,我就叫你“救護車”!
許多人認爲這是Siri很機智又會說笑話的證明,但別忘了如果當時真的是生死交關的緊急狀態,使用者會感覺多麼地無助。事後證實,這單純就是Siri誤讀了這個指令,同時也證實了Siri無法經由語氣,來判斷人類的真實意圖,而語氣卻是連三歲小孩都懂的,察言觀色的起碼的智能。
計算機在這方面的弱智也反映出一個事實,它無法理解概念與想法。
我們再舉一個例子:有人說,我無法用這把斧頭砍那棵樹,它太粗了。我們會知道他說的粗是指樹太粗;但同樣一句話再說一次,我無法用這把斧頭砍那棵樹,它太小了。我們會知道他說的小是指斧頭太小。
這種包含有多個名詞的句子,人類總是能夠立刻且毫不費力地就能理解,但是對計算機來說就非常困難了,因爲計算機沒有現實的生活經驗來提供它理解詞彙的語境。
作者指出,人類並不是沒有嘗試製造出能像人類一樣思考的計算機,但事實證明,這個嘗試極難實現,部分原因是我們並沒有真正理解人類大腦是如何運作的。結果人工智能轉向商業上有利可圖的方向發展,從此專注記憶而放棄概念。因此成為我們今天看到的,具有精確記錄和檢索能力的機器,但是完全說不上有任何的認知思維。
例如,計算機可以用一眨眼的功夫找出古往今來所有提到背叛兩個字的文件,但却無法提供任何不提到背叛但實際上是有關背叛的故事。也就是計算機可以快速查找單詞,但根本沒有理解單詞的意義。
人類的智慧和常識都來自真實生活,我們記憶的都是實際的經驗,然而計算機卻完全不具備,這也就是爲什麽大數據和大電腦經常會製造出大麻煩。例如:美國某個州的大數據研究發現,高速公路的交通死亡率與車速限制成反比,也就是車速越快的路段死亡率越低;車速越慢的路段則死亡率越高。大數據認為,很顯然放寬速限可以有效减少車禍死亡人數,研究人員的解釋是,可能因爲在車速較快的情况下,駕駛會更集中注意力。然而這項研究有個最大的問題,交通警察當初之所以設定某些路段必須低車速,就是因為那個路段容易發生車禍;而設定可以高車速的路段本來就是筆直明亮的安全路段。如果人類真的聽信大數據的分析建議,很明顯會帶來大災難。
簡單說就是,人類在做判斷的時候會同時思考事情的前因後果,但計算機不能。
在第一次世界大戰期間,許多士兵都因為頭部受傷致死,但是給士兵戴上鋼盔後,醫院裡頭部受傷的士兵人數反而增加了。人類很快就能够理解這是因爲鋼盔發生了效果,否則這些士兵就不是受傷住院而是早已戰死沙場了。
人類經常因為計算機的記憶與運算能力,直覺地認為自己沒有計算機聰明,但上面的例子一再證明,人類遠比計算機聰明。

第二部分:歷史不斷重演,錯覺也是
1990年代,計算機開始進入人類的生活,那個時代的企業只要在名字加上.com、.net或互聯網,公司股價就可以毫無理由的暴漲一倍甚至更多,如今,人工智能與大數據也同樣如此。
作者強調,我們對於大數據必須記住一點,無論我們提出什麽樣本,只要搜索的數據量夠大,就一定能得到與樣本相同的模型。但是就算美其名叫人工智能,大數據挖掘也無法分辨因果關係與巧合關係有什麼不同,這種分辨只有人類能夠做到。
過去人類如果想要發展出一套理論,總是先在腦子裡建立一個有明確因果關係的假設,然後再搜集相關的數據來驗證自己的理論,比方說醫療研究對於吸煙與肺癌的假設與驗證。但是現在人工智能大數據的做法卻是反過來的,事前可以完全沒有理論基礎,直接在數據堆中尋找相似的模型,然後再想辦法解釋其中可能存在的因果關係,作者對這種“數據先上,理論再說”的做法有一種特殊的稱呼叫:神槍手謬誤,神槍手謬誤有兩種:
第一種:神槍手在射擊之前先在整面牆上貼滿紅色的靶心,然後再對著牆開槍;
第二種:神槍手先對著牆開槍,然後再到彈孔上畫出紅色的靶心,;
這兩種神槍手謬誤就好比人工智能使用大數據隨意尋找合適的模型,然後再讓人藉此編造出一個理論。諾貝爾獎1991年的經濟學獎得主羅納德·科斯(Ronald Harry Coase)曾經辛辣地批評這種人工智能的大數據挖掘,他說:只要拷問數據的時間足够長,最終一定可以屈打成招,得到你想要的模型。
過去在學術界,如果有人提出從理論上說不通,或是數據完美得令人難以置信的結論,一定會得到强烈的質疑,認為很可能是數據挖掘的結果,但是如今人們卻大聲宣揚自己是數據挖掘專家,並藉此收取高額的費用。
主要原因是過去的數據取得與計算的成本都非常高,因此人們在形成假設的時候都會深思熟慮,但是現在數據與計算能力用氾濫來形容都不為過,於是人們不再絞盡腦汁思考,乾脆放手讓計算機翻遍所有的數據,尋找可能始料未及的關係,人們要做的只剩下最後編個故事來讓人相信,自己在學術上又有了某種驚人的發現,並因此名利雙收。
例如下面三個曾經被大眾嚴肅看待並信以為真的神槍手謬誤:
1.喝咖啡會導致胰臟癌;
2.千里之外的祈禱與鼓勵對病患依舊具有治療效果;
3.以女性名稱命名的颱風更具殺傷力。
然而這種被證實在草率態度下得出的結論,爲什麽會被優秀的專業期刊發表出來呢?問題還是出在這個時代,出版者願意發表具有爭議性的文章來提高知名度,甚至樂于發表具有偏見的文章來吸引更多的閱讀量。
人類如此容易上當受騙是因爲我們相信,如果有人說了我們無法理解的事情,問題肯定出在我們身上,尤其是我們假定對方是專家的時候,聽不懂一定是我們自己不够聰明。同樣的,如果我們不理解強大的計算機得出的結論,問題也肯定出在我們自己身上,是我們自己不够聰明。
人工智能大數據挖掘的根本問題在於:它的確非常擅長找到匹配數據的模型,但對於判斷模型是否荒唐可笑卻完全束手無策。
例如,有一本很有名的企業管理的書籍叫“從優秀到卓越”,書中主要討論全世界最成功的11家企業,於是就有人提出自己的發現,他說,這11家企業的名稱都含有英文字母i或者r,還有幾家同時含有i跟r,因此在企業名稱裏加入字母i或r,就是企業從優秀走向卓越的關鍵!對於計算機找出來的這個模型,你信嗎?
充其量只能說,也許在歷史經驗中這個模型是對的,但是對於未來的預測結果並不可靠。不過如果一個模型只能證實歷史却無法預測未來,那麽這個模型的價值是什麽呢?
作者舉了一個例子:有一天他將三張看似股價走勢圖的圖表發送給一位股票分析師,請教他對於這三支股票的看法,不久之後對方回覆他:
第一張:對方在圖表中加上了兩條上升的平行綫,分析師說很明顯,這支股票在狹窄的上行通道中,目前呈現明顯的上漲姿態。
第二張:分析師說這是典型的頭肩頂模型,也就是股價先是脫離支撑綫上漲,接著回跌,然後漲幅更大,隨後又回跌,再次小幅上漲後,第三次下跌,而且破支撐線,後市絕對看跌。
第三張:則是跟第二張完全相反的形態,叫做突破支撑綫,是絕佳的買入信號。
然而作者沒告訴對方的是,這三張圖表都是他在課堂上跟同學一起猜硬幣得出的正反面記錄,這個案例讓他的學生馬上就明白,我們不僅過度欣賞計算機的能力,同時更高估了各種所謂數據分析師的判斷能力,他們對於數據的直覺反應已經不是先求證再分析,而是直接就開始講故事,生搬硬套一些似是而非的複雜理論。可悲的是,這樣的分析模式早已經是現在金融市場中的主流分析模式,而且還擁有大批的信徒。
作者更進一步的,針對美國S&P標準普爾500指數,進行模型的匹配嘗試,他在2015年的全球各城市氣溫數據中比對200多萬個模型,從中挑出準確率最高的那一個,於是找到了在澳大利亞的某個城市,它全年的溫度走勢與S&P500指數的相似度高達88%,但是這樣的結果代表我們能够因此按照這個城市在2016年的溫度變化,去預測S&P500指數在2016年的走勢嗎?結果很令人失望卻並不讓人訝異,它們兩者在2016年的相似程度下降到根本毫無關係的-52%。這也再次證明了大數據挖掘的驚人能力,隨時可以在你想像不到的地方提供你需要的模型,但却不代表任何意義,唯一留下的,只有對計算機運行一知半解的我們,對於人工智能大數據不切實際的幻想與無所不能的錯覺而已。

第三部分:擁有最終解釋權的畢竟還是人
谷歌曾經進行一項實驗叫谷歌流感,它讓計算機每天分析5000萬個人類在谷歌上搜索使用的詞語,藉此來預測哪些城市可能在未來十天爆發流行性感冒,但由於計算機無法像人類一樣,能夠輕易分辨一句話裏面出現發熱或發燒這樣的詞語的時候,是否真的與身體不舒服有關,例如有些人只是在查詢機器發熱的原因或是音響發燒設備,結果很快的谷歌流感這個功能,就因為失誤率實在太高,無疾而終了。
作者另外還舉了一些一體兩面的有趣案例,例如中國一家從事小額貸款的機構,它以人工智能大數據的功能去尋找信用風險小的客戶群,結果是具有下列特性:
1.使用安卓手機,而不是蘋果手機;
2.來電時不會立即接聽電話;
3.對外撥打電話的時候對方接聽率不高;
4.手機不經常保持充滿電的狀態。
這家貸款機構很快就為這個模式作出解釋:
1.使用價格相對不高的安卓手機,代表花錢謹慎;
2.來電時不會立即接聽電話,代表這個人工作的時候很認真;
3.對外撥打電話的時候對方接聽率不高,因為他的朋友也同樣工作認真;
4.手機不經常保持充滿電的狀態,代表這個人精神集中在工作而非手機上。
但是很快就有人提出質疑,他們的看法是:
1.使用安卓手機,表示買不起蘋果手機;
2.來電時不會立即接聽電話,代表在躲避債主;
3.對外撥打電話的時候對方接聽率不高,代表這個人的人緣不好;
4.手機不經常保持充滿電的狀態,說明這個人習慣性地不負責任。
這兩種模型的解釋,你相信哪一種呢?事實上它們都一樣毫無意義,因為這些就是典型的捏造模型,而且可以隨時依照需要改變對模型的解釋。
作者更深入地提出了一些質疑,例如:如果政府利用人工智能大數據挖掘後發現,觀看韓國連續劇與吸食毒品有某種偶然的關聯,那麼民衆將來在觀賞韓劇之前,是不是應該被事先警告稍後可能會被逮捕?另外,將監獄中所有犯人的臉製作成數據庫的目的是什麽?難道是我們應該事先逮捕那些長得像罪犯的人,好讓他們不能犯罪嗎?
大明星湯姆克魯斯(Tom Cruise)在2002年拍攝過一部類似概念的電影,少數派報告,描述三個超能力者可以在壞人犯罪之前就感知到犯罪過程,因此可以幫助警察提前將壞人逮捕。但問題在於,如果企圖犯罪的人在犯罪前就被逮捕了,那後面就不會出現犯罪事件,那麼超能力者又如何能够預先感知犯罪過程呢?
因此這裏又牽扯出更複雜的問題,現在的人工智能大數據挖掘有兩個根本問題,一方面,挖掘的算法是專利機密,於是我們無法檢查算法所使用數據的準確度與正當性,也就等於是黑箱作業。但另一方面,如果算法是公開透明的,人類就能夠操弄系統,破壞模型的有效性。
例如美國有個大學很輕易地就把學校的排名變成數一數二,他的做法是,把入學的300名學生分爲10個小班,其中9個班的人數都是20個人,而第10個班的人數則爲120個人。但是這所大學的評估報告就變成,每個班級少於20個人的比例是95%,因此得到了極高的滿意度。因此,人類在維繫模型的可靠性與有效性上面,其實還有很長的路要走。
作者最後總結,完成特定任務與擁有智能是兩碼事。智能是能夠在任務中不斷吸取教訓並提升技能,隨後運用在更複雜甚至完全不同的任務中。計算機雖然非常强大,而且越來越完善,但是目前計算機的設計,仍然是完成定義明確的瑣事,只具有非常有限的能力,而不是像智能那樣可以評估事情現狀、前因後果,藉此來處理不熟悉的事務,我們必須認清對計算機一廂情願的錯覺,並進而控制因爲錯覺給我們帶來的决策誤導。

以上就是這本書的心得解讀,下面為大家做總結:
先說缺點:
本書作者史密斯教授是統計學專家,因此在書中使用了大量的統計學名詞、概念甚至是公式,在閱讀的時候對某些不具備這方面背景的朋友會是痛苦的煎熬,另外是本書的翻譯讓人失望,許多地方像極了穀歌翻譯的似懂非懂。最後是整本書的篇幅稍嫌冗長,用了太多案例與旁證來說明同一個看法,經常讓人感覺一句話講了好多次的囉嗦。
再說優點:
作者認為現在的人們過度信任計算機輸出的內容,卻沒有認真思考輸入內容的質量。本書以這個問題爲出發點,向我們展示如果過度依賴計算機會出現怎樣的結果,計算機無法判斷數據是否合理,只要有足够的數據,計算機就可以恣意地進行計算,推導出任何想要的模型,因此過度信賴計算機將產生更多的誤導。作者使用了豐富的案例來引導我們,在現實世界中,應該如何判別計算機帶來的錯覺,進一步維繫人類智慧應該有的尊嚴。


最後是我對本書的心得:
在我們自己都不明白自己的大腦是如何運作的之前,冒然地認為計算機可以幫助我們做出明智的決策,那麼人類終將被計算機統治就會成為事實,但原因不是計算機太聰明,而是我們又一次輸給了人性的懶惰…

恭喜您,得到了錯覺.AI如何通過數據挖掘誤導我們,這本書的心得,請將我的解讀轉帖給你的朋友,讓大家知道,聽說你很棒!

留言