原標題:機器學習并不“萬能”
機器學習有時候是好的解決方案,有時候則不是。
原標題 | The Limitations of Machine Learning
作 者 | Matthew Stewart
翻 譯 | 廖穎、Simon_xc
編 輯 | Pita // 查看本文更多內容,可點擊底部閱讀原文
“如果一個人可以在1秒以內完成一項思維任務,那么可能在現在或者不久的將來,我們可以使用人工智能(AI)來自動化處理這項任務。”
——吳恩達
本文讀者大多數比較熟悉機器學習,也會使用相關算法來根據數據對結果進行分類和預測。然而,很重要的一點,就是機器學習并不是解決一切問題的萬能鑰匙。機器學習如此有用,所以大家很難接受一個事實——有時候機器學習并不是一個問題的最佳解決方法。
這篇文章就是想告訴大家,機器學習有時候是好的解決方案,有時候則不是。
眾所周知,機器學習作為人工智能的一部分,在過去十年對世界產生了革命性的影響。信息爆炸引起了大數據的采集,尤其是像臉書、谷歌這樣的大公司。數據量加上處理器功耗和計算機并行處理的快速發展,使得大數據的獲取和學習變得相對容易。
今天,對機器學習和人工智能的吹捧無處不再。這可能是對的,因為這個領域的潛力是巨大的。人工智能公司數量在過去幾年里爆發式增加,根據 Indeed 的一份報告,2015-2018 年,與人工智能相關的崗位數量增加了 100%(Link:https://www.techrepublic.com/article/the-10-highest-paying-ai-jobs-and-the-massive-salaries-they-command/)。
截至2018年12月,福布斯發現 47% 的企業在其業務流程中包含至少一個人工智能功能(Link:https://www.forbes.com/sites/gilpress/2018/12/15/ai-in-2019-according-to-recent-surveys-and-analysts-predictions/#c39f59714c30)。根據 Deloitte 的報告,內置 AI 和基于云的 AI 開發服務在企業軟件的滲透率估計分別達到 87% 和 83%。這些數據是非常驚人的——如果近期你想做些職業變動,人工智能看上去是個不錯的選擇。
一切看上去都挺美好的?公司滿意,想來消費者也是滿意的——否則企業是不會使用人工智能的。
這很好,因為我是機器學習和人工智能的超級粉絲。然而,有時候使用機器學習就沒什么必要,也說不通,甚至在操作的時候會給人帶來困難。
局限1——倫理
眾所周知,機器學習作為人工智能的一部分,在過去十年對世界產生了革命性的影響。信息爆炸引起了大數據的采集,尤其是像臉書、谷歌這樣的大公司。數據量加上處理器功耗和計算機并行處理的快速發展,使得大數據的獲取和學習變得相對容易。
不難理解為什么機器學習會對世界產生如此大的影響,不用再明確它的能力是什么,可能更重要的,是知道它的局限是什么。尤瓦爾·赫拉利創造了有名的“數據主義”一詞,指的是我們正在進入的一個假定的文明新階段,在這個階段里,我們對算法和數據的信任超過了對我們自身判斷和邏輯的信任。
雖然會覺得這個想法可笑,但你想想上次去旅行的時候,是不是跟著 GPS 的導航而不是自己看著地圖走——你質疑過 GPS 的判斷嗎?人們盲目地跟隨 GPS 的指引,結果掉進了湖里...
信任數據和算法超過自身的判斷,有利有弊。顯然地,我們從算法中獲益,不然一開始也不會使用。算法通過可用數據作出預期判斷來實現自動化處理。雖然有時候,這意味著某個人的工作會被一種算法取代,產生一些倫理問題。加之,如果事情變得糟糕,我們應歸責于誰?
最近討論最廣泛的例子就是自動駕駛——我們應該如何選擇汽車在撞死人后應該作出的反應?未來我們在購買汽車的時候,也不得不選擇自己購買自動駕駛車輛的倫理框架嗎?
如果我的自動駕駛車在路上撞死了人,那么是誰的責任?
這些都是引人深思的問題,但并不是本文的主要目的。顯然,機器學習不能告訴我們應該接受什么規范價值,即在世界上特定的處境里,應該如何采取行動。就像大衛·休謨著名諺語所說,一個人永遠不能從“本來如此”得出“應該如此”。
限制2——確定性問題
這是我個人必須面對的一個問題,因為我的專業領域是環境科學,它嚴重依賴于計算建模和使用傳感器/物聯網設備。
機器學習對于傳感器來說是非常強大的,當連接到其他測量環境變量(如溫度、壓力和濕度)的傳感器時,機器學習可以幫助校準和校正傳感器。這些傳感器信號之間的相關性可以用來發展自校準程序,這在我研究的大氣化學研究領域中是一個熱點研究課題。
然而,當涉及到計算建模時,事情會變得更有趣。
運行模擬全球天氣、地球的排放和這些排放的傳輸的計算模型在計算上是非常昂貴的。事實上,計算成本太高,即使在超級計算機上運行,研究級的模擬也可能需要數周的時間。
MM5和WRF是這方面的很好的例子,它們是用于氣候研究和在早間新聞上給你天氣預報的數值天氣預報模型。知道天氣預報員一整天都做些什么嗎?答案:運行并研究這些模型。
運行天氣模型是很好,但是現在我們有了機器學習,我們是否可以用它來獲取我們的天氣預報呢?我們能利用衛星、氣象站的數據,并使用基本的預測算法來判斷明天是否會下雨嗎?
令人驚訝,答案是肯定的。如果我們了解某一區域周圍的空氣壓力、空氣中的濕度水平、風速、與相鄰點及其自身變量有關的信息,就有可能訓練,例如,神經網絡。但代價是什么?
用一個有上千個輸入的神經網絡來確定明天波士頓是否會下雨是可能的。然而,利用神經網絡忽略了整個天氣系統的物理過程。
機器學習是隨機的,而不是確定性的。
神經網絡不理解牛頓第二定律,或者說密度不可能是負的-沒有物理約束。
然而,這可能不會是一個長期的限制。有多個研究人員正在研究在神經網絡和其他算法中加入物理約束,以便它們能夠被用于類似這樣的目的。
局限3——數據
這是最明顯的限制。模型喂得不好,輸出結果就不好,主要表現為兩種方式:缺乏數據和缺乏優質數據。
缺乏數據
許多機器學習算法在給出有用結果之前需要大量的數據,一個好的例子就是神經網絡。神經網絡是需要大量訓練數據的數據喂養機器。網絡的架構越大,產生可用結果需要的數據就越多。重復使用數據是不好的想法,一定程度上數據增強是有用的,但是有更多的數據往往是更好的解決方法。
如果可以獲得數據,那就用上。
缺乏優質數據
雖然看上去相似,這種情況和上述情況也是不同的。我們來想象一下,你認為你可以通過給神經網絡放入1萬個生成的假數據來蒙混過關,當你把它們放進入的時候,會發生什么?
網絡會自己訓練自己,當你用一組沒見過的數據測試網絡的時候,效果就不會好:你有了數據,但是數據的質量沒有達到標準。
同樣地,缺乏優質的特征會導致算法表現不佳,缺乏優質的正確標注數據也會限制模型的能力。沒有一家公司愿意使用比人工水平誤差還大的機器學習模型。
類似地,將在一種情況下一組數據訓練出地模型應用于另一種情況,效果并不相當。目前為止我發現最好的例子,就是乳腺癌預測。
胸部X光數據庫包含了大量照片,但是近幾年這些數據庫面臨一個共同的引發熱議的問題——幾乎所有的X光片都來源于白人女性。這聽起來不像什么大事,但實際上,因為檢測和獲取醫療的差異等各種因素,黑人女性死于乳腺癌的概率已達到了42%(詳情可訪問:https://www.acr.org/Media-Center/ACR-News-Releases/2018/New-ACR-and-SBI-Breast-Cancer-Screening-Guidelines-Call-for-Significant-Changes-to-Screening-Process)。因此,主要基于白人女性訓練出的算法,對黑人女性并不友好。
在這個例子里,需要的就是在訓練集中增加更多黑人病人的 X 光片數量。更多與導致這42%增加的相關特征,以及通過相關性進行數據分層的更客觀的算法。
如果你還有疑問或想要了解更多,建議閱讀這篇文章。
局限4——誤用
和前面第二個討論的局限性相關,不管是自然界中的確定性問題還是統計性問題,人們盲目地使用機器學習來嘗試分析系統,于是形成了所謂的“學術研究中機器學習的危害”。
在局限 2 中討論原因的時候提到,將機器學習應用于統計性系統是可行的,但算法不會學習兩個變量間的關系,也不知道何時違背了物理定律。我們只是給網絡一些輸入和輸出,告訴它們去學習聯系——就像一個人將字典又用文字翻譯一遍,算法只是掌握簡單的基礎物理。
對于統計性(隨機)系統,情況就不太明顯。機器學習用于統計性系統的危害主要有兩種表現形式:
當一個人可以獲得大量數據,可能上百、上千,甚至上百萬的變量,就不難發現顯著性統計結果(假設大多數研究設定的顯著性水平 p<0.05)。這通常為導致偽相關的發現,這些偽相關是從 P 值篡改獲取的(查看大數據,直到發現統計顯著相關)。這些并不是真正的相關,只是對測量噪聲進行的響應。
這已導致個體通過大數據集在統計顯著相關性上“釣魚”,把它們偽裝成真相關。有時候,這只是無意的失誤(這種情況下,科學家需要更好地訓練)。但另外一些時候,被研究員用來增加發布論文的數量——即使在學術世界,競爭也是非常激烈的,人們為了提升指標無所不用其極。
分析范圍
統計模型和機器學習的分析范圍存在本質區別——統計模型本質是確定性的,機器學習本質是探索性的。
我們可以把確定性分析和模型看成某人的博士課題或研究領域。想象一下,你和一個顧問合作,試著建立一個理論框架來學習一些真實世界的系統。這個系統有一組受其影響的預定義特征,并且,在仔細設計實驗和開發假設后,可以運行測試以確定假設的有效性。
另一方面,探索性缺乏和確定性分析的相關的一些特點。事實上,在真正大量數據和信息的情況下,由于數據的巨大體量,確認性方法完全無法使用。換言之,在存在上百個、上千個,乃至上百萬個特征的情況下,根本不可能仔細地布置一組有限的可測試假設。
因此從廣義上講,在有大量數據和可計算負責特征的情況下,機器學習算法和方法是探索預測模型和分類的最佳選擇。一些人認為它們可以用于“小”數據,但為什么在經典的多變量統計方法這樣做時,信息更多呢?
機器學習是一個領域,很大程度上解決了來自信息技術、計算機科學等領域的重要問題,這些問題既有理論性的也有應用問題。正如此,機器學習和像物理、數學、概率論、統計學等領域也相關,但它也確實是一個獨立的領域。機器學習領域不會受其他學科提出問題的影響。大多是機器學習專家和從業者提出的解決方法都犯了嚴重錯誤...但他們還是完成了工作。
局限5——可解釋性
可解釋性是機器學習的主要問題之一。一家人工智能公司試圖向一家只使用傳統統計方法的企業講解,但如果他們認為模型不可解釋,就可以停止了。如果你不能向客戶確保你明白算法是如何得到結果的,那如何讓他們信任你和你的專業度?
正如《商業數據挖掘——機器學習視角》中所言:
“在商務項目中,如果機器學習的結果是可解釋的,那么商業經理人會更傾向于機器學習的推薦。”
除非可以解釋這些模型,不然它們顯得無能為力,而且人類解釋過程遵守的規則,遠遠超出技術能力。因此,可解釋性成為機器學習應用于實踐需要實現的一個重要指標。
特別地,興起的組學科學(基因組學,蛋白質組學,代謝組學等)已經成為機器學習研究者的主要目標,因為這些科學對大型和有意義數據庫具有依賴性。然而,盡管取得了明顯的成功,但他們的方法缺乏可解釋性。
總結及Peter Voss' 列表
不可否認,在人工智能開辟了大量有前景機會的同時(https://www.technologyreview.com/s/545416/could-ai-solve-the-worlds-biggest-problems/),也導致了一種被稱為“人工智能解決主義(https://www.sciencealert.com/ai-machine-learning-solve-all-humanity-problems-unrealistic)”的心態的出現。這種心態是一種哲學,假定數據足夠多,機器學習算法就可以解決所有的人類問題。
希望我在文中清楚表示了在目前情況下機器學習存在的一些限制,從而防止一些情況的發生。神經網絡永遠不會告訴我們如何做一個好人,至少現在不會,也不會理解牛頓運動定律和愛因斯坦相對論。
機器學習基礎理論——計算學習理論里也存在基本限制,主要是統計限制。我們已經討論了分析范圍和 p 值篡改危害的相關問題,這些會帶來虛假結論。還有結果可解釋性的問題,如果不能讓客戶和投資者確信他們的方法是準確可信的,就對商業會產生消極影響。
我己經在文章內大量介紹了人工智能的最重要的局限,最后,我會把皮特沃斯在 2016 年 10 月發布的文章列一張表,整理更全面的關于人工智能的局限。雖然目前在細小領域內主流技術是非常強大的,但它們通常會列出部分或所有約束列表,我在這里進行完整引用:
話雖如此,機器學習和人工智能將繼續為工業帶來革命,而且在未來幾年只會變得更加普及。雖然我建議大家最大限度地利用機器學習和人工智能,但我也建議你記住手里工具的局限性——畢竟,沒有什么是完美的。
via https://towardsdatascience.com/the-limitations-of-machine-learning-a00e0c3040c6
封面圖來源:https://www.pexels.com/photo/code-computer-machine-learning-programmer-1092424/
IJCAI 2019現場直播明天繼續,掃碼即可觀看。返回搜狐,查看更多
責任編輯: