日韩中文字幕一区|亚洲成色最大综合在线|91亚洲国产系列精品|91福利国产在线观看网站|国产精品三级久久久久久久|亚洲一区二区三区在线国产|欧美性视频一区二区三区四区|国产一区二区三区精品99久久

云服務

熱門搜索: 防爆監(jiān)控 電動機 防爆暖通 防爆風機

首頁 行業(yè)資訊 政策解讀 電商會議 人物觀點 電商數(shù)據(jù) 電商干貨 電商報 博文資訊 客戶庫 企業(yè)庫
首頁>新聞詳情

人工智能有個嚴重問題:它說不清自己為啥這么牛!

2017年4月18日 來源:科工網(wǎng)-國際互聯(lián)網(wǎng)+生態(tài)服務平臺 瀏覽 689 次 評論 0 次

雖然人工智能可以解決很多問題,但由于這種技術存在“黑盒子”問題,因此沒有一個人能夠確切知道它的內(nèi)部運作方式,因而可能引發(fā)嚴重問題。

去年,一輛古怪的無人駕駛汽車開上了新澤西州蒙茅斯郡寧靜的道路。這輛實驗用車是由芯片制造商英偉達開發(fā)的,它的外觀與其他無人駕駛汽車別無二致,但與谷歌(微博)、特斯拉和通用汽車展示的系統(tǒng)不同,這輛汽車證明了人工智能的強大能量。

它并沒有遵循工程師提供的任何指令,而是通過觀察人類司機的駕駛方式,完全依賴算法自學成才。

讓一輛汽車自學成才確實令人驚喜,但也帶來了一絲不安,因為我們并不完全清楚它是如何制定決策的。車身傳感器收集的信息會直接傳輸?shù)骄薮蟮娜斯ど窠?jīng)網(wǎng)絡,在那里處理數(shù)據(jù),然后生成相應的指令,引導汽車操縱方向盤、剎車和其他系統(tǒng)。

終的結果似乎符合你對一個人類駕駛員的預期。但如果它有朝一日做出什么令人意外的舉動,比如撞到路邊的樹木,或在綠燈前停止不動,那該如何是好?

以現(xiàn)在的情況來看,可能很難找出背后的原因。人工智能系統(tǒng)十分復雜,就連設計它的工程師都難以分辨某個具體行動背后的邏輯。你又不能直接向它詢問原因:目前還沒有一種明確的方式可以設計出這樣的系統(tǒng),從而隨時解釋它每一步行動背后的原因。

這種汽車的神奇思維引出了人工智能領域的一個若隱若現(xiàn)的問題。這輛汽車的底層采用了名為深度學習的人工智能技術,近幾年的許多研究都表明,這項技術很擅長解決很多問題,而且已經(jīng)廣泛部署在圖像說明、語音識別、語言翻譯等諸多領域領域。還有人希望用同樣的技術診斷惡性疾病,制定數(shù)百億美元的交易策略,甚至通過數(shù)不清的其他方式改變一個又一個的行業(yè)。

但除非你找到一種方式,讓它的開發(fā)者充分理解深度學習技術,并對用戶肩負起應負的責任,否則這翻暢想就無法實現(xiàn)——或者說,不應該實現(xiàn)。如若不然,就很難預測何時出現(xiàn)問題——畢竟,按照目前的設計,這些系統(tǒng)肯定會出現(xiàn)問題。但英偉達之所以仍在測試,卻有它自己的原因。

各種各樣的數(shù)學模型已經(jīng)可以幫助人們在假釋、放貸和招聘領域制定決策。如果你可以評估這些數(shù)學模型,那就有可能理解它們背后的邏輯。但銀行、軍隊和雇主現(xiàn)在都把精力轉向了更加復雜的機器學習方法,使得自動化決策流程變得完全無法理解。

作為其中常見的一種技術,深度學習與以往的計算機編程截然不同?!斑@個問題已經(jīng)凸顯出來,今后還將越來越受重視?!甭槭±砉W院機器學習應用教授多米·加考拉(Tommi Jaakkola)說,“無論是投資決策、醫(yī)療決策還是軍事決策,你肯定都不希望把權力交給一個‘黑盒子’?!?

有人認為,向人工智能系統(tǒng)質問其結論背后的原因是一項合法的基本權利。從2018年夏天開始,歐盟可能就會要求相關企業(yè)具備相應的能力,以便向用戶解釋自動化系統(tǒng)的決策理由。這或許難以實現(xiàn),即便是對那些表面看來相對簡單的系統(tǒng)也同樣如此,包括那些使用深度學習技術投放廣告和推薦歌曲的應用和網(wǎng)站。

這些服務所使用的電腦采用了自我編程模式,外界無法理解它們的行為方式。就連負責開發(fā)這些應用的工程師也無法解釋它們的行為。

這便引發(fā)了許多難以置信的問題。隨著科技不斷進步,我們可能很快就會跳過某個門檻,到那時,必須要給予人工智能極大的信任才能順利使用這些系統(tǒng)。誠然,人類很多時候也無法解釋我們自己的思維過程——但我們卻可以通過各種各樣的方式利用直覺來信任或評價他人。但對于這些思維和決策方式都不同于人類的機器來說,有沒有可能實現(xiàn)這一點呢?

我們之前從未開發(fā)過連它的創(chuàng)造者都無法完全理解的機器。我們能否與這些無法預測、無法理解的機器展開順暢的溝通,保持和睦的關系?帶著這些問題,我開始研究谷歌、蘋果和很多公司的人工智能算法,還找到了一位當今時代偉大的哲學家。

醫(yī)學嘗試

2015年,紐約西奈山醫(yī)院(Mount Sinai Hopital)決定用深度學習分析該院龐大的病歷數(shù)據(jù)。這個數(shù)據(jù)集里包含病人的數(shù)百個變量,都來自他們的檢測結果、醫(yī)生面診等環(huán)節(jié)。由此催生了一個名為Deep Patient的項目,它利用70萬病人的數(shù)據(jù)進行訓練,然后對新的病例展開測試:結果顯示,它在預測疾病方面表現(xiàn)十分優(yōu)異。

在沒有任何專家指導的情況下,Deep Patient挖掘了隱藏在醫(yī)院數(shù)據(jù)中的各種模式,甚至可以借此了解人們何時有可能患上肝癌等各種疾病。在西奈山醫(yī)院負責這個項目的喬爾·杜德利(Joel Dudley)表示,有很多方法都很適合通過病例來預測疾病。但他也補充道,“這種方法效果好很多?!?

與此同時,Deep Patient也有些令人疑惑。他在預測精神分裂癥等精神疾病方面的表現(xiàn)出奇得好,但由于精神內(nèi)科醫(yī)生向來很難預測精神分裂,所以杜德利想知道,這套系統(tǒng)究竟是如何做到的。

他至今沒有找到答案,這套新系統(tǒng)沒有透露出任何理由。如果想讓Deep Patient真正為醫(yī)生提供幫助,理想的情況就是闡述這種預測背后的邏輯,確保整個過程且有事實依據(jù)——例如,醫(yī)生給某人開具的處方藥物是否發(fā)生了某種變化。“我們可以開發(fā)這種模型,”杜德利說,“但卻并不知道它是如何工作的?!?

人工智能并非總是如此。初,關于可以理解、可以解釋的人工智能應該是什么樣子,出現(xiàn)了兩派觀點。

很多人認為,有意義的機器應該根據(jù)規(guī)則和邏輯做出判斷,這樣一來,任何愿意了解代碼的人都可以理解它的內(nèi)部工作原理。

還有人認為,如果機器從生物學領域獲得啟發(fā),通過觀察和經(jīng)驗來學習,就更容易實現(xiàn)智能。這就意味著把編程任務交給機器自己來完成。解決問題時,不再需要程序員編寫命令,而是由程序根據(jù)樣本數(shù)據(jù)和渴望的輸出結果來自主生成算法。已經(jīng)成為當今強大人工智能系統(tǒng)的機器學習技術就遵循了后一條道路:本質上是由機器自主編程。

這種算法起初的實際應用范圍非常有限,在1960和1970年代,還僅限于一些邊緣領域。之后,很多行業(yè)的電腦化普及和大型數(shù)據(jù)集的涌現(xiàn)重新點燃了人們的興趣。這也推動了更加強大的機器學習技術的發(fā)展,尤其是新一代的人工神經(jīng)網(wǎng)絡。到1990年代末,神經(jīng)網(wǎng)絡已經(jīng)可以自動對手寫字母進行數(shù)字化處理。

但直到這個十年初期,經(jīng)過了一系列聰明的調整和提煉之后,真正大規(guī)?!蛘哒嬲吧疃取薄纳窠?jīng)網(wǎng)絡才在自動感知領域實現(xiàn)了重大提升。如今的人工智能爆發(fā)都要歸功于深度學習,它為計算機賦予了無與倫比的力量,包括實現(xiàn)與人類相似的口語能力,這種技術非常復雜,根本無法通過手動編程來實現(xiàn)。深度學習還改變了計算機視覺,并大幅提升了機器翻譯效果。它現(xiàn)在可以用于引導醫(yī)療、金融、生產(chǎn)等各個領域的關鍵決策。

黑盒效應

與手動編碼的系統(tǒng)相比,機器學習技術的工作方式天生就很模糊,即便是對計算機科學家來說也同樣如此。這并不意味著未來的所有人工智能技術都會同樣難以理解。但從特性上看,深度學習的確像是一個“黑盒子”。

你無法通過直接研究深度神經(jīng)網(wǎng)絡來了解它的工作模式。神經(jīng)網(wǎng)絡得出的推論,嵌入在成千上萬個模擬神經(jīng)元的行為之中,它們組成了數(shù)十甚至數(shù)百個雜亂相連的不同層次。第一層的每個神經(jīng)元都負責接收輸入信息,例如一個圖像中某個像素的強度,然后通過計算來輸出新的信號。在復雜的網(wǎng)絡中,這些輸出結果會進一步成為下一層神經(jīng)元的輸入信息,如此往復,直到生成整體輸出結果。

另外,還有一個被稱作反向傳播的過程,可以通過調整個別神經(jīng)元的計算讓神經(jīng)網(wǎng)絡學會生成期望的輸出結果。

因為深度網(wǎng)絡有那么多層,所以可以從不同的抽象層面認識事物。例如,在一套專門為了識別狗而打造的系統(tǒng)中,底層神經(jīng)元可以識別輪廓或顏色等簡單的元素,較高層次的神經(jīng)元則識別皮毛或眼睛等更加復雜的元素,頂層則負責識別狗這個整體。簡單來說,同樣的方法也可以用于處理其他任務,從而讓機器實現(xiàn)自學,包括說話時構成語音的聲音,在文本中構成句子的字母和單詞,或者開車時轉動方向盤的動作。

現(xiàn)在出現(xiàn)了一些具有獨創(chuàng)性的策略,試圖捕捉并詳細解釋這類系統(tǒng)中發(fā)生了哪些事情。2015年,谷歌研究人員修改了一套深度學習圖形識別算法,使之不再識別照片中的物體,而是生成或修改這樣的物體。通過反向運行這種算法,便可了解算法在識別鳥或建筑時使用了哪些特征。

這個名為Deep Dream的項目生成的圖片,呈現(xiàn)出動物從云朵和植物中浮現(xiàn)的奇異效果,還有寶塔從森林或山脈中盛開的幻覺效果。這些圖片證明深度學習并非完全不可理解,同時也表明這些算法把注意力集中在熟悉的視覺特征上,包括鳥嘴和羽毛。不過,這些圖片也透露出深度學習與人類知覺的差異,正因如此,人工智能往往可以利用那些被我們忽略的信息。

谷歌研究人員指出,當算法生成啞鈴的圖像時,還生成了一個抓著啞鈴的人類胳膊。這表明機器已經(jīng)認定,胳膊也是啞鈴的一部分。

進一步的發(fā)展是因為借鑒了來自神經(jīng)科學和認知科學領域的想法。懷俄明大學助理教授杰夫·克魯尼(Jeff Clune)已經(jīng)部署了相當于人工智能的光幻覺來測試深度神經(jīng)網(wǎng)絡。2015年,克魯尼的團隊展示了如何利用某些圖片欺騙神經(jīng)網(wǎng)絡,使之得出錯誤的結論,原因在于這些圖片利用了系統(tǒng)所尋找的底層模式。

作為克魯尼的合作者,詹森·尤辛斯基(Jason Yosinski)也開發(fā)了一個像插入大腦的探針一樣的工具。他的工具瞄準了神經(jīng)網(wǎng)絡中的任意一個神經(jīng)元,然后尋找對其激活程度的圖片。結果出現(xiàn)了一些抽象的圖片(就像印象派畫家繪制的火烈鳥或校車),凸顯出及其感知能力的神秘特性。

事關重大

但我們需要的不只是一窺人工智能的思維方式,而且這個問題并不容易解決。深度神經(jīng)網(wǎng)絡中的運算之間的相互影響才是高層次模式識別和復雜決策過程的核心,但這些運算是一片由數(shù)學函數(shù)和變量構成的沼澤。

“如果你有一個很小的神經(jīng)網(wǎng)絡,或許可以理解它?!奔涌祭f,“可一旦規(guī)模巨大,每一層都有數(shù)千個單元,或者總共擁有數(shù)百個層次,那就完全無法理解。”

加考拉辦公室隔壁是雷吉納·巴茲雷(Regina Barzilay),這位麻省理工學院的教授致力于把機器學習應用于醫(yī)療領域。幾年前,當時43歲的她被診斷出乳腺癌。診斷本身令人震驚,但更令巴茲雷失望的是,沒有人使用尖端的統(tǒng)計學和機器學習技術為腫瘤學研究提供幫助,或者引導病人的治療。

她還表示,人工智能擁有很大的潛力改革醫(yī)療行業(yè),但她也意識到,這項技術的潛力不僅局限于病例。她還希望使用更多尚未充分利用的數(shù)據(jù),包括影響數(shù)據(jù)、病理學數(shù)據(jù)以及各種各樣的信息。

在去年結束了癌癥治療后,巴茲雷和她的學生開始與麻省綜合醫(yī)院的醫(yī)生合作開發(fā)一套系統(tǒng),可以通過挖掘病理學報告來尋找那些具備研究人員感興趣的臨床表現(xiàn)的病人。然而,巴茲雷發(fā)現(xiàn),系統(tǒng)需要解釋自己背后的邏輯。所以,她與加考拉和一個學生增加了一個步驟:這套系統(tǒng)會把它認為代表某種模式的文本片段提取出來,并加以強調。

巴茲雷和她的學生還開發(fā)了一套能夠通過乳房X光片找到早期乳腺癌跡象的深度學習算法,他們希望讓這套系統(tǒng)具備一定的解釋能力。“的確需要讓機器和人類展開協(xié)作?!卑推澙渍f。

美國軍方也投資數(shù)十億美元,希望使用機器學習來控制汽車和飛機、識別目標、過濾海量情報數(shù)據(jù)。這一領域甚至比醫(yī)療行業(yè)更期待透明的算法,所以國防部將可解釋性視作一大關鍵障礙。

美國國防部高等研究項目署(DARPA)的項目經(jīng)理大衛(wèi)·岡寧(David Gunning)負責一個名為可解釋人工智能(Explainable Artificial Intelligence)的計劃。作為該部門的一位銀發(fā)老兵,他之前在DARPA負責的項目終促成了Siri的誕生。岡寧透露,自動化已經(jīng)滲透到無數(shù)的軍事領域。情報分析師正在測試機器算法,希望通過大量的監(jiān)控數(shù)據(jù)判斷各種模式。

很多無人駕駛汽車和飛機也在開發(fā)和測試過程中。但士兵可能不會喜歡這種無法解釋自己行為的機器坦克,而分析師在按照這些沒有明確邏輯的信息采取行動的時候,也可能有所遲疑?!皬倪@些機器學習天生就容易發(fā)出錯誤警報,所以情報分析師需要額外的幫助來明白系統(tǒng)為何會給出某條建議?!睂鶎幷f。

今年3月,DARPA從學術和工業(yè)界選擇了13個資助項目,納入了岡寧的這個計劃。其中一些項目會以華盛頓大學教授卡洛斯·古斯特林(Carlos Guestrin)的成果作為基礎。他和他的同事開發(fā)了一種方法,可以讓機器學習系統(tǒng)闡述其輸出結果的基本原理。也就是說,借助這種方法,電腦會從數(shù)據(jù)集中自動找到一些樣本,然后給出簡短的解釋。

例如,一套用于尋找恐怖分子郵件的系統(tǒng),可能會在訓練和決策過程中使用數(shù)以百萬的樣本信息。但利用華盛頓團隊的方法,便可突出顯示在信息中找到的特定關鍵詞。古斯特林的團隊也針對圖形識別系統(tǒng)設計了一些方法,通過標注圖片上重要的部分來暗示它們的判斷邏輯。

保持謹慎

但這類模式的缺點在于,系統(tǒng)提供的解釋往往過于簡單,因此可能缺失一些關鍵信息。

“我們尚未真正實現(xiàn)目標,那就是讓人工智能與我們對話,向我們解釋。”古斯特林說,“我們距離真正能夠解讀的人工智能還有很長距離?!?

即便不是在癌癥診斷或軍事演習這種重要活動中,這一問題也會體現(xiàn)出來。如果想要普及人工智能技術,使之成為我們?nèi)粘I钪械囊粋€有益組成部分,了解人工智能的工作邏輯就顯得尤其重要。蘋果Siri團隊負責人湯姆·克魯伯(Tom Cruber)表示,可解釋性是他的團隊嘗試讓Siri更聰明的過程中的關鍵考量因素。

克魯伯不肯透露Siri未來的具體計劃,但可以想見的是,如果你收到了Siri推薦的餐館信息,你肯定希望知道背后的原因。

蘋果人工智能研究總監(jiān)、卡內(nèi)基梅隆大學副教授魯斯蘭·薩拉庫特迪諾夫(Ruslan Salakhutdinov)認為,可解釋性是人類與人工智能關系發(fā)展的核心?!斑@能帶來信任?!彼f。

正如很多人類行為無法詳細解釋一樣,人工智能可能也無法解釋它的一切行為?!凹词褂腥四軌蜥槍ψ约旱男袨榻o你一個合理的解釋,很可能也不夠全面,人工智能同樣如此。”克魯尼說,“這或許正是智能的天然屬性,只有一部分可以用理性來解釋,有的只是本能或潛意識,根本無法解釋?!?

倘若如此,我們某些時候可能必須盲目相信人工智能的判斷,否則就只能拋棄它。類似地,具體的判斷也必須考慮社交智能。正如社會的基礎是一套關于預期行為的合約,我們設計人工智能系統(tǒng)時,也需要尊重和適應社會規(guī)范。如果能夠創(chuàng)造機器人坦克和其他殺人機器,那就必須確保它們的決策過程符合我們的道德判斷。

為了理解這些形而上的概念,我找到了塔夫斯大學的丹尼爾·丹尼特(Daniel Dennett),他是一位著名的哲學家和認知科學家,專門研究意識和心靈。在他的新書《From Bacteria to Bach and Back》是一本關于意識的廣博論述,其中有一個章節(jié)認為智能的進化本身就是創(chuàng)造一套連創(chuàng)造者也無法理解的系統(tǒng)。

“問題在于,我們擁有哪些條件來聰明地做到這一點——我們要求它們達到什么標準?要求我們自己達到什么標準?”他對我說。

他還針對可解釋性的問題提出了警告。

“我認為,如果我們希望使用并依靠這些東西,那就應該盡可能明確地知道它們給出答案的邏輯和原因?!彼f。但由于可能并不存在完美的答案,所以對待人工智能的解釋時,應該像對待其他人類的解釋一樣保持一份謹慎——無論機器看起來有多么聰明。

“如果機器并不比我們更加擅長解釋自己的行為,那就別相信它?!?

我來說兩句
人參與 丨 評論0條)
圖標
注冊 登錄    
評論列表
每頁 10 條,共 0 條

品牌商品