按照以色列人工智能專家尤瓦爾·赫拉利(Yuval Noah Harari)的觀點,“人工智能不僅能夠侵入人類,在以往認為專屬于人類的技能上打敗人類。”機器超過人類的身體能力和認知能力。意大利信息學家弗洛里迪(Luciano Floridi)在《第四次革命——人工智能如何重塑人類現實》中提出圖靈革命(即人工智能革命)是繼哥白尼革命、達爾文革命、神經科學革命之后的第四次革命,人工智能對人類社會進行了全面塑造。人工智能專家明斯基(M.Minsky)認為機器會達到甚至超過人類智能,“沒有理由認為機器有人所沒有的局限”,機器能夠思維不但在理論上具有可能性,在實際操作中也指日可待。
機器能夠模擬人類思維的首要前提是機器能夠理解人類認知,機器具有理解能力。實際上,機器不但在認識論和形而上學層面的“如何理解這個世界”緘默不語,而且在語義學層面的“如何解釋世界”也止步不前。
一、人工智能的技術路線及其理解困境
人類智能包括很多方面的能力,例如,思維能力、計劃能力、解決問題的能力、領悟思想的能力、語言使用的能力以及學習能力等?茖W家們嘗試從不同進路讓機器模擬人類能力,特別是模擬人類思維過程。一般來講,人工智能分為三種技術路線:符號主義(symbolicism)、聯結主義(connectionism)和行為主義(actionism)。
符號主義人工智能以鈕厄爾與西蒙等人為代表,他們的人工智能技術路線是通過引進物理符號系統(physical symbol system)來模擬人類思維。人類智力也是物理符號系統,人類智力類似于數字計算機的信息處理系統,他們認為只有物理符號系統才能具有智能,因此,基于物理符號系統的計算機程序可以模擬人類的思維過程,能夠具有人類的智能特征和多種能力,“既然(這些完備的機器人)原則可滿足任何一種特定的輸入-輸出規定,那么它們也就能在任意一種預先規定的環境下,做出任何一種預先規定的事來——明確地解算問題、編寫交響曲、創作文學作品和藝術品以及實現任意一種目標!
聯結主義人工智能的技術路線主要通過神經網絡方法,通過對于人類大腦的組織結構和運行模式來模擬人類思維。一切人類實踐與技能在頭腦中都表現為一個信念系統,由與上下文環境無關的初始行為和事實所構成。雖然,聯結主義人工智能與符號主義人工智能技術路線不同,但它們具有共同的理論預設:認知是信息處理,且信息處理是可計算的。兩種技術路線的不同之處在于,人工智能中的符號主義基于自上而下的道路,物理符號系統致力于把客觀世界做成形式模型,而聯結主義如包括神經網絡、深度學習等基于自下而上的道路,神經網絡致力于把大腦做成形式模型。
行為主義人工智能另辟蹊徑,它與符號主義、聯結主義在哲學上的功能主義和計算主義不同,人工智能源于控制論,強調的是認知的具身性和情境性,智能是在認知主體與環境的交互中生成的,布魯克斯(Rodney A.Brooks)在《智力沒有原因(Intelligence Without Reason)》中提出,馮·諾依曼計算模型在特定的方向上引領了人工智能,但生物系統中的智能與之是完全不同的。
行為主義人工智能具有以下特征:“1.情境性。機器人處于一個世界中,它們不處理抽象的描述,而是處理此時此地的世界,這直接影響著系統的行為;2.具身性。機器人擁有身體并直接體驗世界,它們的動作是與世界動態的一部分,并對它們自己的感覺有即時的反饋;3.智能性。它們被觀察到是智能的,但智能的來源不僅限于計算引擎。它也來自世界的情況,傳感器內部的信號轉換,以及機器人與世界的物理耦合;4.涌現性。系統的智能來自于系統與世界的互動,有時來自于系統各組成部分之間的間接互動!
行為主義人工智能進路認為智能是基于“感知-行動”的反應機制,不是依靠形式化推理或者神經網絡就可以模擬的。
人工智能已經引發一場可媲美工業革命的技術革命!罢缣煳膶W繼開普勒發現了天體運行規律之后取代了星相學一樣,對機器的智能過程的經驗論方面的探索所發現的眾多原理將最終導致一門科學!辈还苁侨斯ぶ悄艿姆栔髁x、聯結主義還是行為主義技術路線,都基于理性主義,受到圖靈可計算主義理論、香農信息論以及維納控制論的啟發,對大腦的思維活動進行模擬,對信息進行加工計算,進而做出反應。
人工智能可以分為弱人工智能與強人工智能,弱人工智能(Weak AI)指的是在嚴格的程序規定下的,只對設定刺激做出反應。弱人工智能認為計算機只是邏輯運算程序,不同于人類思維,計算機不能對人類思維進行認知模擬。強人工智能(Strong AI)也稱為通用人工智能(artificial general intelligence,簡稱AGI),強人工智能主張計算機具有認知能力,能夠解釋說明人類的認知。
弱人工智能是傳統工具的延伸,強人工智能則是人類大腦的延伸。
按照夏皮羅(S.C.Shapiro)的觀點“強人工智能基于對計算主義(computationalism)教條的信仰,心理狀態就是計算狀態,認知就等于計算。”在弱人工智能看來,計算機的認知與人類認知不同,因為人類能夠理解所處理的信息。強人工智能不僅贊同機器具有模擬思維能力,并且能夠解釋具有理解能力的原因。
“智能加工過程取決于主體掌握的知識。深刻的和首要的問題是要理解其中的運算與數據結構!比斯ぶ悄苄枰讶魏畏N類的智能活動變成一套指令,因為在計算主義看來一切推理都可以歸結為計算,機器人可以復制人類智能行為。但人類認知與機器認知存在根本區別,人類在漫長的認識世界過程中建立起大致相同的認知方式,人類通常能夠理解所處理的信息,而機器只是按照指令與推理規則進行反應。
二、對“機器具有理解能力”的反駁
對“機器具有理解能力”的反駁一般具有幾個理由:機器不具有意向性、機器不識語義以及知識的形式化難題這三方面來分析。
(一)機器不具有意向性
人工智能哲學家博登(M.Borden)指出“意向性被看作是區分個體的人與機器的根本特征之一:機器和人可以做同樣的事情,但是人有意向性,而機器沒有!币庀蛐裕╥ntentionality)指的是心靈表征或者呈現事物、屬性、狀態的能力,意向性是人類獨有的特征。20世紀50年代,人工智能先驅圖靈(Alan M Turing)通過模擬游戲(Imitation Game)來思考“機器是否能思維”,他設計出“圖靈機”討論機器是否能夠思維,對機器的理解或意識等問題進行哲學探討。圖靈認為沒有意向性(intentionality)就沒有智能,所謂意向性指的是心靈表征或呈現事物、屬性或狀態的能力,機器與人類可以具有相同的功能,但是機器沒有意向性,人具有意向性。
人與機器有本質的區別,人具有理解能力,而機器沒有。在圖靈看來,“機器能夠思維”不具備邏輯可能性以及經驗可能性。機器只能對人類行為進行模擬,不能對人類思維進行模擬。圖靈認為心理狀態與行為之間存在著聯系,可以通過行為或行為傾向來表征心理狀態。機器是根據一組明確的規則執行一組操作的裝置。給機器一套指令,告訴它在每種情況下該做什么,機器便可做算術和邏輯推導,但沒有一臺機器能夠成為完整或充分的心智模型,心智與機器本質上是不同的。圖靈認為計算機中編碼的二進制對應人類大腦中的神經元“開”和“關”,機器能夠通過圖靈測試只能說明機器的某種功能與表現出來的行為與人是類似的,但并不能說明機器結構與人腦結構是相同的,并未真正揭示人類的認知機制,更不能說明機器具有心靈表征和意向性,機器不能像人類一樣行動是基于意向基礎之上的,因此,機器不具有理解能力。
圖靈測試是人工智能的試金石,但通過圖靈測試的機器不一定具有真正的人類智能,人類的心靈不能通過算法模擬而獲得。
圖靈從幾個方面反駁機器具有智能和理解能力:“1.神學的反對意見。思維是人類不朽靈魂的一種機能;2.機器思維的后果太可怕了,我們希望并且相信機器做不到這一點;3.離散狀態機器的能力是有限度的;4.機器沒有意識,缺乏真實情感;5.機器具有能力缺陷,不具有人類的仁慈、機智、幽默感等能力;6.機器缺乏創造性,不能創造出新東西;7.大腦的神經系統是連續的,但計算機系統是離散的,離散的機器不能模仿連續的大腦;8.人可以解決突發問題,人具有默會知識,但機器只能遵循規則;9.人具有心靈感應,但機器不行。”
通過上述質疑可以看出,不同學科的學者從不同視角驗證了機器不具有智能:數學家認為機器不能判定哥德爾定理;神經科學家認為機器不能模擬神經系統;心靈哲學家認為機器沒有意識;哲學家認為機器不具有默會知識;等等。通過圖靈測試的機器只是對人類智能進行模擬,并不是真正理解人類行為,不是真正具有智識。
(二)機器只識語法、不識語義
機器只能在功能上模擬人類,在模擬過程中機器并不通曉語義,所以機器并不能真正理解人類,人類的認知過程是心理過程。約翰·塞爾(John Searle)認為心理過程與程序過程是兩個不同的過程,計算機程序是按照純語法加以定義的,但思維絕不僅僅是處理無意義的符號問題,還包括了意義的語義內容。
人心不僅僅是形式的或者語法的過程,人心還具有心理內容。計算機程序永遠不可能替代人心,理由在于“計算機程序只是語法的,而心不僅僅是語法的,心是語義的,就是說,人心不僅僅是一個形式結構,它是有內容的。”
塞爾通過“中文屋論證(Chinese Room Argument)”的思想實驗對人工智能能夠理解的觀點進行批判,塞爾設想出一臺可以模擬“理解”的計算機程序。把一個只懂英文、不懂中文的人鎖在一個房間,給出中英文“腳本”以及用英文表示的形式化規則,如果通過長期訓練,屋內人能夠根據指令和規則來處理中文符號,但屋內人未必真正理解中文符號,或者說屋內人并不具有理解中文符號的能力。塞爾的思想實驗得出計算機系統可以在完全不懂中文的情況下,通過程序來模擬人類理解中文等認知能力。
計算機不能產生新知識。在塞爾看來,機器或者算法不是真正理解了人類語言的意義,只是對人類行為模擬或者功能模擬而已。計算機的模擬不能等同于事實本身,能夠對心理過程進行模擬也并非能夠必然得出計算機模擬就是心理過程本身。
計算機程序與人類理解完全是兩碼事。在中文場合,屋內人具有人工智能以程序方式輸入的每樣東西,而屋內人什么也不理解。在英文場合,屋內人理解每樣東西,但沒有理由相信,理解與純形式的計算機程序之間有任何關聯。塞爾認為計算機在處理符號時,沒有對符號的內容與含義加以使用,而人類則不同。約翰·塞爾認為“計算機理解的故事和我理解的故事完全是兩碼事……計算機及其配置的程序并沒有對理解提供充分條件,因為計算機和程序運行的過程當中不存在理解。”
所以,不懂語義的計算機程序并不能真正具有理解能力。
(三)人類知識的形式化難題
德雷福斯(H.Dreyfus)從現象學視角對符號主義人工智能進行批判,從認識論、形而上學方面來挑戰AI的研究方法基礎,他在《計算機仍然不能做什么:人工理性批判》指出,符號主義人工智能學派站在笛卡爾的傳統理性主義立場上,從而繼承了其所有的錯誤假設:生物學假設、心理學假設、本體論假設以及認識論假設!
生物學假設:在某一運算水平上,大腦與計算機一樣,以離散的運算方式加工信息;心理學假設:大腦被看作一種按照形式規則加工信息單位的裝置;認識論假設:一切知識都可被形式化,可以被編碼成數字形式,也就是說,凡是能理解的都可以通過邏輯關系來表達;本體論假設:存在是一組在邏輯上相互獨立的事實,知識可以被編入計算機程序!
德雷福斯認為人工智能的4個假設包括形式規則的非實質性應用,人類所知的世界具有一定的形式、客觀結構,而且所有的知識都能被形式化,這個假設意味著,人類所知或所能理解的一切表達都可以是脫離語境的,形式規則或者定義都可以用計算機來處理。德雷福斯認為人工智能的心理學假設、認識論假設與本體論假設具有共同之處,即它們都認為,人一定是一種按照規則對原子事實形式的數據做計算的裝置,這些假設都把關于理解的概念,看作是形式化的表達。
人工智能心理學假設的經驗性證據是對認知模擬的科學方法論的批判。德雷福斯:“要想對心理學假設做經驗性證實,產生了一個科學方法論的問題——如何評價證據的問題!钡吕赘K拐J為大腦是否像數字計算機那樣工作完全是一個經驗的問題,需要由神經生理學來回答。如果心理學要成為研究人類行為的科學,它必須把人作為客體來研究。心理學出現了從行為主義到心智主義的普遍轉移。
行為主義心理學(behavioral psychology)主張以客觀的方法研究人類的行為,從而預測和控制有機體的行為。行為主義心理學完全忽視學習者的內部心理過程,只強調外部刺激,否定意識的作用。行為主義銳意研究可以觀察的行為,但是由于它不研究心理的內部結構和過程,否定意識的重要性。在德雷福斯看來,整個行為主義的方法論都是錯誤的。
德雷福斯與塞爾一樣,主張人類的認知并不包括規則的應用或者內部圖像的應用。人類智能具有現實性(situated)(由人類自身的處境來決定)和具身性(embodied)(人體實時發生的有意圖的感覺運動與所處環境之間的相互作用)。
計算不同于認知,計算缺乏現實性與具身性,僅僅存在于計算機之中,游離與抽象于現實世界之外,德雷福斯認為無論人類知識還是物理實在,都沒有一種可以完全根據規范標準來描述某種形式化結構的能力。雖然形式規則可能是描述人類知識的一種方法,但它并沒有為某種智能系統對這種知識的再生產提供基礎。
三、對機器具有理解能力的反思
(一)理解基于對語義的把握
機器能夠做出正確反應既不是說明機器具有理解能力的充分條件,也不是說明機器具有理解能力的必要條件。計算機程序只是從外部行為解釋了人類的理解,計算機程序不是理解的充分條件,人類不理解也同樣可以行使規則。塞爾用“中文屋論證”反駁了強人工智能的理論基礎,即編程的計算機具有理解能力,并且,計算機程序在某種意義上解釋了人類理解。塞爾反駁了西蒙的觀點,即數字計算機已經具有同人類相同的理解能力。同時,也反駁了認為智能不過是一種物理符號處理的符號主義觀點。意識不過是一個形式化過程,麥卡錫指出,恒溫器那樣簡單的機器都具有信念。
博登《逃出中文屋》一文反駁了塞爾的觀點,她指出,“重要的問題不是‘一臺機器何時理解了某件事情?’(這個問題暗示存在著某個明確的斷點,理解在那里終止了,這是一種誤導),而是‘為了能夠做出理解,一臺機器(無論是不是生物的)必須能夠做到哪些事情?’這個問題不僅關系到計算心理學是否可能,而且關系到它的內涵。”顯然,“能夠做到”是用于判斷“理解”的主要標準。
人工智能的三種技術路線都不能給出判斷“理解”的主要標準,聯結主義的代表是人工神經網絡,主要是處理數據;行為主義的代表形式是強化學習方法,主要是信息處理,符號主義代表的是知識圖譜和專家系統,主要是知識處理和推理。計算機模擬大腦需要把任何種類的智能活動變成一套指令,因為在計算主義看來一切推理都可以歸結為計算,機器人可以復制人類智能行為。計算機是信息處理的工具,用計算機去解決問題,必須把問題程序化,且這個問題可計算,一定要以算法為前提。機器是數理過程與物理過程的結合,機器的計算不是心理過程,也無法給出人類理解的標準。
(二)理解需要揭示事物間的因果關系
機器不可能通過數據分析和算法模擬具有人類智能和理解能力,理解也需要揭示事物間的因果關系。希爾斯(Alison Hills)提出“要理解為什么p,你需要能夠將q視為p的原因!币蚬嚓P反映了人類的認知,是基于數據驅動和數據相關的人工智能無法取代的。因果關系專家珀爾(Judea Pearl)在《為什么——關于因果關系的新科學》中指出,如果將人工智能提升到人類智能的水平,人類必須對自身的因果認知推理模式有深入了解。只有給機器配備真正的因果推理模型,機器才可以說是具有真正的智能。在珀爾看來,今天的機器學習在導向上是錯誤的,它是以數據為導向的,而非以人的推理特征為導向,“我們仍然無法教會機器理解事情的前因后果”。
因果關系是比大數據更基本的東西,因果模型是比數據更真實的邏輯。世界的知識都可以用因果網絡來表達,因果網絡可以分為三個層次,最低層次是相關關系,第二層次是干預層次,第三層次是反事實層次。第一層次需要的是觀察能力,觀察變量之間的關系;第二層次需要的是行動能力;第三層次需要的是想象、反思與理解能力,是針對沒有發生的事情的預測和想象。
珀爾提出大數據分析和深度學習都在因果關系的最低層級,沒有任何智能可言!吧疃葘W習具有獨特的優勢,但這類程序與我們對透明性的追求背道而馳。即使是阿爾法狗的程序編寫者也不能告訴我們為什么這些程序能把下棋這個任務執行得這么好!
理解是因果推理的證據,“理解自己的意圖,并用它作為因果推理的爭取,具備這一能力就說明行為主體已經達到自我覺察的水平……目前還沒有任何一個智能機器能達到這個水平!睘榱藢崿F與人類的自然溝通,強人工智能必須了解關于人類意圖的詞匯,而這需要他們模擬自由意志的幻覺,這些是機器不具備的。
(三)理解的復雜性分析
理解過程是一個非常復雜的過程,非機器能力所及。約翰·豪奇蘭德(John Haugeland)的“好的舊人工智能(GOFAI:Good Old-fashioned AI)”基于笛卡爾式的觀念:所有的理解都是形式化的并使用恰當的符號表征。人與機器的解題方式不同!叭撕蜋C器之間之所以有這種差別,是因為這項任務所要求處理的是拓撲關系,為此就必須忽略純粹的量度方面的關系。人腦完全適合于這種拓撲學特征。因為這些特征告訴我們事物典型特征,而不是事物的具體量度!
理解是一個復雜的認知過程。伽達默爾立足于理解本體論,他在《真理與方法》中提出“理解不屬于主體的行為方式,而是此在本身的存在方式!睓C器只有發展到強人工智能階段才可能具有人類的認知能力和理解能力。塞爾認為:“‘理解’并不是一個簡單的二元謂詞;甚至存在著許多不相同的理解類型和層次,即使排中律也往往不能直接應用于“X理解Y”這種形式的陳述;在很多情況下,究竟X是否理解Y,是一個需要判斷的問題,而不是一個簡單的事實!崩斫獬诵枰盐帐挛锏囊幎ㄐ酝猓需深入到它們的“理據或理由”的層面,甚至還包括把握它們的意義與價值等!袄斫獾奶卣髟谟谒褌別的片段性的信息結合為一個統一的整體!
希爾斯認為“理解為什么是p(而q是為什么是p)”,至少具有以下6種認知能力:“1)就其他人給出的原因做出一些解釋;2)用你自己的話解釋為什么p;3)從q的信息中得出p(或可能p)的結論;4)從q(其中p及q與p及q相似但與p及q不相同)的信息中,得出p(或可能p)的結論;5)給出p的信息,給出正確的解釋q;6)給出p的信息,給出正確的解釋q。”理解基于人類的認知能力,只通過程序性功能模擬不能真正理解人類。具有理解能力還需要擁有人類情感,具有同理心才能夠挖掘事物隱藏的因果關系,才能理解人類的外部行為。
綜上所述,人工智能對人類智能只處于功能模擬階段,僅限于模仿人類的某些行為,而理解基于對事物背后因果關系的揭示,基于對語言的意義的把握,理解是一個復雜的過程,人工智能機器不管基于符號主義、聯結主義還是行為主義技術路線,都不是基于對人類認知能力的探求,不能明確語句和語詞的意義,因此,人工智能機器不具有人類理解能力,現在的機器還不是真正意義上的人工智能。
機器人招商 Disinfection Robot 機器人公司 機器人應用 智能醫療 物聯網 機器人排名 機器人企業 機器人政策 教育機器人 迎賓機器人 機器人開發 獨角獸 消毒機器人品牌 消毒機器人 合理用藥 地圖 |