編者按:
人工智能技術的飛速發(fā)展在延伸和擴展了人類能力的同時,也讓人類生存面臨一系列挑戰(zhàn)。究竟應該如何看待人工智能技術的積極效應及其給人類帶來的威脅?本期組織的三篇文章分別從人工智能話語體系的建構、人工智能的“人工非智能”效應、人工智能的倫理挑戰(zhàn)視角對此進行了研討,以期引發(fā)進一步討論。
今天,與其說我們正在被人工智能所威脅,不如說我們正在被人工智能所構筑的話語體系所威脅。后者可能讓我們變成現(xiàn)代版的堂吉訶德,在惶恐中與假想的風車進行戰(zhàn)斗。麻省理工學院物理系教授邁克斯·泰格馬克在《生命3.0》中將人類當下的存在方式視為生命2.0版本,它意味著人類主要依靠進化獲得硬件,即身體的基本機能,卻可以通過學習和思考來構筑軟件,諸如人類的思維與創(chuàng)造力。而生命3.0,即今天被我們津津樂道的人工智能,則是能夠“自己設計硬件和軟件”的未來生命體。換言之,對于泰格馬克這樣的人工智能專家而言,其討論范式早已不是機器如何模擬人的存在并構筑了對人類的威脅,而是相反,人的存在方式需要模擬機器(硬件、軟件)來獲得表達自身的套話語體系,正是這樣一種話語體系統(tǒng)治了今天關于人工智能的討論,并由此產生了一種無謂的恐懼:有血有肉的人類正在被可能擁有無限計算能力,同時又不知疲倦的機器所質疑與威脅。當然,目前更多的人對人工智能持樂觀態(tài)度,他們勾勒出了一條實現(xiàn)美好智能化生活方式的基本途徑。但不管是悲觀主義視角還是樂觀主義視角,其共有的是對人工智能的理解方式:即基于機器的運行方式來理解人的存在方式,并在此基礎上言說人與機器的比較性關系。
一
嚴格來說,這是一種還原論式樣的思考模式,即,將人的行為進行人為的拆解:將行為背后的原因歸結為人的機體的某個器官的作用。例如科學家弗朗西斯·克里克與克里斯托弗·科赫于1990年共同完成的有關“意識相關神經區(qū)”的開創(chuàng)性論文,詳細描述了視覺、聽覺、觸覺可能對應的大腦不同部位;或者將人的行為還原為某種概率式的計算,比如泰格馬克將意識的產生歸結為信息的收集。由此形成的有關意識的理論將人的意識的構成還原成為科學可以“完全”把握的事實,具有物理學和數學的厚實基礎。而所有可被科學完整把握的事實,就有可能被還原為一種0與1式的表述方式,最終為人工智能的加速發(fā)展添磚加瓦。
同樣囿于這一還原論的語境,泰格馬克這樣界定有關人工智能討論的核心概念:所謂智能,“即完成復雜目標的能力”;所謂意識,即主觀體驗;所謂目的論,即用目標或者意志而不是原因來解釋事務。正是基于這一名詞列表所構筑的話語體系,我們似乎面臨著或可與人類對峙的挑戰(zhàn),因為在這套話語體系當中,原本屬人的諸多特性——智能、意識、意志等問題都被還原為以“目標”為導向的行為動機。這種目標導向,原本只能算是復雜的人類行為最為外在的一種顯現(xiàn)方式,但現(xiàn)在卻構成了談論人工智能的話語體系的基本要素。如果智能本身被還原為一種完成復雜目標的能力,那么人類智能將永遠無法趕超被加速主義原則所支配的技術進步。因為它排除了屬人的人類智能當中原本包含著豐富內涵的智慧,在后者當中,人類的情感與意志都呈現(xiàn)出諸多無法還原為基本算法的非確定性。
二
承認并正視這一非確定性是建構人工智能話語體系的一種可能性。它需要重新復蘇一種特定的哲學人類學,讓哲學的話語退回到康德時代有關“人是什么”的最終追問。而對人之本質最為晚近的思考終結于20世紀60年代的法國,后現(xiàn)代主義的勃興一方面摒棄了當代法國存在主義對人之生存方式的癡迷,同時更以宣告人之死、主體之死的方式來終結了曾經盛極一時的哲學人類學。后現(xiàn)代主義思潮,如同古希臘懷疑論與詭辯論的一次復興,它對于確定性的強烈拒斥在表面上似乎構成了對以確定性為旨歸的科學技術發(fā)展的一種反叛,但實質上卻以其對“本質”的否定,特別是對于人之本質的徹底否棄為科學技術毫無限制的蔓延提供了合法性。面對阿爾法狗(AlphaGo)戰(zhàn)勝人類圍棋高手與阿爾法元(AlphaZero)完勝阿爾法狗的事實,后現(xiàn)代主義者們以“怎么都行”的理論態(tài)度對之無可奈何。但正如詭辯論激發(fā)了柏拉圖建構理念論,經驗主義者休謨對于因果關系之先驗確定性的懷疑激發(fā)了康德建構知識學,今天的人工智能不僅意味著一種技術的進步,更為根本的是它所建構的還原論話語體系,將再一次激發(fā)哲學人類學的重建。這一次哲學人類學的重建與柏拉圖的理念論以及康德的知識學一樣,都試圖以對本質主義的重新探求樹立人之尊嚴。因此,面對基于人工智能的技術支持而出現(xiàn)的物聯(lián)網時代,當美國學者杰里米·里夫金驚呼“第三次工業(yè)革命”已經到來的時候,我們或許應當呼喚隨之而來的又一次哲學人類學的復蘇。
哲學人類學的復蘇,其根本任務在于構筑一整套完全不同于人工智能的還原論話語體系,重新回答“人是什么”的哲學追問。阿爾法元給人類帶來的恐慌,其根源在于它呈現(xiàn)了一種機器學習的能力,并在大數據的聚集與高速運算的技術支持之下實現(xiàn)了一種所謂的“深度學習”。但對于哲學人類學家而言,這樣的一種學習能力在何種意義上挑戰(zhàn)了人之為人的獨特屬性?對這一問題的追問,必將會逼迫我們更為深入地分析“人工的智能化”與“人的智能化”之間的根本區(qū)別。
三
人工的智能化建基于大數據與不斷升級的各類算法。因為在還原論的話語體系當中,不僅“智能”成為完成復雜目標的能力,而且學習能力也被理解為一種疊加式的信息處理模式,它需要諸如記憶和分析等相關能力的輔助。但問題在于記憶究竟是什么,分析又是如何可能的?在深入探討這些問題的時候,人工智能的專家再一次運用還原論的方式告訴我們,所謂記憶就是相關性信息的收集,換言之,人工智能總會將與其目標導向相關的信息加以累計。與之相似,分析能力也建基于對相關信息的歸類。由此,對“相關性”的強化運用成為人工智能學習能力得以成立的基本原理。而這一原理在哲學上與18世紀英國哲學家休謨對于因果關系的分析頗為類似。休謨在分析因果關系這一左右人類知識形成的根本基石的時候,提出了一種徹底的經驗主義方案,即以兩個現(xiàn)象前后相繼所構筑的相關性來建構一種因果性,從而形成人類知識。例如當我們分別以描述的口吻敘述“太陽曬”和“石頭熱”,其所提供的只是經驗的雜多,也即人工智能話語體系中的數據信息,而當我們這樣表述這一現(xiàn)象:“因為太陽曬,所以石頭熱”,其間所加入的“因為”“所以”使描述性的經驗雜多成為一種知識,它們?yōu)閮蓚€獨立的現(xiàn)象之間構筑了一種相關性。經驗主義者正是在這種相關性之上建立起有關知識的確定性保障。從這一意義上說,人工智能所推進的機器學習能力的確定性建基于哲學的經驗主義傳統(tǒng),它同時表現(xiàn)出的是將人的主觀意識進行純粹物質化的還原,這樣做的結果,最終只會窄化對人的本質理解。
哲學人類學需要正視這種經驗主義的挑戰(zhàn),以豐富人的本質的規(guī)定。正如我們今天需要恢復哲學人類學以對抗人工智能的挑戰(zhàn)。在哲學發(fā)展史上,對經驗主義的反抗有多種方式。例如康德式的對抗,其方式是將人的理性進行分類,將建基于相關性的知識學歸入到知性之中,納入理論理性的范圍之內,將與人的自由意志相關的原則性保障歸入到實踐理性的范圍之內,并在這兩種理性之間劃出一道鴻溝,以限定性的思維方式避免兩種理性之間的相互僭越。再如黑格爾式的對抗,以絕對精神的自我運動的方式,將經驗主義對知識學的建構納入人類精神自我認知之整全性思考的過程當中,成為其必要環(huán)節(jié)。面對今天人工智能的挑戰(zhàn),黑格爾式的對抗方式,在某種意義上只會為人工智能增添其必要的合理性。人工智能在技術的加速發(fā)展當中呈現(xiàn)出一種不以人的意志為轉移的客觀性,它正以其還原論式的話語體系吞并著“人本身”,在算法的可無限拓展的意義上將自身變成為統(tǒng)治世界的“絕對精神”。因此在筆者看來,我們或許應當借鑒康德的有限性的視角為人類理性劃界,將人工智能嚴格局限在一種知性的規(guī)范之內,限定其還原論式的話語表述方式對人的全部特質的僭越,即用器官性的、數據化的算法來解讀人的行為以及行為背后的意志自由。我們必須堅持馬克思以人為軸心的技術觀,將機器視為人延長的手臂,而不是將人視為機器功能實現(xiàn)的中介,任何一種試圖顛倒這一關系的討論方式都將人推入有待批判的異化的境遇。面對人工智能的挑戰(zhàn),我們需要做的是重新凸顯“人的智能”的獨特性,凸顯其中所包含著不可被還原為數據信息及其相應算法的情感性、意志性的人之屬性,而非將理論的重心放入到所謂人機界限模糊了的“后人類主義”當中,將諸如機械替換部分大腦機能之類的賽博格討論推上理論的舞臺,因為這樣一種討論方式不過是讓“人的智能”屈從于“人工智能”的話語體系。它的本質其實是人工智能另一套不戰(zhàn)而屈人之兵的方略。
(作者:夏瑩,系清華大學哲學系教授)