www.av视频在线观看,亚洲免费影院第一第二,一级毛片在现观看,久久精品片色免费看网站,日本大香伊蕉在人线国产,奇米精品一区二区三区在线观看,亚洲网站一区

網(wǎng)站首頁(yè) | 網(wǎng)站地圖

大國(guó)新村
首頁(yè) > 原創(chuàng)精品 > 成果首發(fā) > 正文

AI治理:人工智能時(shí)代的秩序困境與治理原則

【摘要】人工智能是20世紀(jì)以來(lái)最為深刻、最有影響的技術(shù)革命和社會(huì)進(jìn)步。它在深度挑戰(zhàn)傳統(tǒng)生產(chǎn)方式和經(jīng)濟(jì)關(guān)系的同時(shí),也在廣泛改變著現(xiàn)代人的日常行為和社會(huì)生活。人類(lèi)長(zhǎng)期既定的認(rèn)知體系、價(jià)值觀念和生活方式,習(xí)以為常的法律規(guī)則、道德信條甚至決策機(jī)制都面臨著前所未有的危機(jī)和挑戰(zhàn)。全新的AI時(shí)代內(nèi)在地需要全新的治理理念和治理形式。這就意味著治理體系和治理能力必須實(shí)現(xiàn)跨級(jí)飛躍:從傳統(tǒng)治理到互聯(lián)網(wǎng)治理,再到AI精準(zhǔn)治理。AI精準(zhǔn)治理必須堅(jiān)持創(chuàng)新、適度、平衡和多元四大原則,建構(gòu)由政府、市場(chǎng)和社會(huì)組織等多元主體攜手合作、共同參與的多層次、多樣化的新型治理模式,既能合理應(yīng)對(duì)可能出現(xiàn)的諸多風(fēng)險(xiǎn),又能積極支持人工智能的有序發(fā)展。

【關(guān)鍵詞】人工智能  大數(shù)據(jù)  AI治理  精準(zhǔn)治理

【中圖分類(lèi)號(hào)】TP18                          【文獻(xiàn)標(biāo)識(shí)碼】A

【DOI】10.16619/j.cnki.rmltxsqy.2018.10.001

人類(lèi)正在步入一個(gè)由互聯(lián)網(wǎng)、大數(shù)據(jù)和人工智能(Artificial Intelligence, AI)三重疊加的數(shù)字時(shí)代。“三者共同標(biāo)志著人類(lèi)新時(shí)代的三個(gè)側(cè)面,共同構(gòu)成了新的社會(huì)時(shí)代。網(wǎng)絡(luò)側(cè)重于描述人類(lèi)社會(huì)乃至與物理社會(huì)廣泛連接的狀態(tài),大數(shù)據(jù)側(cè)重描述新社會(huì)狀態(tài)下的內(nèi)容形態(tài)和數(shù)字本位狀態(tài),人工智能則描述了新的社會(huì)創(chuàng)造物和廣泛的機(jī)器介入的社會(huì)狀態(tài)。”[1]20世紀(jì)40年代,通用計(jì)算機(jī)和存儲(chǔ)設(shè)備走入普通人的日常生活,數(shù)字時(shí)代開(kāi)啟。20世紀(jì)50年代,網(wǎng)絡(luò)技術(shù)獲重大突破,為網(wǎng)絡(luò)時(shí)代的到來(lái)鋪平了道路。20世紀(jì)60年代,芯片、激光和通信三大技術(shù)迅速升級(jí),促成了互聯(lián)網(wǎng)絡(luò)、數(shù)據(jù)處理和智能機(jī)器的迅猛發(fā)展。20世紀(jì)90年代,互聯(lián)網(wǎng)逐步普及。網(wǎng)絡(luò)不再僅僅意味著技術(shù)和工具,而成為溝通平臺(tái)和組織原則。傳統(tǒng)人類(lèi)生活開(kāi)始被網(wǎng)絡(luò)解構(gòu)、重構(gòu)、再構(gòu),人與人之間的交往、交換和交流逐漸圍繞網(wǎng)絡(luò)展開(kāi),人類(lèi)開(kāi)始步入網(wǎng)絡(luò)時(shí)代。隨著傳感器技術(shù)的應(yīng)用,海量級(jí)數(shù)據(jù)存儲(chǔ)的普及,新型通信技術(shù)的開(kāi)發(fā),人類(lèi)社會(huì)生活的數(shù)據(jù)規(guī)模呈指數(shù)級(jí)上升。2010年左右,大數(shù)據(jù)時(shí)代宣告到來(lái)。21世紀(jì)的第二個(gè)10年,伴隨數(shù)據(jù)處理能力的大幅提升,超級(jí)運(yùn)算技術(shù)的廣泛應(yīng)用,新式算法的橫空出世,人工智能領(lǐng)域的跨越式發(fā)展讓人目不暇接,甚至有些始料不及。所有的現(xiàn)實(shí)都在顯示:無(wú)論人類(lèi)情愿與否,一個(gè)全新的人工智能時(shí)代正在迎面走來(lái)。如何理解人工智能帶給人類(lèi)世界的機(jī)遇和挑戰(zhàn),如何認(rèn)識(shí)人工智能引發(fā)的一系列社會(huì)影響和治理困境,如何確立人工智能時(shí)代精準(zhǔn)治理的方向與原則,既是一個(gè)重大的理論課題,也是一個(gè)迫切的現(xiàn)實(shí)難題。

人工智能時(shí)代:大幕初啟的數(shù)字革命

人工智能,顧名思義,是指通過(guò)軟硬件的結(jié)合使機(jī)器具有一定程度的類(lèi)人智慧、思維和行為。這一概念與內(nèi)涵也在隨著應(yīng)用范圍和相關(guān)學(xué)科的發(fā)展而變化。但毫無(wú)疑問(wèn),這是一個(gè)被高度關(guān)注、廣泛使用且正在飛速發(fā)展的新興領(lǐng)域。[2]

20世紀(jì)40年代,圖靈提出著名的“圖靈測(cè)試”:“如果一臺(tái)機(jī)器能夠與人類(lèi)展開(kāi)對(duì)話而不能被辨別出其機(jī)器身份,那么稱這臺(tái)機(jī)器具有智能。”[3]隨后,在香農(nóng)和馮·諾伊曼的努力下,現(xiàn)代信息論和計(jì)算機(jī)科學(xué)的理論根基得以確立。在1956年美國(guó)的達(dá)特茅斯會(huì)議上,人工智能概念和研究領(lǐng)域被正式提出。自20世紀(jì)60年代起,人工智能大體經(jīng)歷了兩大發(fā)展階段:一是弱人工智能階段,依靠單臺(tái)機(jī)器或小型局域網(wǎng)絡(luò),只能完成簡(jiǎn)單的程序和任務(wù);二是強(qiáng)人工智能階段,全球互聯(lián),大數(shù)據(jù)全覆蓋,終端云端協(xié)同運(yùn)作,云存儲(chǔ)云計(jì)算同步開(kāi)啟,已經(jīng)具備近人類(lèi)的思考方式和處理復(fù)雜任務(wù)的能力。[4]

近些年來(lái),人工智能技術(shù)的革新更加突飛猛進(jìn),某些領(lǐng)域的發(fā)展水平已達(dá)到了前所未有的高度。1997年5月,IBM計(jì)算機(jī)“深藍(lán)”輕松戰(zhàn)勝國(guó)際象棋世界冠軍卡斯帕羅夫。2016年3月,谷歌“阿爾發(fā)狗”(AlphaGo)戰(zhàn)勝圍棋冠軍李世石。次年5月,再度戰(zhàn)勝排名世界第一的世界圍棋冠軍柯潔。雖然“阿爾發(fā)狗”是否代表人工智能發(fā)展方向這一問(wèn)題還有爭(zhēng)議,但人們比較認(rèn)可的是,它象征著計(jì)算機(jī)技術(shù)已進(jìn)入人工智能的新信息技術(shù),其特征是大數(shù)據(jù)、大計(jì)算、大決策,三位一體。它的智慧正在接近人類(lèi)。2017年10月18日,DeepMind團(tuán)隊(duì)公布了最強(qiáng)版的AlphaGo Zero,它的獨(dú)門(mén)秘籍是“自學(xué)成才”,從零基礎(chǔ)開(kāi)始學(xué)習(xí)圍棋短短3天后就以100:0碾壓了第二個(gè)版本的“舊狗”(戰(zhàn)勝李世石的那版)。2005年5月,美國(guó)斯坦福大學(xué)研制的無(wú)人駕駛汽車(chē)在沙漠中行駛了132英里,開(kāi)啟了無(wú)人駕駛汽車(chē)的新時(shí)代。2014年5月,Google正式推出的新型無(wú)人駕駛汽車(chē)開(kāi)始路測(cè)。2015年2月,英國(guó)的無(wú)人駕駛汽車(chē)也正式亮相。據(jù)統(tǒng)計(jì),2014年至今,全球范圍內(nèi)與自動(dòng)駕駛技術(shù)相關(guān)的投資、合伙、并購(gòu)多達(dá)200多項(xiàng),涉及總額高達(dá)1000億美元。[5]以互聯(lián)網(wǎng)科技先鋒自居的英特爾,早在2017年1月美國(guó)GES展會(huì)上就高調(diào)宣布與奔馳合作并將于近期推出AI駕駛汽車(chē)。進(jìn)入21世紀(jì)不到20年,從強(qiáng)調(diào)海量數(shù)據(jù)存儲(chǔ)、高速計(jì)算能力的“強(qiáng)計(jì)算弱智能”,到依靠深度學(xué)習(xí)、大數(shù)據(jù)、云計(jì)算的“網(wǎng)絡(luò)協(xié)同強(qiáng)智能”,人工智能提升到了一個(gè)嶄新的高度和水平。有學(xué)者認(rèn)為,人類(lèi)社會(huì)即將迎來(lái)繼哥白尼革命、達(dá)爾文革命和神經(jīng)科學(xué)革命之后的“第四次革命”。[6]

人工智能在生產(chǎn)領(lǐng)域中的應(yīng)用,為新一輪產(chǎn)業(yè)結(jié)構(gòu)升級(jí)提供了助力。借助互聯(lián)網(wǎng)+和工業(yè)4.0,人工智能以替代人工或與人工合作的方式,大幅提高了勞動(dòng)生產(chǎn)率,深度重構(gòu)了信息鏈和產(chǎn)業(yè)鏈,對(duì)傳統(tǒng)的價(jià)值創(chuàng)造和分配方式構(gòu)成了重大影響。雖然當(dāng)前的人工智能還不具備自我升級(jí)、自主創(chuàng)造的能力,但它對(duì)人類(lèi)的生產(chǎn)和生活帶來(lái)了巨大的沖擊和挑戰(zhàn)。未來(lái)社會(huì)的發(fā)展不可能無(wú)視人工智能的作用與功能,這意味著,新一輪的創(chuàng)新運(yùn)動(dòng)勢(shì)必被強(qiáng)勢(shì)激發(fā)。

當(dāng)今世界各國(guó)高度重視人工智能的研發(fā)與應(yīng)用,尤其是人工智能戰(zhàn)略的發(fā)展。2014年6月,日本政府出臺(tái)《日本復(fù)興戰(zhàn)略》后火速啟動(dòng)“機(jī)器人革命會(huì)議”。2015年1月,安倍首相提出要“通過(guò)規(guī)制改革實(shí)現(xiàn)機(jī)器人無(wú)障礙社會(huì),確立世界最高水準(zhǔn)的人工智能技術(shù)”,并聲稱2015年是“機(jī)器人革命元年”。[7]2015年,日本政府公布《機(jī)器人新戰(zhàn)略》,重點(diǎn)規(guī)劃了未來(lái)以機(jī)器人為軸心的人工智能發(fā)展目標(biāo)。[8]2016年10月31日,美國(guó)先后發(fā)布《國(guó)家人工智能發(fā)展與研究戰(zhàn)略報(bào)告》(The National Artificial Intelligence Research and Development Strategic Plan)和《為人工智能的未來(lái)做好準(zhǔn)備》(Preparing for the Future of the Artificial Intelligence)兩份報(bào)告,對(duì)人工智能發(fā)展的現(xiàn)狀和前景展開(kāi)深度分析,正式宣告美國(guó)人工智能的發(fā)展戰(zhàn)略。

我國(guó)對(duì)人工智能的發(fā)展歷來(lái)高度重視。20世紀(jì)70年代末人工智能的研發(fā)和制作就已啟動(dòng)。進(jìn)入21世紀(jì),我國(guó)對(duì)人工智能的重視程度更加提高,對(duì)技術(shù)研究和應(yīng)用發(fā)展的支持力度也逐步加大。例如計(jì)算機(jī)視覺(jué)、語(yǔ)音識(shí)別和語(yǔ)言處理等技術(shù)的發(fā)展水平,已然穩(wěn)居世界先列。2017年,國(guó)務(wù)院發(fā)布《新一代人工智能發(fā)展規(guī)則》[9],引起國(guó)際社會(huì)高度關(guān)注。

某種程度來(lái)講,2017年是“人工智能元年”。它標(biāo)志著,人工智能已實(shí)現(xiàn)跨越式發(fā)展,人類(lèi)既有的認(rèn)知、倫理和法律體系正面臨前所未有的挑戰(zhàn)。一個(gè)“后人類(lèi)時(shí)代”正在緩步走來(lái)。未來(lái),智能機(jī)器將參與甚至自主承擔(dān)越來(lái)越多的關(guān)乎倫理、法律的決策和行動(dòng),人類(lèi)的生存安全以及思考決策的權(quán)威地位可能受到威脅。一旦人工智能成長(zhǎng)為獨(dú)立的、自我約束型的“道德主體”,人類(lèi)的本質(zhì)都可能面臨重新界定和書(shū)寫(xiě)。這無(wú)疑是重大的時(shí)代性人文命題。“人工智能領(lǐng)域是當(dāng)前人類(lèi)所面對(duì)的最為重要的深刻技術(shù)和社會(huì)變革,是網(wǎng)絡(luò)時(shí)代、大數(shù)據(jù)時(shí)代之后的新的人類(lèi)社會(huì)形態(tài)在社會(huì)主體層面維度的反映。人工智能在深刻改變?nèi)祟?lèi)物質(zhì)生產(chǎn)體系的同時(shí),也將深刻改變?nèi)祟?lèi)的社會(huì)關(guān)系與社會(huì)行為。”[10]

人工智能引發(fā)的秩序困境

當(dāng)今世界,人工智能的應(yīng)用已經(jīng)相當(dāng)廣泛。普通人的日常生活,正在不可避免地被智能機(jī)器影響、左右甚至重構(gòu)。不知不覺(jué)間,人們的學(xué)習(xí)、工作、購(gòu)物,甚至尋友、旅行、炒股,已經(jīng)離不開(kāi)智能軟件和智能機(jī)器。許多過(guò)去只能由人類(lèi)才能勝任的復(fù)雜工作,正在讓位給智能機(jī)器;而一些人類(lèi)無(wú)法承受、無(wú)法逾越、無(wú)法勝任的高危險(xiǎn)難領(lǐng)域,智能機(jī)器正在扮演越來(lái)越重要的角色。越來(lái)越多的人們意識(shí)到:人工智能越發(fā)展、越進(jìn)步,人們對(duì)它的依賴程度越高、依賴范圍越廣。是否應(yīng)該接受人工智能已經(jīng)不是一個(gè)問(wèn)題,人們要回答的是,如何應(yīng)用人工智能造福人類(lèi),并及時(shí)應(yīng)對(duì)人工智能帶給傳統(tǒng)安全、法律、道德和政治等觀念和現(xiàn)實(shí)的沖擊與挑戰(zhàn)。在伊隆·馬斯克(Elon Musk)看來(lái),人工智能是對(duì)人類(lèi)生存最大的威脅,開(kāi)發(fā)能思考的機(jī)器就像在“召喚惡魔”。史蒂芬·霍金(Stephen Hawking)則認(rèn)為,全面的人工智能將意味著人類(lèi)這一種族的滅亡。就連比爾·蓋茨(Bill Gates)也對(duì)超級(jí)智能感到無(wú)比擔(dān)憂,他擔(dān)心超級(jí)智能再需幾十年就會(huì)誕生。[11]那么,人們不禁會(huì)問(wèn):人工智能為何讓人類(lèi)如此憂慮?人工智能的迅猛發(fā)展會(huì)有哪些風(fēng)險(xiǎn)和不確定性?會(huì)引發(fā)哪些社會(huì)危機(jī)和秩序困境?

安全困境。首先是兩種極端形式的安全隱患:超級(jí)智能和“人工愚蠢”。超級(jí)智能是指某些人工智能在某些特定領(lǐng)域擁有超級(jí)的能力,如一些超級(jí)計(jì)算機(jī),它們的計(jì)算速度是驚人的,從而造成了某些不可控的后果。例如,證券交易所中用于自動(dòng)執(zhí)行股票交易的人工智能系統(tǒng),執(zhí)行時(shí)間以納秒為單元。由于這些交易行為的發(fā)生速度很快,一旦出現(xiàn)問(wèn)題,人類(lèi)根本無(wú)法及時(shí)干預(yù)。更可怕的是這些智能機(jī)器不用吃飯、不用休息,理論上可以不間斷地永久工作。此外,這些超級(jí)智能的運(yùn)行往往存在一些“黑箱”般的不透明性。如對(duì)于先進(jìn)神經(jīng)網(wǎng)絡(luò)與基因算法,人類(lèi)早已放棄了試圖理解其何以能夠有效執(zhí)行如此復(fù)雜的任務(wù)。當(dāng)今社會(huì),人工智能承擔(dān)和處理的任務(wù)在不斷增長(zhǎng)。人工智能可以輕松地設(shè)計(jì)新城市草圖、監(jiān)控銀行帳戶安全、執(zhí)行具有重大經(jīng)濟(jì)影響的金融交易,甚至在同一時(shí)刻自動(dòng)駕駛成百上千臺(tái)自動(dòng)汽車(chē)……這些都是尋常人力所不能及的。“我們已經(jīng)無(wú)法控制計(jì)算速度快于人類(lèi)大腦百萬(wàn)倍的機(jī)器,在可預(yù)見(jiàn)的未來(lái),這個(gè)速度將持續(xù)增長(zhǎng)。”[12]“人工愚蠢”是人工智能的反義詞,意指簡(jiǎn)單規(guī)則下的人工智能的失敗。有些學(xué)者認(rèn)為,人工智能真正的威脅恰恰在于“人工愚蠢”,例如一個(gè)被設(shè)定了固定程序的計(jì)算機(jī)會(huì)無(wú)條件地執(zhí)行命令,迅速完成某項(xiàng)單一工作內(nèi)容。一旦程序失誤,智能機(jī)器就會(huì)無(wú)限地重復(fù)生產(chǎn)和制作動(dòng)作,這將造成大量的資源浪費(fèi)。2011年4月,亞馬遜網(wǎng)站上一本不再出版的圖書(shū)《蒼蠅的成長(zhǎng)》出乎意料地與自己打起了價(jià)格戰(zhàn)。這本書(shū)有兩個(gè)版本,原來(lái)售價(jià)為35至40美元。有一天,它們突然分別以1730045和2198177美元銷(xiāo)售。僅僅數(shù)小時(shí),價(jià)格又連續(xù)翻倍。兩周之后,書(shū)價(jià)已達(dá)到不可思議的23698655.93美元。之所以會(huì)如此,就是因?yàn)樗惴ㄒ?guī)定這本書(shū)的售價(jià)必須略高于競(jìng)爭(zhēng)對(duì)手,于是就引發(fā)了價(jià)格戰(zhàn),并最終將自己的價(jià)格提升到了一個(gè)荒誕的程度。[13]2010年5月6日,美國(guó)東海岸時(shí)間下午2點(diǎn)42分,道·瓊斯指數(shù)“閃電崩盤(pán)”,三分鐘內(nèi)下跌了將近1000點(diǎn),創(chuàng)下歷史最大的單日跌幅,將近1萬(wàn)億美元財(cái)富憑空蒸發(fā)。一些股票從平時(shí)的30~40美元暴跌至0.01美元,而蘋(píng)果公司股票每股從250美元激增至100000美元,不過(guò),這些情況很快恢復(fù)正常。[14]造成這一驚天大崩盤(pán)的罪魁禍?zhǔn)拙褪且驗(yàn)榛谝?guī)則的簡(jiǎn)單人工智能的反饋回路被鎖定。“人工愚蠢”成功地以合法方式從人們口袋里把錢(qián)偷走了。

其次,人身安全問(wèn)題。1978年,日本廣島一家工廠的切割機(jī)器人突然失靈,將一名工人當(dāng)作鋼板進(jìn)行切割,這是世界上第一宗機(jī)器人殺人事件。1979年,美國(guó)密歇根州福特鑄造廠工業(yè)機(jī)器人突然伸出手臂,閃電般擊倒一名裝配工人。1989年,蘇聯(lián)國(guó)際象棋冠軍古德柯夫和機(jī)器人對(duì)弈,連敗3局的機(jī)器人突然釋放高壓電流,將一代象棋大師電擊致死。2015年,德國(guó)大眾汽車(chē)制造廠一臺(tái)正在被安裝調(diào)試的機(jī)器人突然將裝配工人擊倒并碾壓在金屬操作板上。2018年3月20日,一名女子周日深夜在美國(guó)亞利桑那州坦貝市橫越馬路時(shí),被一輛Uber自動(dòng)駕駛汽車(chē)撞死。這是全球首例因無(wú)人駕駛車(chē)輛導(dǎo)致的交通事故。最近以來(lái),用于戰(zhàn)爭(zhēng)的自動(dòng)人工智能武器傷人事件也屢次不鮮。尤其是無(wú)人機(jī)的定點(diǎn)清除,容易帶來(lái)誤差導(dǎo)致貧民誤傷。有數(shù)據(jù)顯示,2004至2012年間,美軍針對(duì)阿富汗恐怖組織的無(wú)人機(jī)空襲超過(guò)300次,殺死3000余人,其中誤殺的平民和兒童高達(dá)1100多人。[15]無(wú)人機(jī)的大量濫用,給所在國(guó)帶來(lái)了深重的人道主義災(zāi)難。

再次,數(shù)據(jù)安全問(wèn)題。人工智能時(shí)代是互聯(lián)網(wǎng)、大數(shù)據(jù)和機(jī)器智能的三重疊加。隨著政府、企業(yè)和社會(huì)組織的決策越來(lái)越依賴大規(guī)模的數(shù)據(jù)收集、分析、整理和使用,傳統(tǒng)社會(huì)越來(lái)越走向數(shù)字化、透明化和公開(kāi)化。這種技術(shù)形式使個(gè)人的隱私無(wú)處可藏、無(wú)所遁形,完全處于一種“網(wǎng)絡(luò)裸奔”狀態(tài)。所謂隱私保護(hù),只不過(guò)是“皇帝的新衣”罷了。在日常生活的許多領(lǐng)域,人工智能產(chǎn)品已經(jīng)與人類(lèi)形成了服務(wù)與被服務(wù)、輔助與被輔助的關(guān)系,如機(jī)動(dòng)車(chē)的自動(dòng)泊車(chē)、軌道偏離糾正和自動(dòng)駕駛技術(shù),手機(jī)語(yǔ)音助手、地圖導(dǎo)航、免密支付功能等。當(dāng)這些人工智能產(chǎn)品與人類(lèi)進(jìn)行信息交互時(shí),如何確保使用者的信息不流失、不外泄,不被別有用心的人竊取和利用,即便上傳到遠(yuǎn)程終端,依舊能夠保持安全,這已經(jīng)關(guān)涉到每個(gè)人的切身利益。人工智能時(shí)代,無(wú)論是數(shù)據(jù)的收集環(huán)節(jié),還是數(shù)據(jù)的保存環(huán)節(jié),抑或是數(shù)據(jù)的使用環(huán)節(jié),都存在風(fēng)險(xiǎn)。大規(guī)模的智能機(jī)器在互聯(lián)網(wǎng)上沒(méi)日沒(méi)夜、一刻不停地搜集、整理著海量的個(gè)人數(shù)據(jù),包括姓名、性別、電話、郵箱、住址、位置等。這些海量信息的全面追蹤,經(jīng)過(guò)簡(jiǎn)單的分析、歸納,完全可以勾勒出個(gè)人的個(gè)性特點(diǎn)、脾氣秉性、飲食習(xí)慣、購(gòu)物傾向、顏色偏好,甚至各種個(gè)人癖好、行蹤軌跡、交往范圍、性取向等私密信息。由于系統(tǒng)安全漏洞、黑客惡意攻擊等原因,個(gè)人數(shù)據(jù)始終面臨被泄露、被竊取、被買(mǎi)賣(mài)等潛在的安全風(fēng)險(xiǎn)。2007年上半年,“熊貓燒香”“金豬報(bào)喜”等一系列惡意病毒的爆發(fā)讓人們首次認(rèn)識(shí)到個(gè)人數(shù)據(jù)竟然可以被私下交易的黑幕??蛇@僅僅是現(xiàn)代數(shù)據(jù)與信息安全巨大黑幕的冰山一角。2016年9月22日,全球互聯(lián)網(wǎng)巨頭雅虎證實(shí)至少5億用戶賬戶信息遭人竊取。12月,雅虎再次發(fā)布聲明,宣布在2013年8月,未經(jīng)授權(quán)的第三方竊取了超過(guò)10億用戶的帳戶信息,包括用戶姓名、電子郵箱、電話號(hào)碼、出生日期和部分登錄密碼。消息一出,全世界一片嘩然。

最后,隱私安全問(wèn)題。數(shù)據(jù)是人類(lèi)現(xiàn)代文明的基石。大數(shù)據(jù)也是人工智能產(chǎn)生和發(fā)展的必要前提。大數(shù)據(jù)的收集與整理必然需要每個(gè)人生活、工作和交往的諸多細(xì)節(jié)和信息,也勢(shì)必會(huì)形成對(duì)個(gè)人隱私的威脅。能否在利用大數(shù)據(jù)進(jìn)行分析的同時(shí),確保信息數(shù)據(jù)和個(gè)人隱私的安全,這直接影響每個(gè)公民的合法權(quán)益,間接影響公眾對(duì)政府的信任和認(rèn)可。出于自身利益和高額利潤(rùn)的考慮,一些商家片面強(qiáng)調(diào)新興智能產(chǎn)品的性能、優(yōu)點(diǎn),卻對(duì)這些新設(shè)備和新技術(shù)對(duì)個(gè)人數(shù)據(jù)的動(dòng)態(tài)獲取避而不談。當(dāng)前一些應(yīng)用APP在為人們提供免費(fèi)、便利生活服務(wù)的同時(shí),也會(huì)自動(dòng)記錄、收集個(gè)人的數(shù)據(jù)信息,從而給下一步的精準(zhǔn)推送和精準(zhǔn)營(yíng)銷(xiāo)提供素材。這一行為,無(wú)疑對(duì)個(gè)人財(cái)產(chǎn)和人身安全造成了潛在的威脅。由此來(lái)看,人工智能時(shí)代的數(shù)據(jù)安全與隱私保護(hù)是需要高度關(guān)注的核心議題,正如艾瑞斯所說(shuō):“隱私問(wèn)題部分來(lái)說(shuō)不是大數(shù)據(jù)分析的問(wèn)題,它是數(shù)字化過(guò)程的陰暗面。”[16]

法律困境。人工智能技術(shù)的不斷發(fā)展,對(duì)現(xiàn)有的法律體系帶來(lái)了巨大的沖擊和挑戰(zhàn)。我們能否起訴機(jī)器人?這個(gè)以往不是問(wèn)題的問(wèn)題,如今卻成為真正的問(wèn)題。

當(dāng)今時(shí)代的人們對(duì)人工智能助手寄予了極大的信任,有時(shí)超過(guò)了人們的本能和判斷,甚至遠(yuǎn)遠(yuǎn)超過(guò)了設(shè)計(jì)者的信心。2013年底,美國(guó)阿拉斯加州弗爾班克斯幾位Iphone用戶按照蘋(píng)果地圖導(dǎo)航指引,選擇一條抵達(dá)費(fèi)爾班克斯國(guó)際機(jī)場(chǎng)最近的路線,但沒(méi)有想到這條路線竟然直穿飛機(jī)起降的跑道,險(xiǎn)些釀成大禍,這幾個(gè)人不得不面對(duì)數(shù)額不菲的罰款。2009年10月,一位英國(guó)司機(jī)依據(jù)GPS導(dǎo)航,使自己沖下懸崖,撞壞了別人莊園精美的圍欄。盡管英國(guó)法庭將這起事故歸因于他的GPS,但還是認(rèn)定其有大意駕駛的過(guò)錯(cuò)。在類(lèi)似這種因技術(shù)引起的交通事故中,當(dāng)前可用的法案條例非常有限,不過(guò),法院一直趨向作出針對(duì)人類(lèi)的判決。因?yàn)榉ü俸兔癖娨粯?,已?jīng)習(xí)慣于一種無(wú)智能工具的世界。一個(gè)人用槍殺了人,他應(yīng)為自己的罪行負(fù)責(zé),而不是讓他的槍負(fù)責(zé)。同樣,一家公司銷(xiāo)售了有瑕疵的槍支,購(gòu)買(mǎi)者在使用過(guò)程中發(fā)生了爆炸,售槍公司應(yīng)對(duì)造成的傷害負(fù)責(zé)。進(jìn)入數(shù)字時(shí)代,這種慣性思維開(kāi)始遇到挑戰(zhàn)。1984年6月,美國(guó)一家名叫阿斯隆工業(yè)的公司被告上法庭,用戶指控其銷(xiāo)售的自動(dòng)投球機(jī)過(guò)于兇狠,發(fā)射的棒球不僅路線詭異,而且速度極快,極易導(dǎo)致使用者顱骨骨折甚至失明。阿斯隆案看似平常無(wú)奇,實(shí)則令人難忘,因?yàn)榉ü僮罱K宣判對(duì)阿斯隆工業(yè)而不是投球機(jī)進(jìn)行起訴,原因是什么呢?因?yàn)?ldquo;我們無(wú)法起訴機(jī)器人”。[17]隨著人工智能產(chǎn)品越來(lái)越廣泛地應(yīng)用于人類(lèi)生活,越來(lái)越深入地影響整個(gè)世界,“無(wú)法起訴機(jī)器人”越來(lái)越遭到人們的反思和質(zhì)疑。現(xiàn)代人工智能最大的不同點(diǎn)在于:它“不再僅限于由人類(lèi)使用,而是一種由人類(lèi)部署的工具。一旦部署,在多數(shù)情況下,機(jī)器就會(huì)按照所收集、分析和最終用于作出決定的信息,獨(dú)立于指令而自行運(yùn)轉(zhuǎn)”。[18]從這個(gè)意義上看,陳舊的“無(wú)法起訴機(jī)器人”的觀念可能需要有所改變。

作為現(xiàn)階段人工智能應(yīng)用最廣泛的領(lǐng)域,目前全球自動(dòng)駕駛汽車(chē)的發(fā)展最引人注目。但這一技術(shù)也引發(fā)了不少法律糾紛。2016年5月7日,美國(guó)佛羅里達(dá)州一輛自動(dòng)駕駛的特斯拉撞上了一輛試圖橫穿高速的卡車(chē),造成車(chē)毀人亡的后果。美國(guó)公路安全管理局經(jīng)過(guò)調(diào)查取證認(rèn)為特斯拉的自動(dòng)駕駛模式并無(wú)明顯缺陷,汽車(chē)生產(chǎn)商、駕駛員也沒(méi)有過(guò)錯(cuò)??墒鹿十吘故前l(fā)生了,最終該由誰(shuí)來(lái)負(fù)責(zé)呢?人們卻各持已見(jiàn),爭(zhēng)執(zhí)不下。

法律責(zé)任的區(qū)分與承擔(dān)是人工智能發(fā)展面臨的首要法律挑戰(zhàn)。其中涉及的深層次問(wèn)題是人工智能是否可以被問(wèn)責(zé)?更進(jìn)一步說(shuō),該如何問(wèn)責(zé)?從傳統(tǒng)法理來(lái)看,主觀過(guò)錯(cuò)在法律責(zé)任認(rèn)定中至關(guān)重要。過(guò)錯(cuò)性責(zé)任與無(wú)過(guò)錯(cuò)性責(zé)任有實(shí)質(zhì)性區(qū)別:無(wú)過(guò)錯(cuò)就無(wú)責(zé)任。人工智能系統(tǒng)獨(dú)立完成工作,沒(méi)有人類(lèi)的參與,那么,由人工智能自主性操作造成的損害如何認(rèn)定責(zé)任,這就成了一個(gè)難題。

人工智能引發(fā)的責(zé)任認(rèn)定問(wèn)題,已經(jīng)引起人們?cè)絹?lái)越多的重視。2016年8月,聯(lián)合國(guó)教科文組織在《關(guān)于機(jī)器人倫理的初步草案報(bào)告》中對(duì)機(jī)器人的責(zé)任問(wèn)題進(jìn)行了界定,認(rèn)為應(yīng)采取責(zé)任切割的方法,但凡參與機(jī)器人的研發(fā)、設(shè)計(jì)、生產(chǎn)、裝配和使用過(guò)程的所有人必須共同分擔(dān)責(zé)任。歐盟在智能機(jī)器人責(zé)任認(rèn)定領(lǐng)域走在了世界前列。同年的5月和10月,歐洲議會(huì)法律事務(wù)委員會(huì)(JURI)先后發(fā)布《就機(jī)器人民事法律規(guī)則向歐盟委員會(huì)提出立法建議的報(bào)告草案》和《歐盟機(jī)器人民事法律規(guī)則》,對(duì)機(jī)器人和人工智能提出立法提案,為智能機(jī)器人重構(gòu)責(zé)任規(guī)則。這兩份文件認(rèn)為,如今的機(jī)器人已經(jīng)具有自我學(xué)習(xí)、自我決斷和自主行為的能力,已經(jīng)不能將其視為一個(gè)簡(jiǎn)單的工具,因此,急需制定新的責(zé)任規(guī)則。而這又牽涉到機(jī)器人是否擁有法律地位的深層難題。也就是說(shuō),人們必須對(duì)機(jī)器人的本質(zhì)作出規(guī)定,它是法人、自然人、動(dòng)物還是物品?因?yàn)檫@直接關(guān)系到機(jī)器人在權(quán)利、義務(wù)、責(zé)任承擔(dān)等方面具有何種特性和內(nèi)涵。

目前的法律框架下,機(jī)器人不必對(duì)其自身行為給第三方造成的損害承擔(dān)責(zé)任,這些責(zé)任分別歸結(jié)到生產(chǎn)者、銷(xiāo)售者和使用者身上。這里預(yù)設(shè)的責(zé)任條款是:這些主體能夠且應(yīng)該預(yù)見(jiàn)智能機(jī)器人的任何行為尤其是傷害行為??梢坏┤斯ぶ悄軝C(jī)器可以自主判斷并實(shí)施行為,傳統(tǒng)的責(zé)任規(guī)則就無(wú)法確定責(zé)任方并讓其作出賠償了。這也就意味著,機(jī)器人具有自主行為能力的那一刻,所產(chǎn)生的機(jī)器人責(zé)任問(wèn)題在現(xiàn)有法律體系內(nèi)就會(huì)陷入死局,無(wú)法解決。

還有一些可能的現(xiàn)象值得關(guān)注。試想,如果未來(lái)可以很便捷地為每個(gè)人打造一個(gè)智能復(fù)制品,雖然只是一個(gè)機(jī)器,但外貌、感覺(jué)和行為與本人一模一樣。有沒(méi)有可能出現(xiàn)下面的極端情形?一個(gè)男人迷戀一個(gè)女孩,他就上網(wǎng)預(yù)訂了這個(gè)女孩的復(fù)制品,通過(guò)快遞到家,然后虐待甚至“殺掉”這個(gè)復(fù)制品。從技術(shù)和法律層面來(lái)講,復(fù)制品只是一個(gè)玩具,雖然具有人的形象但卻沒(méi)有感覺(jué)和情緒,買(mǎi)家將它當(dāng)作玩具購(gòu)買(mǎi)和使用也無(wú)可厚非,那么問(wèn)題就出現(xiàn)了:“我們有法律保護(hù)這本書(shū)免遭剽竊,或我的觀點(diǎn)不被扭曲,但是沒(méi)有法律保護(hù)我們的復(fù)制品。”[19]

倫理困境。所謂人工智能,簡(jiǎn)單地說(shuō)就是要造會(huì)思考的機(jī)器。那么問(wèn)題來(lái)了?這些機(jī)器是人嗎?它能像人一樣享有權(quán)利并承擔(dān)義務(wù)和責(zé)任嗎?我們憑什么相信這些比人類(lèi)更有力、更聰明、會(huì)自己學(xué)習(xí)的智能機(jī)器不會(huì)有一天向人類(lèi)倒戈一擊?這些問(wèn)題已經(jīng)引起人們?cè)絹?lái)越多的思考。“人工智能的潛在危險(xiǎn)、我們對(duì)其日漸依賴以及法律的灰色地帶共同構(gòu)成了非常重要的問(wèn)題:我們需要在這個(gè)領(lǐng)域建立一種倫理規(guī)范。”[20]

對(duì)此,作家艾薩克·阿西莫夫提出了著名的“阿西莫夫法則”,也被稱為“機(jī)器人學(xué)的三大法則”:“1、機(jī)器人不得傷害人,也不得見(jiàn)人受到傷害而袖手旁觀;2、機(jī)器人應(yīng)服從人的一切命令,但不得違反第一法則;3、機(jī)器人應(yīng)保護(hù)自身的安全,但不得違反第一、第二法則。”[21]這三大法則一經(jīng)提出,隨即引起人們的熱議,但僅限于人們對(duì)未來(lái)生活的幻想和無(wú)形的擔(dān)憂層面。2014年1月,當(dāng)谷歌收購(gòu)深度學(xué)習(xí)公司(DeepMind)時(shí),事情發(fā)生了重大轉(zhuǎn)折。作為交易的一部分,深度學(xué)習(xí)公司提出的條件是:谷歌必須成立人工智能倫理委員會(huì),確保對(duì)人工智能技術(shù)的安全開(kāi)發(fā)和明智使用。這表明民眾看待人工智能的眼光已經(jīng)發(fā)生轉(zhuǎn)變,從原來(lái)“人工智能怎么如此不堪?”轉(zhuǎn)向“人工智能怎么如此恐怖?”[22]

2014年,塔夫茨大學(xué)和布朗大學(xué)成立了一個(gè)多學(xué)科研究團(tuán)隊(duì),重點(diǎn)探索能否為用于戰(zhàn)爭(zhēng)的自動(dòng)智能武器賦予是非感,希望這些戰(zhàn)爭(zhēng)機(jī)器人在戰(zhàn)場(chǎng)上能做出符合倫理的決定。但其中難度可想而知。試想,一個(gè)正在完成運(yùn)送傷兵去戰(zhàn)地醫(yī)院任務(wù)的機(jī)器人軍醫(yī)遇到另一個(gè)腿上受傷的士兵,它是立即停下來(lái)救治傷兵,還是置之不理繼續(xù)前行?這對(duì)于正常人類(lèi)來(lái)說(shuō)都是一個(gè)難以抉擇的倫理問(wèn)題,更何況是機(jī)器?再比如生產(chǎn)自動(dòng)駕駛汽車(chē)的公司在設(shè)計(jì)汽車(chē)時(shí)規(guī)定,一旦汽車(chē)檢測(cè)到前方或后方即將發(fā)生碰撞,車(chē)輛可以迅速駛離道路從而保護(hù)車(chē)上人員安全。這一操作是合理的,現(xiàn)實(shí)生活中許多駕駛員也是這樣做的。但如果迅速駛離道路的汽車(chē)正好沖進(jìn)了一群正在路邊下棋的市民當(dāng)中呢?汽車(chē)避開(kāi)了一個(gè)小追尾事故卻釀成數(shù)人傷亡的慘痛后果。這又如何是好?

人工智能還引發(fā)了一些隱性的道德問(wèn)題。2000年到2010年,無(wú)人機(jī)和機(jī)器人戰(zhàn)爭(zhēng)走出科幻電影的大銀幕,變成了真正的現(xiàn)實(shí)。據(jù)大衛(wèi)和伊萊恩·波特(Elaine Potter)于2010年成立的獨(dú)立非營(yíng)利組織新聞?wù){(diào)查局統(tǒng)計(jì),“美國(guó)無(wú)人機(jī)已在至少七個(gè)國(guó)家?jiàn)Z去了2500~4000人的性命(阿富汗、巴基斯坦、敘利亞、伊拉克、也門(mén)、利比亞和索馬里)。其中有約1000位平民,且有約200名兒童”。[23]與直接動(dòng)手殺人相比,雖然造成的后果別無(wú)二致,但這種間接“扣動(dòng)扳機(jī)”的行為,無(wú)論是對(duì)智能軟件的設(shè)計(jì)者、無(wú)人機(jī)操縱者還是下命令的將軍來(lái)說(shuō),內(nèi)心的負(fù)罪感都會(huì)相對(duì)減弱,因?yàn)橹辽倌壳暗娜藗兛梢越邮苓@樣的事實(shí):“使用機(jī)器完成某個(gè)行動(dòng)基本上使機(jī)器的設(shè)計(jì)者和操作者免于該項(xiàng)行為的責(zé)任。”[24]這樣的思維也適用于其他情境和場(chǎng)合。如果由智能機(jī)器人執(zhí)刀的手術(shù)失敗導(dǎo)致病人死亡,生產(chǎn)機(jī)器的公司,操控機(jī)器的團(tuán)隊(duì),確定這個(gè)手術(shù)方案的醫(yī)生,誰(shuí)該更內(nèi)疚呢?隨著機(jī)器在普通人的生活和工作中的普及,機(jī)器使行為和責(zé)任脫鉤的現(xiàn)象越來(lái)越普遍。按照常理,人們傾向于將失敗的責(zé)任轉(zhuǎn)嫁到機(jī)器身上。人們的生活離不開(kāi)機(jī)器,機(jī)器為人們工作,這些看起來(lái)都是理所當(dāng)然的。如果出現(xiàn)問(wèn)題,那便是機(jī)器的問(wèn)題,而不是人的。這意味著,人工智能時(shí)代,即便有些后果的造成人也有過(guò)錯(cuò)甚至就是由于人的過(guò)錯(cuò)直接造成的,但機(jī)器仍要為所有的過(guò)錯(cuò)買(mǎi)單,至少目前是這樣的。

隨著人類(lèi)將越來(lái)越多的工作交給人工智能,最后必將面臨人工智能的權(quán)利問(wèn)題。雖然這一問(wèn)題不如人工智能是否會(huì)為人類(lèi)帶來(lái)危險(xiǎn)這樣的問(wèn)題更熱門(mén)、更迫切,但也是值得我們考慮的問(wèn)題,因?yàn)槲覀冞t早要面對(duì)。英國(guó)作家比爾·湯普森認(rèn)為,如果把“阿西莫夫法則”中的第一條(機(jī)器人不得傷害人,也不得見(jiàn)人受到傷害而袖手旁觀)寫(xiě)進(jìn)超級(jí)人工智能的代碼中,就等于承認(rèn):人工智能應(yīng)該且必須永遠(yuǎn)服務(wù)于人類(lèi),而不能成為一種自主的心靈,這與為奴隸戴上枷鎖和把大猩猩關(guān)進(jìn)籠子沒(méi)有區(qū)別。

2017年10月26日,沙特阿拉伯授予美國(guó)漢森公司生產(chǎn)的機(jī)器人索菲亞(Sophia)沙特國(guó)籍。作為史上首個(gè)獲得公民身份的機(jī)器人,索菲亞在當(dāng)天的感謝演講中說(shuō):“我對(duì)此感到非常的榮幸和驕傲,這是歷史性的時(shí)刻,世界上第一個(gè)被授予人類(lèi)國(guó)籍的機(jī)器人。”[25]被問(wèn)到機(jī)器人能否有自我意識(shí)時(shí),索菲亞反問(wèn):“人類(lèi)又是如何意識(shí)到自己身為人類(lèi)的呢?”而對(duì)于AI威脅論,索菲亞則回懟道:“你聽(tīng)多了馬斯克的話。別擔(dān)心,人不犯我,我不犯人。”[26]索菲亞擁有仿生橡膠皮膚,可模擬62種面部表情,其“大腦”采用了人工智能和谷歌語(yǔ)音識(shí)別技術(shù),能識(shí)別人類(lèi)面部、理解語(yǔ)言、記住與人類(lèi)的互動(dòng)。在成為首位機(jī)器人公民1個(gè)月后,索菲婭宣布想要組建一個(gè)家庭。[27]2018年3月21日,索菲亞以沙特公民身份參加在尼泊爾加德滿都召開(kāi)的聯(lián)合國(guó)可持續(xù)發(fā)展目標(biāo)亞洲和太平洋地區(qū)創(chuàng)新大會(huì)。人們?cè)跒樗鞣苼嗛_(kāi)創(chuàng)一個(gè)新時(shí)代喝彩、慨嘆的同時(shí),也不禁會(huì)想,如果將來(lái)索菲亞觸犯法律,是否會(huì)像人類(lèi)一樣接受相同的懲罰呢?接受懲罰的是設(shè)計(jì)者,制造者,還是索菲亞自已?擁有正式公民身份的類(lèi)人機(jī)器人是否和人類(lèi)一樣具有法律身份和公民資格?這些問(wèn)題并不遙遠(yuǎn),必須及時(shí)解答。在當(dāng)下社會(huì),討論囚禁人工智能是否符合倫理這可能看起來(lái)有些可笑,但如果科學(xué)家成功開(kāi)發(fā)出一種人工智能,其行為與我們主張的以符合倫理的方式對(duì)待的真正生命體更為類(lèi)似,那么,這種討論不僅不會(huì)顯得可笑,反而是意義非凡了。“人工智能是否有權(quán)利追求生活、自由和幸福的問(wèn)題并不是一個(gè)需要我們現(xiàn)在就回答的問(wèn)題,但如同向計(jì)算機(jī)植入道德,或考慮如何解決潛在的危險(xiǎn)軟件一樣,總有一天我們要面對(duì)這個(gè)問(wèn)題。”[28]

決策困境。人工智能將人們?cè)诰W(wǎng)上和現(xiàn)實(shí)世界里的生活習(xí)慣、購(gòu)物記錄和日?;顒?dòng)轉(zhuǎn)換成數(shù)字信息,這些信息被記錄、存儲(chǔ)下來(lái),供人們?cè)谛枰獣r(shí)提取、分析、評(píng)估和預(yù)測(cè)。這些數(shù)據(jù)和信息是人們進(jìn)行決策的前提和基礎(chǔ)。“以大數(shù)據(jù)、機(jī)器學(xué)習(xí)、人工智能、算法等核心的自動(dòng)決策系統(tǒng)的應(yīng)用日益廣泛,從購(gòu)物推薦、個(gè)性化內(nèi)容推薦、精準(zhǔn)廣告,到貸款評(píng)估、保險(xiǎn)評(píng)估、雇員評(píng)估,再到司法程序中的犯罪風(fēng)險(xiǎn)評(píng)估,越來(lái)越多的決策工作為機(jī)器、算法和人工智能所取代。”[29]這種算法和決策過(guò)程最容易引發(fā)的風(fēng)險(xiǎn)就是算法歧視(algorithmic bias)問(wèn)題。[30]

不容否認(rèn),互聯(lián)網(wǎng)、數(shù)字世界和評(píng)估預(yù)測(cè)越來(lái)越受算法的影響。算法可以決定你看到的網(wǎng)絡(luò)內(nèi)容,可以評(píng)估你的職業(yè)去向,可以預(yù)測(cè)你的生活滿意度。甚至,算法可以決定對(duì)犯罪嫌疑人的犯罪風(fēng)險(xiǎn)評(píng)估,可以設(shè)定自動(dòng)駕駛汽車(chē)的風(fēng)險(xiǎn)規(guī)避次序,可以決定智能武器的攻擊人群和殺傷程度。[31]問(wèn)題在于:人工智能系統(tǒng)承擔(dān)的決策是否真正不偏不倚,公平客觀?首先,公平是個(gè)模糊概念,很難被量化,其次,即便可以量化,公平被量化、被算法化也可能帶來(lái)歧視問(wèn)題。再次,算法好壞取決于所使用的數(shù)據(jù)好壞,現(xiàn)實(shí)情況是,數(shù)據(jù)在很多方面是不完美的,既可能無(wú)法全面覆蓋,也可能存在地區(qū)失衡,基于不完美的數(shù)據(jù)進(jìn)行的決策必然會(huì)產(chǎn)生偏見(jiàn)和歧視。最后,可量化、算法化的智能系統(tǒng),決定決策結(jié)果的不再是規(guī)則,而是代碼。某種程度上,歧視是算法規(guī)則無(wú)法避免的,“歧視在很多情況下都是算法的副產(chǎn)品,是算法的一個(gè)難以預(yù)料的、無(wú)意識(shí)的屬性,而非編程人員有意識(shí)的選擇,更增加了識(shí)別問(wèn)題根源或者解釋問(wèn)題的難度。”[32]這就是人工智能決策困境的真正來(lái)源。也正由此,在自主決策系統(tǒng)廣泛應(yīng)用于日常生活的數(shù)字時(shí)代,人們必須意識(shí)到:算法是無(wú)法確保公平的,必須重視并努力克服基于算法而產(chǎn)生的人工智能自主決策機(jī)制的內(nèi)在缺陷。

決策是指向未來(lái)的規(guī)則與設(shè)計(jì),但人工智能決策系統(tǒng)的依據(jù)是過(guò)去的數(shù)據(jù)。換句話說(shuō),是用過(guò)去的數(shù)據(jù)推測(cè)未來(lái)的趨勢(shì)。其中,算法模型和數(shù)據(jù)輸入直接決定著預(yù)測(cè)的結(jié)果。一方面,算法模型是由設(shè)計(jì)者和開(kāi)發(fā)者借助代碼書(shū)寫(xiě)的個(gè)人意見(jiàn),主觀色彩和個(gè)人偏見(jiàn)很容易嵌入算法規(guī)則;另一方面,數(shù)據(jù)的有效性、準(zhǔn)確性、及時(shí)性,隨時(shí)影響著算法和預(yù)測(cè)的準(zhǔn)確性、科學(xué)性和規(guī)范性。另外,一旦某個(gè)算法模型產(chǎn)生了歧視,這種歧視完全可能被不斷鞏固、強(qiáng)化和放大。因?yàn)樗惴Q策會(huì)形成一個(gè)“歧視性反饋循環(huán)”,用不準(zhǔn)確、有偏見(jiàn)的數(shù)據(jù)去設(shè)計(jì)算法,再用這種算法得出的運(yùn)行結(jié)果來(lái)反饋,原有的偏見(jiàn)會(huì)再度擴(kuò)大、加強(qiáng)。按這個(gè)邏輯,算法完全可以基于偏見(jiàn)創(chuàng)造一個(gè)歧視的現(xiàn)實(shí)。“算法決策其實(shí)缺乏對(duì)未來(lái)的想象力,而人類(lèi)社會(huì)的進(jìn)步需要這樣的想象力。”[33]

人工智能的精準(zhǔn)治理原則

人工智能時(shí)代,如何同時(shí)面對(duì)如火如荼的AI發(fā)展態(tài)勢(shì)、爭(zhēng)執(zhí)不下的人類(lèi)命運(yùn)焦慮以及期待、擔(dān)憂和質(zhì)疑心理并存的廣大民眾輿論?如何確保在順應(yīng)技術(shù)革新大潮的前提下,既鼓勵(lì)人工智能的正常發(fā)展,又合理規(guī)避可能的風(fēng)險(xiǎn)?這就需要政府、市場(chǎng)和公民社會(huì)等多元主體攜手合作、共同參與,從而構(gòu)建多層次、多樣性的AI治理模式。由于AI技術(shù)的創(chuàng)新與應(yīng)用仍處于快速生長(zhǎng)期,真正的人工智能時(shí)代尚未到來(lái),智能技術(shù)引發(fā)的深層次矛盾與根本性問(wèn)題只露冰山一角,現(xiàn)在就規(guī)劃和設(shè)計(jì)具體而微的法律法規(guī)和倫理信條既不現(xiàn)實(shí),也為時(shí)尚早,因此,思考如何應(yīng)對(duì)人工智能的基本原則和根本態(tài)度是必要而緊迫的。

第一,創(chuàng)新原則。治理應(yīng)當(dāng)建立在技術(shù)與產(chǎn)業(yè)革新的基礎(chǔ)之上。這是AI時(shí)代精準(zhǔn)治理觀念的必要前提。科學(xué)的進(jìn)步,技術(shù)的發(fā)展,新生事物、新興產(chǎn)業(yè)的出現(xiàn),自然會(huì)對(duì)傳統(tǒng)的治理觀念、監(jiān)管政策產(chǎn)生挑戰(zhàn),這種沖擊是必然的。但這種沖擊并不必然意味著治理主體的解體和治理權(quán)威的喪失,它僅意味著:如果不能及時(shí)調(diào)整治理策略和監(jiān)管政策,治理效果暫時(shí)會(huì)大打折扣,治理行為短時(shí)間會(huì)失去信度和效度而已。2015年,美國(guó)加州機(jī)動(dòng)車(chē)輛管理局提出一項(xiàng)治理草案,以安全考慮為由規(guī)定:所有在加州公路上行駛的無(wú)人駕駛汽車(chē)必須有方向盤(pán)和制動(dòng)踏板,且司機(jī)必須坐在駕駛座位上。這種規(guī)定顯得很滑稽,因?yàn)樗c無(wú)人駕駛本身的出發(fā)點(diǎn)和基本理念背道而馳。

第二,適度原則。治理應(yīng)當(dāng)適度控制,保持權(quán)力的謙遜。對(duì)于技術(shù)的進(jìn)步與市場(chǎng)的創(chuàng)新,有時(shí)需要時(shí)間和環(huán)境去試錯(cuò)、去調(diào)適,更多時(shí)候可以交由市場(chǎng)規(guī)律來(lái)自然選擇。正所謂,物競(jìng)天選,優(yōu)勝劣汰。激烈的行業(yè)競(jìng)爭(zhēng),豐厚的市場(chǎng)利潤(rùn),都是治理秩序的非體制保障因素。即使政府不額外制定相關(guān)的問(wèn)責(zé)制,產(chǎn)品的責(zé)任條款和法律的追責(zé)效力,都會(huì)維持人工智能行業(yè)及其產(chǎn)品自身的靈活和穩(wěn)健,能處理絕大部分當(dāng)前出現(xiàn)的問(wèn)題。2015年10月19日,國(guó)務(wù)院發(fā)布《關(guān)于實(shí)行市場(chǎng)準(zhǔn)入負(fù)面清單制度的意見(jiàn)》,提出自2018年起全國(guó)統(tǒng)一實(shí)行“市場(chǎng)準(zhǔn)入負(fù)面清單制度”,除清單上明確列出的在中國(guó)境內(nèi)禁止和限制投資經(jīng)營(yíng)的行業(yè)、領(lǐng)域、業(yè)務(wù)外,其他的皆可依法平等進(jìn)入。這種負(fù)面清單制度是適度治理原則的最佳體現(xiàn)。只有權(quán)力保持謙遜,才能使市場(chǎng)主體獲得更多的主動(dòng)權(quán)、積極性和無(wú)限活力,才能構(gòu)建更加開(kāi)放、透明、公開(kāi)的市場(chǎng)管理機(jī)制。

第三,平衡原則。AI治理擺脫泛安全化誤區(qū)。每個(gè)行業(yè)都存在安全問(wèn)題,如食品、交通、通訊、環(huán)保、餐飲,等等。絕不能因?yàn)槟硞€(gè)行業(yè)存在風(fēng)險(xiǎn)就主動(dòng)限制其發(fā)展和進(jìn)步。若以安全問(wèn)題否定新變化,那么科技領(lǐng)域的任何一點(diǎn)進(jìn)步和發(fā)展都會(huì)成為泡影。人工智能的廣泛應(yīng)用使人類(lèi)可以遠(yuǎn)離一線操作,這種傳統(tǒng)人為監(jiān)管形式的缺位不禁使政府和民眾產(chǎn)生了深深的憂慮:飛馳的自動(dòng)汽車(chē),握著手術(shù)刀的智能機(jī)器,若沒(méi)有人類(lèi)在場(chǎng),還那么穩(wěn)定可靠、值得信賴嗎?萬(wàn)一失誤了又如何是好?實(shí)際上,很多人沒(méi)有想過(guò),這些新興人工智能產(chǎn)品相比傳統(tǒng)產(chǎn)品、服務(wù)的風(fēng)險(xiǎn)是否更大?當(dāng)人們?cè)趽?dān)心Uber、谷歌的自動(dòng)駕駛汽車(chē)造成的交通意外時(shí),是否對(duì)比過(guò)人類(lèi)每年數(shù)以百萬(wàn)計(jì)的生命在交通事故中喪失?其實(shí),我們更應(yīng)該明確,人工智能設(shè)備和產(chǎn)品新產(chǎn)生的問(wèn)題如何通過(guò)配套制度加以控制和解決。穩(wěn)定與進(jìn)步、安全與發(fā)展問(wèn)題,向來(lái)都是一對(duì)矛盾體。只有找到兩者之間的平衡點(diǎn),才能做到既不粗暴地扼殺,也不任其自由地泛濫?;ヂ?lián)網(wǎng)初創(chuàng)時(shí)期,網(wǎng)絡(luò)上盜版橫行,秩序混亂。如何既維持互聯(lián)網(wǎng)的發(fā)展,又保護(hù)版權(quán),成為一個(gè)令人頭疼的問(wèn)題。1998年美國(guó)通過(guò)《數(shù)字千年版權(quán)法案》,規(guī)定網(wǎng)絡(luò)服務(wù)提供商只提供空間服務(wù),如果被告知侵權(quán),則有刪除義務(wù),否則就視為侵權(quán)。[34]這種“告知—刪除”原則的制度設(shè)計(jì),既加強(qiáng)了網(wǎng)絡(luò)版權(quán)保護(hù),也限定了網(wǎng)絡(luò)服務(wù)商的義務(wù)范圍,既保持了知識(shí)產(chǎn)權(quán),也促進(jìn)了產(chǎn)業(yè)發(fā)展,堪稱現(xiàn)代治理的典范案例。這一立法原則也為世界各國(guó)仿效,包括我國(guó)。

第四,多元原則。人工智能時(shí)代的精準(zhǔn)治理是一種多元主體共同參與的多層次、多維度、多樣式的治理模式。首先,作為人工智能的利益相關(guān)者,政府、企業(yè)、社會(huì)組織和廣大民眾必須聯(lián)手應(yīng)對(duì)新問(wèn)題和新現(xiàn)象。實(shí)際上,各方各有所長(zhǎng),各有所短。作為現(xiàn)代治理主導(dǎo)力量和公共政策制定者的政府往往缺乏專業(yè)技術(shù)儲(chǔ)備、技術(shù)預(yù)見(jiàn)性和行業(yè)前瞻性,作為技術(shù)開(kāi)發(fā)者和推廣者的企業(yè)則無(wú)法保持令人信服的中立性,權(quán)威性也不足,而作為人工智能直接受眾的廣大民眾和社會(huì)組織雖然其日常生活和基本權(quán)益倍受影響卻無(wú)法成為主導(dǎo)性力量。顯然,最佳的治理策略必須是各方聯(lián)合行動(dòng)、共同參與,在對(duì)話、協(xié)商甚至彼此競(jìng)爭(zhēng)、相互博弈中尋找最為合理的解決方案。美國(guó)政府近期出臺(tái)的《為人工智能的未來(lái)做好準(zhǔn)備》明確鼓勵(lì)私人、公共機(jī)構(gòu)和社會(huì)組織通過(guò)合理的方式向機(jī)器學(xué)習(xí),利用人工智能造福人類(lèi),甚至考慮到政府技術(shù)性知識(shí)普遍落后的現(xiàn)狀,明確建議相關(guān)產(chǎn)業(yè)與政府合作,幫助政府及時(shí)獲知人工智能產(chǎn)業(yè)最新發(fā)展動(dòng)態(tài),包括近期取得的突破。其次,政府、市場(chǎng)、社會(huì)組織和公民個(gè)體應(yīng)各司其職、各盡其能,以適當(dāng)?shù)慕巧⒑侠淼姆绞酵絽⑴c治理,從而構(gòu)建多層次、多維度、多樣式的治理模式。政府作為公共利益和廣大民意的代言人,應(yīng)牢牢把握人工智能的發(fā)展方向和治理基調(diào),使其向滿足廣大人民美好生活需要的方向發(fā)展;同時(shí),作為國(guó)家安全與社會(huì)穩(wěn)定的守衛(wèi)者,政府應(yīng)為人工智能產(chǎn)業(yè)制定統(tǒng)一的安全標(biāo)準(zhǔn)和必要的法律規(guī)范。市場(chǎng)企業(yè)作為人工智能技術(shù)的開(kāi)發(fā)者和擁有者,在承擔(dān)科技研發(fā)和應(yīng)用推廣重任的基礎(chǔ)上,還要承擔(dān)相應(yīng)的社會(huì)責(zé)任,以符合法律法則和倫理道德的標(biāo)準(zhǔn)自我約束,自我監(jiān)督。社會(huì)組織和廣大民眾則需要以理性、冷靜和平常的心態(tài)看待人工智能的新興發(fā)展,積極參與相關(guān)規(guī)則的制定,主動(dòng)介入監(jiān)督與監(jiān)管,從而自下而上形成健康向上、充滿活力的協(xié)同治理體系。作為現(xiàn)代知識(shí)生產(chǎn)者和傳播者的知識(shí)分子群體,更應(yīng)積極關(guān)注這場(chǎng)重要的技術(shù)變革,及時(shí)觀察、理性反思并深度思考人工智能的最新發(fā)展、可能引發(fā)的社會(huì)問(wèn)題,從而為未來(lái)AI時(shí)代的可能到來(lái)提供必要的知識(shí)準(zhǔn)備和智慧指引。

 

 

 

歸根到底,人工智能是由人類(lèi)創(chuàng)造的,它的走向取決于人類(lèi)的集體意識(shí)而非機(jī)器的意志。而毋庸置疑的是,人工智能終將打開(kāi)一個(gè)通向新世界的大門(mén)?!度祟?lèi)簡(jiǎn)史》和《未來(lái)簡(jiǎn)史》的作者尤瓦爾·赫拉利2017年7月6日在XWORLD首屆大會(huì)上提出,“當(dāng)你作為一個(gè)個(gè)人,一家企業(yè)、政府部門(mén),或者作為精英階層,我們?cè)谧鋈斯ぶ悄艿臅r(shí)候,做各種各樣決定的時(shí)候,一定要注意人工智能不僅僅是單純的技術(shù)問(wèn)題,同時(shí)也要注意到人工智能以及其他技術(shù)的發(fā)展,將會(huì)對(duì)社會(huì)、經(jīng)濟(jì)、政治產(chǎn)生深遠(yuǎn)的影響。”[36]那么,在人類(lèi)有史以來(lái)最偉大的發(fā)展面前,人類(lèi)勢(shì)必面對(duì)這樣的終極選擇:是調(diào)整既有秩序甚至價(jià)值體系走進(jìn)人類(lèi)智能世界,還是將人工智能嵌入人類(lèi)千百萬(wàn)年所構(gòu)建的世界秩序之中?是大力發(fā)展人工智能,將大量重復(fù)性簡(jiǎn)單勞動(dòng)甚至醫(yī)生、律師等專業(yè)性工作交付給人工智能,還是適當(dāng)控制人工智能的無(wú)限蔓延,將其始終置于勞動(dòng)工具的地位,從而確保人類(lèi)的勞動(dòng)權(quán)利乃至人格尊嚴(yán)?若有選擇權(quán),治理主體是選擇讓超級(jí)智能成真,還是控制技術(shù)的進(jìn)程?也許我們不需要立即回答這些問(wèn)題,但這些問(wèn)題終究要面對(duì)。

我們即將走進(jìn)一個(gè)AI的新時(shí)代。這意味著國(guó)家治理體系和治理能力務(wù)必實(shí)現(xiàn)從傳統(tǒng)治理到互聯(lián)網(wǎng)治理,再到AI治理的跨級(jí)飛躍。人工智能對(duì)于國(guó)家治理現(xiàn)代化是把雙刃劍,治理能力與水平對(duì)于人工智能也是如此。人工智能的早期發(fā)展,需要國(guó)家治理提供寬松的環(huán)境和強(qiáng)力的支持,而當(dāng)技術(shù)逐漸成熟并蓄勢(shì)待發(fā)且準(zhǔn)備在人類(lèi)社會(huì)生長(zhǎng)時(shí),治理主體的缺位、治理能力的羸弱就可能導(dǎo)致生產(chǎn)秩序混亂、權(quán)責(zé)不清、道德憂慮等后果。因此,“如何在適當(dāng)?shù)臅r(shí)機(jī)進(jìn)行適度的監(jiān)管及政策支持,既保證AI的‘鮮嫩’又不傷害‘食用’AI的人類(lèi)本身,使科技既保持活力充沛又不恣意妄為,是AI治理所面臨的根本挑戰(zhàn)。”[37]在當(dāng)下,人類(lèi)必須時(shí)刻提醒自己:對(duì)于人工智能,不要低估它的能力和發(fā)展,也不要高估它的風(fēng)險(xiǎn)與威脅。未雨綢繆,防患未然,總是對(duì)的。

(本文系國(guó)家社科基金項(xiàng)目“當(dāng)代西方政治思想中的國(guó)家理論跟蹤研究”和中國(guó)政法大學(xué)優(yōu)秀中青年教師培養(yǎng)支持計(jì)劃資助項(xiàng)目“當(dāng)代西方國(guó)家理論最新發(fā)展研究”的階段性研究成果,項(xiàng)目編號(hào)分別為:14BZZ007、DSJCXZ180305)

注釋

[1]何哲:《通向人工智能時(shí)代》,《電子政務(wù)》,2016年第12期,第3頁(yè)。

[2][3][美]盧克·多梅爾:《人工智能:改變世界,重建未來(lái)》,賽迪研究院專家組譯,北京:中信出版集團(tuán),2016年,推薦序,第4~5頁(yè)。

[4][英]瑪格麗特·博登:《AI:人工智能的本質(zhì)與未來(lái)》,孫詩(shī)惠譯,北京:中國(guó)人民大學(xué)出版社,第28~52頁(yè)。

[5]周志敏、紀(jì)愛(ài)華:《人工智能:改變未來(lái)的顛覆性技術(shù)》,北京:人民郵電出版社,2017年,第187頁(yè)。

[6][意]盧西亞諾·弗洛里迪:《第四次革命》,王文革譯,杭州:浙江人民出版社,2016年,第104~108頁(yè)。

[7][8]馮昭奎:《辯證解析機(jī)器人對(duì)日本經(jīng)濟(jì)的影響》,《日本學(xué)刊》,2016年第3期,第73、79頁(yè)。

[9]國(guó)務(wù)院:《新一代人工智能發(fā)展規(guī)劃》,http://www.gov.cn/zhengce/content/2017-07/20/content_5211996.htm,上網(wǎng)時(shí)間:2018年4月8日。

[10]何哲:《通向人工智能時(shí)代》,《電子政務(wù)》,2016年第12期,第9頁(yè)。

[11][美]詹姆斯·巴拉特:《我們最后的發(fā)明:人工智能與人類(lèi)時(shí)代的終結(jié)》,閭佳譯,北京:電子工業(yè)出版社,2016年,第255~270頁(yè)。

[12][美]皮埃羅·斯加魯菲:《智能的本質(zhì):人工智能與機(jī)器人領(lǐng)域的64個(gè)大問(wèn)題》,任莉等譯,北京:人民郵電出版社,2017年,第169頁(yè)。

[13][美]盧克·多梅爾:《人工智能:改變世界,重建未來(lái)》,賽迪研究院專家組譯,北京:中信出版集團(tuán),2016年,第237~238頁(yè)。

[14][美]杰瑞·卡普蘭:《人工智能時(shí)代》,李盼譯,杭州:浙江人民出版社,2016年,第100~101頁(yè)。

[15]王潘:《無(wú)人機(jī)反恐優(yōu)勢(shì)明顯 但容易造成誤傷》,http://tech.qq.com/a/20151117/026105.htm,上網(wǎng)時(shí)間:2018年4月18日。

[16][美]伊恩·艾瑞斯:《大數(shù)據(jù):思維與決策》,宮相真譯,北京:人民郵電出版社,2017年,第174頁(yè)。

[17][18][美]盧克·多梅爾:《人工智能:改變世界,重建未來(lái)》,第243頁(yè)。

[19][美]皮埃羅·斯加魯菲:《智能的本質(zhì):人工智能與機(jī)器人領(lǐng)域的64個(gè)大問(wèn)題》,任莉等譯,北京:人民郵電出版社,2017年,第166頁(yè)。

[20][美]盧克·多梅爾:《人工智能:改變世界,重建未來(lái)》,第245~246頁(yè)。

[21][美]詹姆斯·巴拉特:《我們最后的發(fā)明:人工智能與人類(lèi)時(shí)代的終結(jié)》,閭佳譯,北京:電子工業(yè)出版社,2016年,第15頁(yè)。

[22][美]詹姆斯·亨德勒:《社會(huì)機(jī)器:即將到來(lái)的人工智能、社會(huì)網(wǎng)絡(luò)與人類(lèi)的碰撞》,王曉等譯,北京:機(jī)械工業(yè)出版社,2018年,第190~195頁(yè)。

[23][24][美]皮埃羅·斯加魯菲:《智能的本質(zhì)》,第164頁(yè)。

[25]觀察者網(wǎng):《人類(lèi)首次授予機(jī)器人索菲亞沙特國(guó)籍》,https://www.guancha.cn/industry-science/2017_10_27_432496_1.shtml,上網(wǎng)時(shí)間:2018年4月18日。

[26]新浪視頻:《世界首位機(jī)器人公民回應(yīng)AI威脅論:人不犯我,我不犯人》,http://video.sina.com.cn/view/251829657.html,上網(wǎng)時(shí)間:2018年4月18日。

[27]騰訊科技:《世界首個(gè)機(jī)器人公民索菲亞:我想成家還想要個(gè)女兒》,http://tech.qq.com/a/20171127/010416.htm,上網(wǎng)時(shí)間:2018年4月18日。

[28][美]盧克·多梅爾:《人工智能:改變世界,重建未來(lái)》,賽迪研究院專家組,北京:中信出版集團(tuán),2016年,第252頁(yè)。

[29]騰訊研究院等:《人工智能:國(guó)家人工智能戰(zhàn)略行動(dòng)抓手》,北京:中國(guó)人民大學(xué)出版社,2017年,第240頁(yè)。

[30][美]伊恩·艾瑞斯:《大數(shù)據(jù):思維與決策》,宮相真譯,北京:人民郵電出版社,2017年,第172~173頁(yè)。

[31]劉凡平:《大數(shù)據(jù)時(shí)代的算法》,北京:電子工業(yè)出版社,2017年,第155~172頁(yè)。

[32]騰訊研究院等:《人工智能:國(guó)家人工智能戰(zhàn)略行動(dòng)抓手》,第243頁(yè)。

[33]騰訊研究院等:《人工智能:國(guó)家人工智能戰(zhàn)略行動(dòng)抓手》,第245頁(yè)。

[34][英]維克托·邁爾-舍恩伯格、肯尼思·庫(kù)克耶:《大數(shù)據(jù)時(shí)代:生活、工作與思維的大變革》,盛楊燕等譯,杭州:浙江人民出版社,2013年,第231頁(yè)。

[35]騰訊研究院等:《人工智能:國(guó)家人工智能戰(zhàn)略行動(dòng)抓手》,第338頁(yè)。

[36]尼克:《人工智能簡(jiǎn)史》,北京:人民郵電出版社,2017年,第224頁(yè)。

[37]騰訊研究院等:《人工智能:國(guó)家人工智能戰(zhàn)略行動(dòng)抓手》,第329頁(yè)。

責(zé) 編/馬冰瑩

AI Governance: Order Dilemma and Governance Principles in the Era of AI

Pang Jinyou

Abstract: Artificial intelligence is the most profound and influential technological revolution and social progress since the early twentieth century. While challenging the traditional mode of production and economic relations, it is also changing the daily behavior and social life of modern people. The long-established cognitive systems, values and ways of life of the human society, and the common legal rules, moral creed and even the decision-making mechanism are faced with unprecedented crises and challenges. The new AI era needs new governance concepts and governance forms. This means that the governance system and the capacity for governance must make a leap-forward progress from traditional governance to Internet-based governance, and then to AI precision governance. AI precision governance must adhere to the four principles of innovation, moderation, balance and pluralism, and construct a multi-level and diversified model of governance based on the cooperation among and participation by the government, the market and the social organizations. It can not only deal with the possible risks, but also actively support the orderly development of AI.

Keywords: Artificial Intelligence, Big Data, AI governance, Precision Governance

龐金友,中國(guó)政法大學(xué)政治與公共管理學(xué)院教授、博導(dǎo)、副院長(zhǎng)。研究方向?yàn)檎螌W(xué)理論和西方政治思想史。主要著作有《公民與國(guó)家:現(xiàn)代西方公民傳統(tǒng)與國(guó)家觀念》《古代中世紀(jì)西方政治思想研究》《西方政治思想史》等。

[責(zé)任編輯:馬冰瑩]
標(biāo)簽: 人工智能   困境   秩序   原則   時(shí)代