www.av视频在线观看,亚洲免费影院第一第二,一级毛片在现观看,久久精品片色免费看网站,日本大香伊蕉在人线国产,奇米精品一区二区三区在线观看,亚洲网站一区

網(wǎng)站首頁 | 網(wǎng)站地圖

大國新村
首頁 > 理論前沿 > 深度原創(chuàng) > 正文

人工智能時代的風(fēng)險隱憂和制度防范

【摘要】人工智能技術(shù)在工業(yè)和商業(yè)領(lǐng)域蓬勃興起,為現(xiàn)代社會注入新動能。與此同時,人工智能技術(shù)也存在倫理責(zé)任主體缺失、社會失業(yè)人數(shù)增加、個人信息和隱私泄露、智能技術(shù)失控等問題。對此,應(yīng)建立人工智能技術(shù)倫理規(guī)制,加強算法權(quán)力法律規(guī)約,完善專業(yè)人才隊伍建設(shè)和相關(guān)業(yè)務(wù)培訓(xùn),對確保人工智能技術(shù)符合人類共同利益和普遍價值的發(fā)展方向尤為必要。

【關(guān)鍵詞】人工智能時代 風(fēng)險隱憂 制度防范 【中圖分類號】D035 【文獻(xiàn)標(biāo)識碼】A

隨著大數(shù)據(jù)、云計算和神經(jīng)網(wǎng)絡(luò)等技術(shù)快速發(fā)展,人工智能技術(shù)已經(jīng)滲透到社會各個角落,對人們生產(chǎn)、生活和思維方式產(chǎn)生了深遠(yuǎn)影響。以網(wǎng)絡(luò)神經(jīng)元為支撐的深度學(xué)習(xí)系統(tǒng)正深入各個行業(yè)和場景,為經(jīng)濟社會發(fā)展注入強大動力。同時也要看到,一旦人工智能技術(shù)達(dá)到超級模仿、無限放大的程度,將會危及人類切身利益,并引發(fā)一系列問題,如失業(yè)問題、道德風(fēng)險、社會倫理問題等。全面認(rèn)識人工智能的潛在風(fēng)險,深入分析人工智能技術(shù)與社會風(fēng)險的內(nèi)在聯(lián)系,提出規(guī)范人工智能技術(shù)的有效舉措,對維護(hù)社會根本利益和人民長遠(yuǎn)利益具有重要意義。

人工智能時代的到來

長期以來,人類對人工智能發(fā)展和前景都存有極大的好奇和憧憬,并試圖通過各種不同機器程序來模擬人類思維,希望將人類從繁重的體力勞動中解放出來。2016年3月,AlphaGo和韓國棋王李世石在韓國首爾進(jìn)行一場比賽,AlphaGo在大數(shù)據(jù)和深度學(xué)習(xí)技術(shù)的支持下,憑借出奇制勝的算法和謀略,以總比分4比1擊敗了李世石,讓各方大跌眼鏡。從AlphaGo身上可以看到,新一代人工智能已經(jīng)基本具備人類智能,其憑借強大的學(xué)習(xí)能力和算法技術(shù)支持,在不遠(yuǎn)的將來完全有可能超越人類,并對社會生產(chǎn)生活各個方面產(chǎn)生深刻影響,這在人工智能發(fā)展史上具有劃時代意義。更為要害的是,人工智能技術(shù)具有以往技術(shù)不曾具有的內(nèi)在特質(zhì),顛覆了人類獲取知識的傳統(tǒng)模式,并對思想觀念、價值理念、行為方式產(chǎn)生革命性影響。

第一,以個性化社會生產(chǎn)方式推動人們思想觀念、價值判斷的多重變革。人工智能技術(shù)實現(xiàn)了對以往機器技術(shù)和智能化功能的升級改造。新一代智能系統(tǒng)變得更加聰明,更加善解人意,成為人們?nèi)找嬗H密的合作“伙伴”,擺脫了舊式分工的束縛,把人們從繁重單調(diào)的工作中解放出來。人工智能技術(shù)不是刻板地模擬人類的大腦結(jié)構(gòu),也不是簡單地模仿人腦工作原理,而是一種創(chuàng)造性的模擬。它通過海量數(shù)據(jù)分析和科學(xué)推斷,為人類提供個性化服務(wù),有力地支撐了人類思維創(chuàng)新和產(chǎn)品創(chuàng)新。人工智能系統(tǒng)被賦予“豐富的知識”“敏捷的思維”“冷靜的態(tài)度”等多面的外在表征,通過分析海量數(shù)據(jù)來幫助人們觀察社會變遷,全面把握社會發(fā)展變化趨勢,為科學(xué)認(rèn)識世界和改造世界提供指導(dǎo)。

第二,以神經(jīng)網(wǎng)絡(luò)模型為原理的深度學(xué)習(xí)推動社會相關(guān)行業(yè)和領(lǐng)域的技術(shù)變革。在諸多人工智能學(xué)習(xí)模式中,神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)是借鑒人類大腦結(jié)構(gòu)及功能的學(xué)習(xí)模型,通過神經(jīng)元節(jié)點連接組成的網(wǎng)絡(luò),模擬大腦信息處理、知識表征和學(xué)習(xí)過程,從而完成處理海量信息的任務(wù),這是人工智能技術(shù)強大的關(guān)鍵所在。深度學(xué)習(xí)的特殊之處在于它在面對復(fù)雜對象時,能夠通過多層提煉、分析總結(jié),在沒有預(yù)設(shè)性條件下實現(xiàn)自我學(xué)習(xí)和自我創(chuàng)新。近年來,深度學(xué)習(xí)在圖像識別、語音識別、自動駕駛、機器翻譯等方面的突破性進(jìn)展,引起了較大的社會反響。

第三,人工智能技術(shù)在商業(yè)領(lǐng)域廣泛應(yīng)用,延伸社會產(chǎn)品服務(wù)鏈、產(chǎn)業(yè)鏈和價值鏈。新一代人工智能技術(shù),無論是在社會適用范圍上,還是在自動化、智能化水平上,都達(dá)到前所未有的程度。隨著人工智能技術(shù)被廣泛運用到自動駕駛、生物識別、醫(yī)療健康、保險投資等多個領(lǐng)域,其內(nèi)在社會價值和商業(yè)價值逐步彰顯。目前,人工智能技術(shù)以全方位、多領(lǐng)域的方式改變著人類社會的生存方式和運行結(jié)構(gòu),并很快形成了巨大的經(jīng)濟效益和社會效益。

人工智能時代的風(fēng)險隱憂

在智能技術(shù)產(chǎn)生之前,所有技術(shù)和發(fā)明創(chuàng)造都可以看作是人類身體器官的投影或放大。第一代和第二代人工智能也不過是利用數(shù)據(jù)和技術(shù)工具對人腦思維能力無限放大、延伸或投影的嘗試。人工智能潛在風(fēng)險可能會蘊含于人類新技術(shù)產(chǎn)生之中,也可能會內(nèi)嵌于社會制度風(fēng)險中。由于時代變化和不可預(yù)測性,加上不同民族、文化、經(jīng)濟等條件的影響和制約,它不僅具有復(fù)雜性、綜合性的特點,而且?guī)в腥蛐院蛥^(qū)域性共存、自然地理特征與文化融合的特征。

人工智能技術(shù)帶來的倫理風(fēng)險。在人工智能倫理規(guī)約設(shè)計中,技術(shù)設(shè)計目標(biāo)與技術(shù)行為后果陷入不相協(xié)調(diào)的兩難境地:一方面,人們希望通過科技發(fā)展給人們生產(chǎn)生活帶來更多便利;另一方面,他們又不希望技術(shù)發(fā)展僭越倫理規(guī)范預(yù)設(shè)的行為邊界。人工智能風(fēng)險的獨特性和現(xiàn)行規(guī)制的局限性加劇了技術(shù)風(fēng)險爆發(fā)的可能性。目前,人工智能已經(jīng)造成難以應(yīng)對的各種風(fēng)險,如與大數(shù)據(jù)技術(shù)結(jié)合后的人工智能技術(shù),以及對復(fù)雜問題的分析帶有種族主義和性別歧視。自動駕駛、無人駕駛技術(shù)的應(yīng)用使人類時常面臨著意想不到的道德困境。在這種情況下,人工智能倫理責(zé)任界定成為了不可回避的現(xiàn)實問題。

人工智能時代面臨的社會結(jié)構(gòu)性失業(yè)。2013年9月,牛津大學(xué)研究者卡爾·弗瑞(Carl Benedikt Frey)及邁克爾·奧斯本(Michael A. Osborne)發(fā)表了《就業(yè)的未來》研究報告,調(diào)查各項工作在未來20年被計算機取代的可能性。根據(jù)算法估計,美國有47%的工作有很高風(fēng)險被計算機取代。麻省理工學(xué)院教授邁克斯·泰格馬克(Max Tegmark)針對如何分析未來職業(yè)被計算機取代的可能性提出了三條判斷標(biāo)準(zhǔn),即該工作是否需要與人互動?該工作是否涉及創(chuàng)造性?該工作是否需要在不可預(yù)測的環(huán)境下進(jìn)行?根據(jù)分析,對于教師、護(hù)士、科學(xué)家、企業(yè)家、程序員、藝術(shù)家等具有更多創(chuàng)造性,需要與人打交道的工作,相對比較安全;對收銀員、貨車司機、廚師等職業(yè),這些具有高度重復(fù)、結(jié)構(gòu)化以及可以預(yù)測的工作看起來不久將要被機器自動化取代。

人工智能技術(shù)可能引發(fā)個人信息泄露和隱私權(quán)侵犯問題。人工智能系統(tǒng)本質(zhì)是通過從外部輸入涉及個人、商業(yè)、政府等大量信息的海量數(shù)據(jù)來訓(xùn)練學(xué)習(xí)算法,然而所涉及大量數(shù)據(jù)無法通過傳統(tǒng)數(shù)據(jù)分析軟件和程序?qū)?shù)據(jù)有效地分析、攝取和管理,這些信息一旦泄露會給政府和個人帶來極大風(fēng)險。2018年3月18日,劍橋數(shù)據(jù)分析公司就被爆出對Facebook上5000萬個人用戶資料進(jìn)行不當(dāng)分析,并干擾2016年的美國大選。為此,美國國會和歐盟議會要求Facebook就個人隱私數(shù)據(jù)泄露接受質(zhì)詢并追究其責(zé)任。

人工智能時代隱含著技術(shù)失控風(fēng)險。據(jù)專家估計,根據(jù)目前人工智能系統(tǒng)發(fā)展態(tài)勢,21世紀(jì)中葉極有可能出現(xiàn)“具有人類思維水平的機器智能”,甚至出現(xiàn)能夠相互學(xué)習(xí)、相互作用、自我完善而不斷升級的“超級智能組織”。但是,具有自主意識的超級智能很有可能突破設(shè)計者預(yù)先設(shè)定的臨界點而走向“失控”,進(jìn)而反過來對人類進(jìn)行控制和統(tǒng)治。

人工智能社會的制度防范

面對人工智能技術(shù)的迅猛發(fā)展,不應(yīng)采取消極甚至排斥的態(tài)度,將其置于人類社會發(fā)展的對立面,而是應(yīng)當(dāng)從倫理層面展開反思,慎思技術(shù)開發(fā)和運用的制度性規(guī)范,嚴(yán)格約束責(zé)任主體的行為,以積極行動解決人工智能技術(shù)發(fā)展過程中面臨的難題。

建立人工智能技術(shù)的倫理規(guī)制。建立過程中要考慮人類整體利益和最高利益,建立人機共生協(xié)作的密切關(guān)系,在人工智能設(shè)計和運用中堅持人類的基本價值原則。堅持人類基本價值原則,最為根本的是堅持人本原則、公開原則和責(zé)任原則。人本原則就是要堅持以人為本的原則,滿足人工智能造福人類的崇高目的。既不能像反對技術(shù)的浪漫主義那樣拒斥、放棄人工智能造福人類社會的機會,也不能放任自流,給人類帶來技術(shù)失控的風(fēng)險。公正原則,是指讓更多人獲得益處,成果讓多數(shù)人共享的同時,防止“資本邏輯”的橫行,并建立健全社會福利保障體系,對弱勢群體、落后地區(qū)進(jìn)行扶持,切實維護(hù)各方的尊嚴(yán)和合法權(quán)益。責(zé)任原則,是指人工智能研發(fā)、應(yīng)用和管理過程中,必須確定不同道德主體的權(quán)利和義務(wù),一旦人工智能系統(tǒng)出現(xiàn)破壞性后果,不同責(zé)任主體必須及時作出回應(yīng)并采取相應(yīng)措施。

加強算法技術(shù)權(quán)力的法律規(guī)約。人工智能技術(shù)發(fā)展程度受制于算法權(quán)力變量,然而算法權(quán)力過大會引發(fā)資本和權(quán)力操控的風(fēng)險,帶來人工智能技術(shù)異化傾向。應(yīng)合理界定算法技術(shù)的權(quán)力,調(diào)整不同社會資本利用分配,避免因受到特定集團(tuán)利益支配而導(dǎo)致的算法權(quán)力濫用?,F(xiàn)代社會算法技術(shù)的研發(fā)應(yīng)用主要依托物聯(lián)網(wǎng)企業(yè),算法權(quán)力遵循市場邏輯,在利益誘導(dǎo)下呈現(xiàn)出一定的歧視性和偏好性。人工智能算法結(jié)果并不單純是技術(shù)自動化的結(jié)果,而是遵循著人工編譯的運算規(guī)則和程序規(guī)范,蘊含著程序設(shè)計者的價值導(dǎo)向和意識形態(tài)觀念。要確保智能技術(shù)在良性軌道上運行,需要在人工智能算法程序中賦予一定的權(quán)力限制。通過完善法律規(guī)范,將法的價值和理念融入算法程序,將算法技術(shù)馴化為服從人類根本利益和普遍價值的工具。從人工智能算法權(quán)力運行程度看,應(yīng)不斷完善算法技術(shù)的程序,完善算法程序設(shè)計的監(jiān)督環(huán)節(jié),細(xì)化算法計算相關(guān)法律條文,追究因技術(shù)失范帶來的法律責(zé)任。

建立可信任的人工智能發(fā)展制度。人工智能技術(shù)在現(xiàn)實層面上還面臨不少難題,要加強對人工智能技術(shù)的法律規(guī)制,既要考慮到人工智能技術(shù)創(chuàng)新需要一定的發(fā)展空間,也需要考慮到用法律制度來保障人工智能技術(shù)應(yīng)用的合理性。如果因人工智能可能帶來風(fēng)險而對智能技術(shù)開發(fā)責(zé)任設(shè)置嚴(yán)格法律限制,或者因人工智能技術(shù)水平不夠成熟為此降低門檻,都會影響到人工智能企業(yè)健康發(fā)展。這其中的界限需要監(jiān)管部門和專業(yè)人士開展深入合作,從專利制度、侵權(quán)責(zé)任和政府管制等方面進(jìn)行綜合考慮。

完善人工智能技術(shù)人才支撐。加強人工智能倫理教育和技術(shù)培訓(xùn)。將符合特定倫理價值的倫理規(guī)范融入教育培訓(xùn)內(nèi)容中,增強全社會對人工智能技術(shù)的共識,根據(jù)不同教育對象因材施教。在學(xué)校系統(tǒng)教育中,側(cè)重對學(xué)生開展人工智能的倫理道德教育,提高對人工智能道德規(guī)范認(rèn)識,增強人工智能技術(shù)安全意識。加強職業(yè)技術(shù)培訓(xùn),提高解決人工智能技術(shù)應(yīng)用問題的能力。在政府培訓(xùn)中,政府公職人員作為政策的制定者、執(zhí)行者,需要準(zhǔn)確理解未來人工智能的相關(guān)政策。加強人工智能技術(shù)實際應(yīng)用知識學(xué)習(xí),提升科學(xué)素養(yǎng)、倫理素養(yǎng)以滿足人工智能社會發(fā)展要求。在社會開放教育中,開展人工智能知識普及教育,通過網(wǎng)絡(luò)、電視、互聯(lián)網(wǎng)等多種公眾媒體全方位加強人工智能知識的宣傳教育,消除公眾對人工智能的恐懼感和陌生感,增強人工智能的人性化、科學(xué)化的知識教育,努力創(chuàng)造有溫度、有力度的社會倫理教育環(huán)境。

(作者為齊魯工業(yè)大學(xué)(山東省科學(xué)院)馬克思主義學(xué)院講師,山東大學(xué)政治學(xué)與公共管理學(xué)院博士后)

【注:本文系山東省社會科學(xué)規(guī)劃項目“基于人與自然和諧共生的現(xiàn)代化研究”(項目編號:19CXSXJ14)及2020年山東省人文社會科學(xué)項目“高校專業(yè)課和思政課同向而行的內(nèi)在機理和實現(xiàn)路徑研究”(項目編號:2020-ZXGJ-04)研究成果】

【參考文獻(xiàn)】

①[美]哈里·亨德森著、王華等譯:《人工智能之路》,上海:科學(xué)技術(shù)文獻(xiàn)出版社,2019年。

②李恒威、王昊晟:《人工智能威脅論溯因》,《浙江學(xué)刊》,2019年第2期。

③何清、李寧等:《大數(shù)據(jù)下的機器學(xué)習(xí)算法綜述》,《模式識別與人工智能》,2014年第4期。

責(zé)編/俞海韻(見習(xí)) 美編/楊玲玲

聲明:本文為人民論壇雜志社原創(chuàng)內(nèi)容,任何單位或個人轉(zhuǎn)載請回復(fù)本微信號獲得授權(quán),轉(zhuǎn)載時務(wù)必標(biāo)明來源及作者,否則追究法律責(zé)任。

[責(zé)任編輯:yuhaiyun]