www.av视频在线观看,亚洲免费影院第一第二,一级毛片在现观看,久久精品片色免费看网站,日本大香伊蕉在人线国产,奇米精品一区二区三区在线观看,亚洲网站一区

網(wǎng)站首頁(yè) | 網(wǎng)站地圖

人民論壇網(wǎng)·國(guó)家治理網(wǎng)> 前沿理論> 正文

科技倫理治理的社會(huì)心理取向

——以人工智能為例

摘 要:對(duì)于科技倫理治理來(lái)說(shuō),最簡(jiǎn)單直接的方式就是制定規(guī)則。但現(xiàn)有的無(wú)論是國(guó)家政府還是組織機(jī)構(gòu)等制定的規(guī)條均還不具有普適性,同時(shí),缺乏對(duì)“知行合一”的有效約束是“規(guī)條式”治理的突出問(wèn)題。今后進(jìn)一步充實(shí)科技倫理治理,首先要認(rèn)清人工智能倫理考察的是人工智能和人之間的關(guān)系規(guī)律,而面向人的人工智能應(yīng)該考慮普通人是如何看待人工智慧并進(jìn)行交互的。此外,將人類抽象道德規(guī)范轉(zhuǎn)化為具體的規(guī)則,即幫助科技“習(xí)得腳本、鍛造美德”,是科技倫理治理的另一方面。

關(guān)鍵詞:科技倫理治理 科技向善 人工智能 科技道德

中圖分類號(hào)B82 文獻(xiàn)標(biāo)識(shí)碼A

科技倫理治理現(xiàn)狀:尚在羅列規(guī)條、以規(guī)為宗

若論科技倫理治理,也許最直接的方式就是制定規(guī)則,這種規(guī)則可能包括政策、法規(guī)、準(zhǔn)則、倫理守則等(為簡(jiǎn)化表述,下文一律將之簡(jiǎn)稱為“規(guī)條”)。制定這些規(guī)條的主體可能是各國(guó)政府或各國(guó)政府的聯(lián)合體(如歐盟、聯(lián)合國(guó)等)、可能是國(guó)際或者國(guó)內(nèi)的行業(yè)協(xié)會(huì)、研究機(jī)構(gòu)或者研究組織(如美國(guó)計(jì)算機(jī)學(xué)會(huì)ACM),也可能是相關(guān)人工智能頭部企業(yè)(如谷歌、騰訊等)。應(yīng)該沒(méi)有人不同意制定這些規(guī)條的最終目的都是為了進(jìn)行科技倫理治理,或者更進(jìn)一步創(chuàng)造出道德的人工智能體等科技載體,但如此之多的倫理規(guī)條本身已經(jīng)說(shuō)明了各個(gè)層面的規(guī)則制定者本身對(duì)人工智能的倫理風(fēng)險(xiǎn)沒(méi)有達(dá)成普遍一致,也沒(méi)有形成一個(gè)通用普適的倫理風(fēng)險(xiǎn)防范守則。

以人工智能規(guī)條為例,Jobin等人(2019)統(tǒng)計(jì)了現(xiàn)存的用英、法、德、意等語(yǔ)言寫(xiě)就的84個(gè)政府規(guī)條,發(fā)現(xiàn)確實(shí)有一些得到多數(shù)共識(shí)的倫理原則,如果將其進(jìn)行排名,則為:透明、公正、無(wú)傷、負(fù)責(zé)、隱私、受益、自主、信任、可持續(xù)、尊嚴(yán)以及團(tuán)結(jié)等。Zeng等人(2019)在其構(gòu)建的人工智能規(guī)條數(shù)據(jù)庫(kù)之基礎(chǔ)上,增加了中、日等亞洲規(guī)條和業(yè)界規(guī)條,用自然語(yǔ)言處理的語(yǔ)義相似性也確定了具有多數(shù)共識(shí)的倫理原則,即:人性、合作、共享、公平、透明、隱私、安全、可歸責(zé)以及強(qiáng)人工智能。科技倫理規(guī)條的計(jì)數(shù)與語(yǔ)義聚類結(jié)果甚至并不相同。當(dāng)然我國(guó)也有較為重要的人工智能規(guī)條,比如2019年6月國(guó)家新一代人工智能治理專業(yè)委員會(huì)發(fā)布《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》,提出了和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔(dān)責(zé)任、開(kāi)放協(xié)作、敏捷治理等八條原則。這些規(guī)條看似全面,但其是否真實(shí)能用于人工智能實(shí)踐呢?科技倫理要“塑造科技向善的文化理念和保障機(jī)制”,那么完成此目標(biāo)便需要行勝于言??萍紓惱碇卫頉](méi)有規(guī)條寸步難行,但只有規(guī)條并不能讓科技向善。

原因之一在于規(guī)條是抽象的。道德心理學(xué)的研究發(fā)現(xiàn),抽象道德原則并不能指導(dǎo)實(shí)際道德行為,這中間有巨大的鴻溝[1]。譬如小學(xué)生守則里有這樣的規(guī)條,即“尊敬師長(zhǎng)、團(tuán)結(jié)同學(xué)”,而實(shí)際上一個(gè)特定的學(xué)生在路上碰到了老師他可能還是不知道怎么辦,因?yàn)樵谛睦砩喜恢廊绾涡袨?。多?shù)倫理規(guī)條均存在此問(wèn)題,其過(guò)于抽象和泛化,而非實(shí)際可操作的規(guī)則。因此,要讓小學(xué)生做出“尊敬師長(zhǎng)”的行為結(jié)果,不僅需要讓他們背下道德規(guī)條,同時(shí)還要告訴他們?cè)诓煌那榫诚聭?yīng)當(dāng)如何做的具體實(shí)踐腳本,比如“當(dāng)老師迎面走來(lái)時(shí),你要停下來(lái),鞠躬說(shuō):老師好!”。道德教育不能只是講授道德原理和原則、灌輸?shù)赖滤枷耄寣W(xué)生練習(xí)應(yīng)該怎么做才是正確的[1]。同理,對(duì)于人工智能來(lái)說(shuō),我們不只要列出倫理規(guī)條,還應(yīng)設(shè)置大量具體情境的倫理腳本,這一點(diǎn)不僅是對(duì)人工智能的設(shè)計(jì)者、使用者來(lái)說(shuō)如此,對(duì)人工智能本身也一樣。即我們不能只設(shè)置一條“透明度”原則,我們需要告訴人工智能設(shè)計(jì)者,類似:“第一,每一個(gè)數(shù)據(jù)點(diǎn)的來(lái)源都必須登記和審查;第二,對(duì)每一個(gè)數(shù)據(jù)點(diǎn)的來(lái)源審查應(yīng)該……”,只有這樣具體的規(guī)則才是具體可行、可以用于風(fēng)險(xiǎn)防范的。

另一個(gè)原因是規(guī)條沒(méi)有解決知行分離的問(wèn)題。就如人工智能倫理問(wèn)題,確實(shí)可以立下非常具體的規(guī)條,哪怕即使是抽象的規(guī)條,也存在人是否可能遵守的現(xiàn)實(shí)情況。誠(chéng)如Müller(2020)所言,人工智能倫理問(wèn)題的最大現(xiàn)實(shí)困難是切實(shí)加強(qiáng)政府以及個(gè)體的調(diào)控,而非制定政策。倫理規(guī)條和政策制定是相對(duì)前期的工作,而政策的落地執(zhí)行以及每個(gè)人工智能利益相關(guān)者的切實(shí)執(zhí)行才是切實(shí)有效的。只用規(guī)條來(lái)進(jìn)行科技倫理治理容易造成知行不一。很多時(shí)候我們看到很多人能大談倫理原則,但卻經(jīng)常做出不道德的行為。以應(yīng)該習(xí)得了最多倫理規(guī)范的倫理學(xué)家作為研究對(duì)象,心理學(xué)家發(fā)現(xiàn),受過(guò)良好和長(zhǎng)期道德教育、從事道德相關(guān)的研究、探討道德問(wèn)題的倫理學(xué)家并不比普通人更加道德(Schwitzgebel&Rust,2009,2010,2013;Schwitzgebel&Cushman,2012;Schwitzgebel,Rust,Huang,Moore,&Coates,2012)。在美國(guó)頂尖的學(xué)術(shù)圖書(shū)館中,當(dāng)代倫理學(xué)圖書(shū)的丟失率要比非倫理學(xué)圖書(shū)的丟失率高50%,而經(jīng)典倫理學(xué)著作的丟失率則要高出2倍。這些倫理學(xué)專業(yè)圖書(shū)的閱讀者和借閱者通常為倫理學(xué)教授或者研究生。同時(shí),國(guó)外倫理學(xué)教授也沒(méi)有像人們直覺(jué)的那樣履行更多的道德責(zé)任,他們?cè)诿绹?guó)選舉時(shí)的投票率并不比其他專業(yè)的教授要高。倫理學(xué)家比其他人擁有更多的道德知識(shí)、受過(guò)更多的道德教育,但是他們卻并不會(huì)比他人更多地表現(xiàn)出道德行為,這是道德問(wèn)題上知行不一的體現(xiàn)。

科技倫理治理應(yīng)當(dāng)以人為本、治心為上

為什么盡管規(guī)則沒(méi)有用,但是大部分做法仍在羅列規(guī)范呢?答案是,因?yàn)橐?guī)條確實(shí)非常重要,也確屬先導(dǎo)工作。而羅列規(guī)條較之“做出道德的人工智能體”這樣的具體實(shí)踐問(wèn)題要更易解決。深層次答案則是,規(guī)條的產(chǎn)生乃考察精英智慧的結(jié)晶。羅列規(guī)條的抽象工作通常情況下由哲學(xué)社會(huì)科學(xué)家以及計(jì)算機(jī)科學(xué)家商討而定。而事實(shí)上,由于學(xué)者關(guān)心精英智慧而忽視普通人想法,專家洞見(jiàn)和哲學(xué)家智慧不一定正確,而面向人的人工智能應(yīng)該考慮普通人的感覺(jué),考慮普通人是如何看待人工智慧并進(jìn)行交互的。從精英智慧轉(zhuǎn)向人民群眾的實(shí)踐智慧才是科技倫理治理之要義。事實(shí)上,人工智能以人為本也是學(xué)術(shù)界和業(yè)界共識(shí)。2019年,斯坦福大學(xué)便成立以人為本的人工智能研究院(HAI),其院長(zhǎng)李飛飛前一年便撰文闡述以人為本的人工智能的基本思想,即讓人工智能更好地反映人類的深層智能;人工智能應(yīng)幫助人類變得更強(qiáng),而不是替代人類;以及確保人工智能在發(fā)展過(guò)程中對(duì)人類的影響得到正確的引導(dǎo)。以人為本便是要考察普通人在現(xiàn)實(shí)生活中與科技的交互與認(rèn)知,而這是典型的社會(huì)心理學(xué)研究對(duì)象。遺憾的是,社會(huì)心理學(xué)幾乎在科技倫理治理中被遺忘。

還以人工智能為例。智能本身是心理學(xué)的獨(dú)有研究對(duì)象,一度被認(rèn)為是認(rèn)知科學(xué)的核心。而事實(shí)上的認(rèn)知科學(xué)已經(jīng)接近被心理學(xué)大量侵蝕的境地,不僅認(rèn)知科學(xué)之父George Miller(2003)斷言在2035年認(rèn)知科學(xué)可能全部會(huì)被心理學(xué)占領(lǐng),現(xiàn)今對(duì)認(rèn)知科學(xué)雜志上發(fā)表的文章進(jìn)行統(tǒng)計(jì)也可以發(fā)現(xiàn),心理學(xué)論文對(duì)比哲學(xué)、語(yǔ)言學(xué)、人類學(xué)等占巨大優(yōu)勢(shì),甚至遠(yuǎn)遠(yuǎn)超過(guò)一半比例[2]。事實(shí)上,古老的人工智能方法采用的更多是基于人類認(rèn)知過(guò)程的模擬,比如進(jìn)行決策樹(shù)的選擇等。而現(xiàn)今廣泛使用的人工智能方法則是深度學(xué)習(xí),這種方法也完全基于心理學(xué)的理論。深度學(xué)習(xí)采用的是基于大數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)模型。它來(lái)源于David Hubel和Torsten Wiesel(2004)視覺(jué)認(rèn)知上的特征覺(jué)察器理論,表明不同的神經(jīng)元對(duì)視覺(jué)的不同特征做反應(yīng)。這就導(dǎo)致了深度學(xué)習(xí)的分層模式識(shí)別過(guò)程,即在刺激的輸入層和識(shí)別層中加入很多層來(lái)識(shí)別不同的對(duì)象特征,層越多就越深度,且效果就越好。這種模式加上大量數(shù)據(jù)便可以進(jìn)行訓(xùn)練,將特定的輸入和輸出關(guān)聯(lián)起來(lái)。這是現(xiàn)在大部分人工智能生產(chǎn)過(guò)程所采取的模式??梢院?jiǎn)單理解為一系列輸入和對(duì)應(yīng)輸出間基于大量數(shù)據(jù)訓(xùn)練出的中間有結(jié)構(gòu)的數(shù)學(xué)統(tǒng)計(jì)模型,這是以深度學(xué)習(xí)為基礎(chǔ)的人工智能的本質(zhì)。

這種方式可能造成兩點(diǎn)誤解,其一是人工智能似乎和神經(jīng)科學(xué)有關(guān),但這只是因?yàn)槊x上的混淆,其實(shí)它幾乎與大腦神經(jīng)結(jié)構(gòu)以及當(dāng)前神經(jīng)科學(xué)研究并無(wú)太多關(guān)系。外界和心理學(xué)界均普遍認(rèn)為,認(rèn)知神經(jīng)科學(xué)才做人工智能。而事實(shí)上,人工智能倫理考察的是人工智能和人之間的關(guān)系規(guī)律,這種社會(huì)心理學(xué)才是以人為本的人工智能。其二是現(xiàn)存人工智能方法是在人類智能研究上的倒退。細(xì)究早期人工智能做法,是將人類認(rèn)知方式進(jìn)行一步一步邏輯推理并將其用于人工智能,這種方法更像研究人類智慧的心理學(xué)中的認(rèn)知主義。而深度學(xué)習(xí)這種只管輸入和輸出,而不管中間黑箱過(guò)程的做法,更像心理學(xué)中的行為主義。行為主義深信刺激反應(yīng)的聯(lián)結(jié)足以解釋一切人類行為,而心理過(guò)程絕非必要,這是一種非常結(jié)果導(dǎo)向的實(shí)用傾向。而認(rèn)知主義需要打開(kāi)刺激和反應(yīng)之間的黑箱,看看人類心理究竟如何運(yùn)作,要知其然還要知其所以然。心理學(xué)的發(fā)展是從行為主義向認(rèn)知心理學(xué)的發(fā)展,而人工智能的發(fā)展是相反且倒退的,其發(fā)展是從認(rèn)知主義向行為主義的發(fā)展,現(xiàn)在以解決實(shí)際問(wèn)題為主,而幾乎不去考慮中間的原理。深度學(xué)習(xí)算法造成的問(wèn)題是人工智能實(shí)際上沒(méi)有心理,也就是說(shuō),人工智能離人反而越來(lái)越遠(yuǎn)了。它確實(shí)可以在有限制的框架下運(yùn)用強(qiáng)大的計(jì)算能力很好地解決問(wèn)題,比如圍棋領(lǐng)域。但這是因?yàn)閲逑鄬?duì)封閉,規(guī)則固定。一旦用它和人進(jìn)行交互,則倫理問(wèn)題便很快顯現(xiàn)。比如自動(dòng)駕駛汽車很難進(jìn)行道德決策,是不是只要前面出現(xiàn)五位行人,汽車都要選擇寧愿撞死車?yán)锏囊粋€(gè)乘客來(lái)保住行人的安全?如果是這樣,那么誰(shuí)會(huì)買這輛汽車呢,這里明顯存在很難解決的社會(huì)心理學(xué)悖論[3][4][5]。當(dāng)然自動(dòng)駕駛汽車還有很多技術(shù)不是使用深度學(xué)習(xí),還使用了原有的決策模型,但其結(jié)果還尚且如此。遠(yuǎn)期來(lái)說(shuō),我們預(yù)期在人類解決了最初的實(shí)用性問(wèn)題后,還是會(huì)將人工智能的技術(shù)轉(zhuǎn)向借鑒人類認(rèn)知,打開(kāi)黑箱來(lái)進(jìn)行處理,這樣的科技才更有人心的意味。

科技倫理治理可以習(xí)得腳本、鍛造美德

科技倫理治理的目標(biāo)如果是科技向善,而道德規(guī)條重要又無(wú)法僅依靠自身實(shí)現(xiàn)有效應(yīng)用,社會(huì)心理學(xué)如何幫助我們有效進(jìn)行呢?簡(jiǎn)單來(lái)說(shuō),讓科技理解規(guī)條,或至少按照規(guī)條內(nèi)容產(chǎn)生行為甚為重要。人類已有的價(jià)值系統(tǒng)對(duì)新興科技來(lái)說(shuō)適用嗎?實(shí)際上這個(gè)問(wèn)題的答案非常簡(jiǎn)單:不適用。因?yàn)槿祟悆r(jià)值觀系統(tǒng)是一種抽象、盡量簡(jiǎn)約化的系統(tǒng),而人工智能所輸入的必須是一種可以轉(zhuǎn)化為變量或者代碼表征的極其具體的行為規(guī)則。這種規(guī)則如果可以,最好表述為“如果…那么…”(if…then…)的形式,這符合認(rèn)知情感人格系統(tǒng)對(duì)于行為發(fā)生的定義[1]。而如果將人類總結(jié)的抽象道德規(guī)范系統(tǒng)轉(zhuǎn)化為具體的規(guī)則,這是一個(gè)演繹的過(guò)程,而具體需要演繹出多少特異化的規(guī)則,也就是說(shuō)人工智能學(xué)習(xí)材料中需要包含究竟何種程度多樣化的場(chǎng)景,這需要社會(huì)心理學(xué)。通常情況下,人工智能科學(xué)家面對(duì)這樣的問(wèn)題會(huì)進(jìn)行一個(gè)粗略的估計(jì),如李飛飛等人在ImageNet中對(duì)于圖片的人工標(biāo)注數(shù)量也只是在進(jìn)行粗略估計(jì)后看其識(shí)別率變化[6]。圖片容易獲得,而道德情境卻很難編制或者估計(jì)其數(shù)量。一個(gè)可能的途徑是使用近期心理學(xué)對(duì)情境的分類模型[7]重新對(duì)道德情境進(jìn)行分類、演繹、編制、提取特征等過(guò)程,從而來(lái)制作人工智能學(xué)習(xí)材料。

腳本是一個(gè)“如果……那么……”(If…Then…)的規(guī)則,它指導(dǎo)人的行為,并告訴一個(gè)人如果你處于某種情境下,那么你就要做某種行為,這也就是自上而下的算法運(yùn)算所遵循的規(guī)則。先前自下而上的深度學(xué)習(xí)方式在解決科技倫理問(wèn)題時(shí)均是規(guī)范倫理學(xué)式的,而如果一旦運(yùn)用腳本方式自上而下地進(jìn)行人工智能倫理學(xué)習(xí),則可以采用美德倫理學(xué)方案[1]。因?yàn)槊赖录吹赖氯烁?,人格表現(xiàn)在對(duì)情境的反應(yīng)上,而如果這些聯(lián)接是穩(wěn)定的,我們就可以把它看作特質(zhì),特質(zhì)就是這樣一定的規(guī)則。但是并不是每一個(gè)聯(lián)接或者每一個(gè)規(guī)則都是特質(zhì),特質(zhì)應(yīng)該表現(xiàn)為一套相近的聯(lián)接的集合。比如:如果在電梯里有一個(gè)陌生人,那么我就與他攀談;以及如果我在和人談話,那么我不會(huì)主動(dòng)停下來(lái)。這是兩個(gè)腳本,但是這兩個(gè)腳本以及其他類似腳本合起來(lái)會(huì)構(gòu)成一個(gè)特質(zhì),那便是外向性人格。所以賦予人工智能以美德,實(shí)際上便是讓人工智能習(xí)得一套道德行為腳本,這種腳本可能是創(chuàng)造者自上而下直接賦予它的,也可能是給它正確的輸入輸出、由它自下而上自行習(xí)得的,前者對(duì)應(yīng)于傳統(tǒng)基于認(rèn)知主義的人工智能模型,而后者對(duì)應(yīng)于基于行為主義的人工智能模型。由于人工智能無(wú)法學(xué)習(xí)遷移,這種道德行為腳本的獲得必須具體到某種情境,而非泛化的原則;如何制作出如此細(xì)致的腳本,便需要基于理論的哲學(xué)、倫理學(xué)以及基于普通人信念和知覺(jué)的心理學(xué)共同協(xié)作。

先考慮后者,即基于行為主義的人工智能自下而上的學(xué)習(xí)模型。這在現(xiàn)實(shí)生活中是否可行?實(shí)際上是困難的,現(xiàn)實(shí)例證便是大多數(shù)聊天機(jī)器人都以被人類教壞學(xué)習(xí)到歧視、惡語(yǔ)后慘淡結(jié)束,那么如何避免其習(xí)得人類并不喜歡的道德規(guī)則呢?似乎至少有三種途徑可以選擇[8]:一種是,這些道德人工智能已經(jīng)在誕生之初便學(xué)習(xí)得特別順暢,已然具有了明辨是非的能力,它知道選擇何事可為、何事不可為;一種是,限制其今后進(jìn)行訓(xùn)練迭代的材料,制定一套專門挑選日后迭代訓(xùn)練材料的規(guī)則,讓其主動(dòng)選擇合適的向善的迭代學(xué)習(xí)材料、主動(dòng)放棄可能會(huì)習(xí)得作惡的迭代學(xué)習(xí)材料;再有一種是,訓(xùn)練一種可能的自我控制能力,來(lái)約束人工智能自身,而這時(shí)人工智能已然具有人性了。這三種方式均不太可能在現(xiàn)在發(fā)生,而真實(shí)可以發(fā)生之事還是需要以行為腳本形式自上而下地呈現(xiàn)。

因此,人工智能倫理問(wèn)題的解決最終一定需要包容社會(huì)心理學(xué)方式。對(duì)于人工智能來(lái)說(shuō),不要列出具體的倫理規(guī)條,應(yīng)該用美德倫理學(xué)方法做出負(fù)責(zé)任、道德的人工智能體,應(yīng)該設(shè)置大量具體情境,把它設(shè)置成倫理腳本。我們不能只設(shè)計(jì)一條所謂透明度的原則,還要明確規(guī)定每個(gè)數(shù)據(jù)來(lái)源必須登記和審查等。只有把它設(shè)計(jì)成規(guī)則,即如果怎么樣、那么怎么樣,自上而下地列出規(guī)則,讓人工智能知道它如何做才有用。這和現(xiàn)在的底層往上的數(shù)據(jù)驅(qū)動(dòng)的、深度學(xué)習(xí)的方法是相反的。心理學(xué)的情境研究實(shí)際上已經(jīng)把情境做了分類。應(yīng)該進(jìn)行社會(huì)心理學(xué)研究把人工智能會(huì)面臨的情境識(shí)別出來(lái),對(duì)每個(gè)情境寫(xiě)出道德行為腳本,自上而下地解決科技倫理治理問(wèn)題。

【本文作者為武漢大學(xué)哲學(xué)學(xué)院教授;本文系國(guó)家社科基金項(xiàng)目“擬人化人工智能的道德責(zé)任歸因研究”(項(xiàng)目編號(hào):20CZX059)階段性成果】

注釋

[1]喻豐、彭凱平、董蕊、柴方圓、韓婷婷:《道德人格研究:范式與分歧》,《心理科學(xué)進(jìn)展》,2013年第12期,第2235—2244頁(yè)。

[2]Núnez,R.,Allen,M.,Gao,R.,Rigoli,C. M.,Relaford-Doyle,J.,& Semenuks,A. What happened to cognitive science?. Nature Human Behaviour,2019,3(8),728-791.

[3]Awad,E.,et al.,The Moral Machine experiment. Nature,2018,563(7729),59-64.

[4]Awad,E.,et al.,Drivers are blamed more than their automated cars when both make mistakes. Nature Human Behaviour,2020,4(2),134-143.

[5]Rahwan,I.,Cebrian,M.,Obradovich,N.,Bongard,J.,Bonnefon,J. F.,Breazeal,C.,... & Jennings,N. R. Machine behaviour. Nature,2019,568(7753),477-486.

[6]Deng,J.,Dong,W.,Socher,R.,Li,L. J.,Li,K.,& Li,F(xiàn). Imagenet: A large-scale hierarchical image database. In Computer Vision and Pattern Recognition,2009 IEEE Conference,248-255.

[7]Rauthmann,et al., The situational eight DIAMONDS: A taxonomy of major dimensions of situation characteristics. Journal of Personality and Social Psychology,2014,Vol. 107,677-718.

[8]喻豐、許麗穎:《如何做出道德的人工智能體?——心理學(xué)的視角》,《全球傳媒學(xué)刊》,2018年第4期,第24—42頁(yè)。

責(zé)編: 李 懿/美編:石 玉

The Psychosocial Aspect of Governance over Ethics in Science and Technology: A Focus on Artificial Intelligence

Yu Feng

Abstract: The simplest and most direct way for governance over ethics in science and technology is to make rules. However, the existing rules and regulations made by the central government and organizations are not yet universally applicable. Meanwhile, the lack of effective constraints to achieve "unity of knowledge and action" is a prominent problem of "rule-based" governance. To further enrich the governance over ethics in science and technology in the future, we should first recognize that the ethics of artificial intelligence examines the relationship between artificial intelligence and human beings, and that human-oriented artificial intelligence should consider how ordinary people view and interact with artificial intelligence. In addition, translating abstract moral norms of humans into concrete rules, i.e., helping technology "acquire human virtues," is another aspect of governance over ethics in science and technology.

Keywords: governance over ethics in science and technology; technology for social good; artificial intelligence; science and technology ethics

聲明:本文為《國(guó)家治理》周刊原創(chuàng)內(nèi)容,任何單位或個(gè)人轉(zhuǎn)載請(qǐng)回復(fù)國(guó)家治理周刊微信號(hào)獲得授權(quán),轉(zhuǎn)載時(shí)務(wù)必標(biāo)明來(lái)源及作者,否則追究法律責(zé)任。

責(zé)任編輯:羅婷