摘 要:ChatGPT雖然尚未對人們的生產(chǎn)方式帶來根本性變革,但有可能改變?nèi)藗兣c計算機的互動方式,推動從用戶創(chuàng)作到人工智能創(chuàng)作的轉(zhuǎn)型,發(fā)展?jié)摿εc應用空間巨大。與此同時,ChatGPT帶來技術層面、市場層面、規(guī)范層面、國際競爭層面的多重風險挑戰(zhàn)。人工智能技術的發(fā)展和應用,將對人類經(jīng)濟社會發(fā)展帶來深刻影響,我國人工智能技術發(fā)展也面臨新的機遇和挑戰(zhàn)。促進我國人工智能高效安全發(fā)展,應積極引導,促進價值觀念再成型;積極研發(fā)新興應用場景,占據(jù)市場優(yōu)勢地位;確保算法優(yōu)勢;統(tǒng)籌發(fā)展和安全;明確戰(zhàn)略定位,提供宏觀指導;做好風險評估,確保企業(yè)合規(guī)。
關鍵詞:ChatGPT 人工智能 語言模型 機器學習 趨勢研判 規(guī)范引導
【中圖分類號】G32 【文獻標識碼】A
ChatGPT代表生成式人工智能技術及其商業(yè)應用的爆發(fā),引發(fā)產(chǎn)業(yè)和行業(yè)大變革
2022年11月30日,美國人工智能公司OpenAI推出基于深度學習的大語言模型ChatGPT,可實現(xiàn)交互式問答、創(chuàng)作、編程等復雜功能,備受市場關注。據(jù)報道,ChatGPT上線兩個月,全球日活用戶就已突破1億,成為歷史上用戶增長最快的應用程序。2023年2月1日,OpenAI在其官網(wǎng)主頁宣布,將試點ChatGPT付費訂閱版ChatGPT Plus,每月收費20美元。由此可見,隨著企業(yè)內(nèi)部成本壓力加大,技術可用度日趨成熟,人工智能產(chǎn)業(yè)正加速從前沿技術探索向商業(yè)化落地轉(zhuǎn)型。ChatGPT的應用前景包括對話式機器人、智能創(chuàng)作、編程機器人等;此外,其在教育、學術、客服等領域的應用也在逐漸落地。
ChatGPT的基本模式是人工智能生成內(nèi)容(AIGC),專注于生成語言文本,并一定程度上替代現(xiàn)有搜索引擎功能。與以往的對話式人工智能(如微軟小冰)相比,ChatGPT核心能力包括:對問題的理解能力大幅提升,可以實現(xiàn)連續(xù)多輪對話;結果的準確性大幅提升,同時可以主動承認錯誤、發(fā)現(xiàn)無法回答的問題;具備識別非法與偏見的機制,針對不合理提問進行提示,并拒絕回答;理解用戶需求并創(chuàng)造內(nèi)容,甚至可以協(xié)助進行代碼編寫。雖然目前ChatGPT無法給人們的生產(chǎn)方式帶來根本性變革,但有可能改變?nèi)藗兣c計算機的互動方式,推動從專家生成內(nèi)容(PGC)、用戶生成內(nèi)容(UGC)到人工智能生成內(nèi)容(AIGC)的轉(zhuǎn)型。
全球著名信息技術研究與顧問咨詢公司高德納(Gartner)將人工智能生成內(nèi)容(后文統(tǒng)一用AIGC)列為最有商業(yè)前景的人工智能技術,預計AIGC行業(yè)將在2—5年內(nèi)將進入成熟期,發(fā)展?jié)摿εc應用空間巨大。ChatGPT的商業(yè)化服務探索、AIGC賽道的投資成為當前關注焦點。
AIGC領域的總體態(tài)勢表現(xiàn)為:國外頭部機構引領技術和商業(yè)應用,國內(nèi)整體進度落后2—3年,尤其是基礎技術研發(fā)方面。此外,除科技巨頭積極布局AIGC行業(yè)外,科技創(chuàng)業(yè)公司的機會成本也顯著增加。目前,國外多家生成式人工智能創(chuàng)業(yè)公司獲得大筆融資且擁有較高估值。ChatGPT具備強大的交互和信息檢索能力,對谷歌、百度等傳統(tǒng)搜索引擎公司構成潛在替代風險,倒逼搜索引擎行業(yè)進行技術升級。用戶可以直接在ChatGPT以提問形式獲得期待答復,比起傳統(tǒng)在搜索引擎人工瀏覽整合答案的效率大大提升。目前,各大搜索引擎企業(yè)正在加速將AIGC嵌入其網(wǎng)站中,例如微軟將ChatGPT應用于其搜索引擎必應(Bing)中,百度于3月推出人工智能聊天機器人文心一言,并整合到其搜索引擎中。當前AIGC領域領先的國外公司主要包括OpenAI、Stability AI、Midjourney、Jasper等,其中OpenAI技術積累最強,發(fā)布了多款AIGC底層算法。國內(nèi)公司如阿里、網(wǎng)易、百度、騰訊、字節(jié)等均在部署推出AIGC的應用產(chǎn)品。
基于此,當前一種觀點認為ChatGPT是科技史上的里程碑事件、顛覆性成果,會刺激基于人工智能的商業(yè)模式爆發(fā)式發(fā)展,進而引發(fā)產(chǎn)業(yè)和行業(yè)大變革。另一種聲音則認為ChatGPT只是近年來持續(xù)發(fā)展的人工智能技術的一次成功的商業(yè)化應用,距離真正的人工智能還有很長的路,甚至可能并非在正確的道路上??傮w而言,ChatGPT的橫空出世,利好國內(nèi)外算力與存儲(芯片、計算機等)相關基礎設施發(fā)展以及數(shù)據(jù)、算法等AIGC商業(yè)化應用,但仍不能忽視其所帶來的潛在道德和社會危險。
ChatGPT帶來的風險挑戰(zhàn)
OpenAI首席執(zhí)行官Altman曾在推特承認,真正的強人工智能(Artificial General Intelligence,AGI)可能在未來十年內(nèi)實現(xiàn)。所以,當前必須極其認真地對待其所帶來的網(wǎng)絡安全等一系列風險。
技術層面的風險
從技術層面而言,人工智能語言模型GPT的出現(xiàn)和升級意味著語言人工智能和人工智能整體技術水平的顯著進步。但若人工智能基礎設施不及預期,大模型訓練就無法完成或者達不到預期效果。當前AIGC技術仍有局限,模型仍需持續(xù)迭代優(yōu)化,技術發(fā)展可能存在不及預期風險,具體包括算力支持不及預期、數(shù)據(jù)質(zhì)量不及預期等。尤其是我國在AIGC領域仍處于發(fā)展初期,技術迭代速度較慢,基礎技術研發(fā)領域創(chuàng)新性供給不足。ChatGPT目前仍存在很多局限性,需進行持續(xù)技術優(yōu)化。例如,ChatGPT可能生成不正確或荒謬的信息,抑或是正確但無用的廢話,也可能會產(chǎn)生違反倫理道德的答案。由于其所基于的訓練數(shù)據(jù)庫僅截至2021年(而非基于實時數(shù)據(jù)),也會產(chǎn)生回答已經(jīng)過時的現(xiàn)象。
市場層面的風險
從市場層面而言,新一代人工智能語言模型的升級推動AIGC的發(fā)展,極大拓展了市場規(guī)模。根據(jù)高德納(Gartner)預測,到2025年AIGC產(chǎn)生的數(shù)據(jù)將占所有數(shù)據(jù)的10%,2030年AIGC市場規(guī)模將超過萬億人民幣。目前,因為多重原因,各國類似于ChatGPT的技術發(fā)展不完善、不平衡,應用不及預期。若ChatGPT等技術發(fā)展不及預期,AIGC滲透率未能如期提升、應用場景受限,理論上存在的潛在市場規(guī)模就無法充分釋放。對于我國而言,國內(nèi)企業(yè)以及國內(nèi)外企業(yè)對于同一市場的開發(fā)與分配之間的不均衡可能會導致蜂擁而上的相關企業(yè)最后陷入無效競爭或者惡性競爭的狀態(tài),以及投入與產(chǎn)出的極不對稱。
規(guī)范層面的風險
ChatGPT帶來的規(guī)范層面的風險挑戰(zhàn),主要包括以下幾個方面:
第一,人工智能驅(qū)動網(wǎng)絡犯罪風險。當前,ChatGPT使得網(wǎng)絡犯罪分子更容易進行低級別的網(wǎng)絡攻擊。ChatGPT可以產(chǎn)生多種語言的釣魚郵件,即使不懂英文或高級代碼的犯罪分子也可以輕易達成犯罪目的。ChatGPT可以被要求創(chuàng)建惡意軟件來檢測敏感的用戶數(shù)據(jù),還可以入侵計算機系統(tǒng)或電子郵件賬戶以獲取重要信息。國外科技媒體Bleeping Computer的網(wǎng)絡安全研究員Ax Sharma曾讓ChatGPT寫了一封令人信服的釣魚郵件,并創(chuàng)建了JavaScript來竊取信用卡號碼。然而,ChatGPT也許只是人工智能驅(qū)動網(wǎng)絡犯罪的開始。芬蘭一篇題為《人工智能驅(qū)動的網(wǎng)絡攻擊的安全威脅》的研究論文認為,未來五年,人工智能的迭代確實將改變網(wǎng)絡安全攻擊者和防御者的模式。
第二,知識產(chǎn)權與隱私保護風險。由于ChatGPT是以訓練數(shù)據(jù)模式為基礎的,所以它不具備原創(chuàng)性思維和創(chuàng)造性反應的能力,因此ChatGPT生成的文本可能導致抄襲,此外版權歸屬與深偽技術也為知識產(chǎn)權保護帶來困境。由于對抄襲的擔憂,ChatGPT已經(jīng)在美國紐約和西雅圖的學校被禁止使用。此外,ChatGPT引發(fā)了關于用于訓練和改進的個人數(shù)據(jù)的隱私和安全問題,它保留了用戶個人數(shù)據(jù)和敏感信息,一旦數(shù)據(jù)被濫用,會造成隱私泄露風險。簡單地說,所有與ChatGPT的對話都可以被存儲,并由人類培訓師審查,以檢查和改進人工智能模型。人工智能可能會生產(chǎn)違反常規(guī)、違背法律和道德的內(nèi)容,或幫助人類以作弊等形式完成違反常規(guī)、違背法律和道德的行為。由于 AIGC 發(fā)展處于早期,政策監(jiān)管仍不明確,利用 ChatGPT 生成的內(nèi)容可能存在侵犯其他內(nèi)容知識產(chǎn)權等規(guī)范層面的風險。與任何能夠產(chǎn)生類似人類文本的技術一樣,ChatGPT對網(wǎng)絡安全和隱私也會產(chǎn)生消極影響,尤其是風險因素的存在可能會改變網(wǎng)民對于網(wǎng)絡世界的認知,進而改變甚至顛覆網(wǎng)絡安全系統(tǒng)。網(wǎng)民應用ChatGPT主要可能觸及的規(guī)范風險包括:
錯誤信息風險:ChatGPT改變了傳統(tǒng)的網(wǎng)絡搜索方式與傳播方式。雖然大型語言模型難免會產(chǎn)生錯誤信息,但只有當錯誤信息被廣泛傳播、閱讀并相信才會產(chǎn)生傷害。ChatGPT在網(wǎng)絡環(huán)境下具有大規(guī)模且廉價生成文本的能力,若被惡意濫用,勢必會使得虛假信息在網(wǎng)絡世界廣泛傳播。
深偽技術風險:基于大數(shù)據(jù)自然語言處理模型,ChatGPT通過深偽技術產(chǎn)生的文本與人類書寫的文本沒有區(qū)別。這可以用于在線模仿個人。而深偽文本的廣泛傳播會導致人們對于網(wǎng)絡世界信息傳播與人際交流的不信任。
數(shù)據(jù)泄漏風險:ChatGPT基于大型網(wǎng)絡文本數(shù)據(jù)庫進行了預訓練,因此它可能包含敏感信息或偏見。如果模型與包含敏感信息的數(shù)據(jù)(例如個人數(shù)據(jù),財務數(shù)據(jù)或健康數(shù)據(jù))一起使用,這可能會導致隱私漏洞。
第三,政策監(jiān)管漏洞。當前AIGC處于發(fā)展初期,相關政策規(guī)范處于滯后和監(jiān)管不明的狀態(tài)。首先在技術層面,監(jiān)管機構面臨算法不透明、技術障礙等問題,進一步增加了監(jiān)管難度。其次,在法律規(guī)范層面,當前算法與人工智能領域相關法律規(guī)范仍處于缺位狀態(tài),監(jiān)管機構面臨采取行動缺乏對應法律依據(jù)的現(xiàn)實困境。
國際競爭局面的挑戰(zhàn)
第一,技術封鎖挑戰(zhàn)。目前ChatGPT沒有對中國用戶開放使用,無法用國內(nèi)手機號進行注冊,國內(nèi)用戶想要使用ChatGPT存在諸多限制??萍茧m然無國界,但是科技公司有國籍。而ChatGPT未對中國用戶開放,實則也是這些年中美科技博弈的縮影,是美國實行對華技術封鎖的體現(xiàn)。OpenAI公司目前掌握著AIGC底層算法和核心技術,也就占領了國際社會該領域的技術話語權。
第二,國家安全風險。根據(jù)路透社2月13日的報告,由于ChatGPT對國家安全的影響,美國立法者已經(jīng)著手相關立法工作。對于我國而言,一方面,由于OpenAI公司本身的政治立場,ChatGPT在回答政治問題,尤其是中美問題時,存在明顯的親美貶中的傾向;另一方面,惡意行為者、其他非國家行為者,對中國有敵意的國家行為者可能會利用這些系統(tǒng),故意訓練或生成錯誤的,甚至是詆毀我國的信息。
從ChatGPT看人工智能生成淵源和現(xiàn)實影響
從“奇點”到“爆點”的推動要素。從數(shù)年前甚囂塵上的人工智能“奇點論”至如今對話交互式人工智能應用成功與全社會層面進行交互,人工智能從“奇點”走向“爆點”的事實已露端倪。然而所謂“爆點”,爆于何點卻需要更嚴謹?shù)囊嘏c趨勢研判才能佐證。依目前來看,近期的人工智能爆點源自于接近性門檻降低帶來的應用用戶群體急速擴張與對行業(yè)既有價值規(guī)則的沖擊,更深一層則源自于機器學習產(chǎn)生以來,以多重語料庫為學習材料不斷打磨鍛煉而形成的語言交互及邏輯模型。人工智能與語言交互領域的突破源自于對于相應要素的長期積累與培育打磨。以上效果的最終呈現(xiàn)自互聯(lián)網(wǎng)發(fā)明伊始便開始沉淀,并由硬件與算力的提升及互聯(lián)網(wǎng)共享數(shù)據(jù)內(nèi)容的海量增殖而最終得以完善。
束羈于預設的功能范疇。雖然以ChatGPT為代表的交互式人工智能應用已展現(xiàn)了令人瞠目的智能性與邏輯編排能力,但其展現(xiàn)卻仍滯留于“高于一般,低于前沿”的發(fā)展階段,且將長久處于該階段。導致這一結果的原因有二:其一,機器學習的基礎材料與模型機理皆是由人力完成,語言作為人力交互的最基本表達方式也是最簡單的呈現(xiàn),其表現(xiàn)方式在機器易學的同時也易為大眾所接受,但無論其對基礎材料的重新編排如何精妙,其高度遠無法超過語料庫本身所呈現(xiàn)的邏輯最高點,這也是由語言作為表達工具的邏輯功能所限。其二,位于前沿的科學研究與發(fā)現(xiàn)皆為人力突破極限所衍生的新高度與新事物,其中除科學技術與發(fā)現(xiàn)技巧之外,大部分創(chuàng)新成果需要對新事物發(fā)現(xiàn)進行符合人類知性與感性邏輯的選擇。大部分技術選擇并不一定最科學,卻最符合人的感性與認知,而機器目前無法代替人類完成這一選擇。哪怕機器能夠代替人類選擇,人類也會出于主觀能動性,對于機器篩選結果進行再次審核監(jiān)督,從而進行知性與感性的糾正。
賦值社會效果有待突破。人工智能賦值社會的技術應用周期較長,從開發(fā)到各行業(yè)落實應用常常需要緩慢的過程。而如今飛快提速的對話式人工智能是社會層面全盤接觸人工智能的開始。對話交互的方式提升人們獲取信息的效率,減少了人與人溝通過程中的思想負擔與理性壓制,儼然成為一種無思想壓力的新社交體現(xiàn)。而廣范圍的應用卻也使得獲取信息的途徑減少,在人工智能本身尚不能保證其內(nèi)容準確度及與人類價值觀念的符合度時,這種單一來源的交互問答剝奪了人與人交互并驗證思想與內(nèi)容對錯是非的路徑,易產(chǎn)生負面效果,此為途徑上的缺失。
社會面的全接觸效果也源于營銷與宣傳帶來的眼球吸引效應。美國谷歌和微軟等大型科技企業(yè)參與相關競爭,更吸引著全球熱切的目光。但是,直至目前,公開的對話式人工智能應用仍存在嚴重缺陷。雖然人工智能通過讀取大量數(shù)據(jù),可以給出像模像樣的答案,但也存在很多致命性錯誤或缺陷。很難說人工智能真正理解了問題和自己用于作答的詞匯的含義,此為內(nèi)容上的缺失。通過梳理ChatGPT等對話人工智能出現(xiàn)的諸多錯誤,就可以發(fā)現(xiàn)機器要達到真正的智能所面臨的核心技術課題仍未解決,從內(nèi)容和途徑上都尚無法完成賦值社會的目標追求。
人工智能未來發(fā)展變化趨勢
加速推動基礎研究。就目前的發(fā)展趨勢看,未來人工智能將持續(xù)、深度賦能科學研究活動,為科研活動提供新的、革命性的基礎性操作平臺與方法,推動科研活動由傳統(tǒng)的研究模式,擴展至智能式研究模式,從而大幅提高科學研究效率,甚至顛覆當前主流科研方法。社會大眾對人工智能應用層面的全盤接觸始于ChatGPT,而各專業(yè)領域與人工智能的對接融合卻早已產(chǎn)生顯著成效。如天文學領域利用數(shù)據(jù)訓練卷積神經(jīng)網(wǎng)絡,通過給定一個引力透鏡信息估算暗物質(zhì)能量比例參數(shù)。化學領域在人工智能導入后實現(xiàn)了高速合成反應的高效率實操,其效率與精確度遠高于手工提取設計。另有諸如醫(yī)學、生物學等領域的人工智能前沿應用已逐漸解決包括縮減臨床試驗監(jiān)測周期、快速有效分析與提取遺傳數(shù)據(jù)并繪圖等損力耗時的繁瑣工作。人工智能的作用機理決定了它很難在某特定領域超越最先進的人力,卻可能在長時間的算力與模型積累之下,超越大部分的人力范疇。但明顯可見的是,通過數(shù)量級與效率的疊加無法完成的工作,人工智能也無法解決,就如同人類決策的復雜與知性無法復制。
對于價值觀念的顛覆性遠超過技術本身的顛覆性。機器學習提供了不同以往的研發(fā)與溝通效率,卻并非人工智能帶來顛覆科技的象征。此處并非否定人工智能在應用層面產(chǎn)生了對社會邏輯與產(chǎn)業(yè)倫理各層面的顛覆效果,而是人工智能對于技術研發(fā)的顛覆性遠不如對社會層面價值觀念的顛覆性來得更為明顯與直接。交互式人工智能是人類社會認識和熟悉人工智能的一扇窗口,從這扇窗口中我們窺見了其超過一般人群的表達能力、邏輯思維能力、記憶與組織能力、管理與領導能力,使之從一般人的視角與立場出發(fā)明顯在與人力的比較中處于優(yōu)勢地位。但這也正是由于人類社會長期積累的語言邏輯知識的數(shù)量級疊加帶來的賦能。細讀之下,ChatGPT嚴謹邏輯內(nèi)容下的空洞說明與缺乏內(nèi)涵深度的思想羅列在深度思維層面顯現(xiàn)出了其薄弱性,更遑論對于具有爭議性的問題及新興科學發(fā)現(xiàn)的更新效率上,ChatGPT明顯弱于科學前沿的開拓者。由此可知,技術所帶來的顛覆性主要源于其大幅度介入社會生活所帶來的沖擊。
人工智能的社會意義與市場意義。人工智能目前呈現(xiàn)的效果具有積極的社會意義與市場意義。在社會層面,廣泛的接受度及其對社會民眾帶來的沖擊與震撼,可讓人類與其他社會主體重新認識人工智能對于社會的影響力與未來趨勢,對于提升接受度,從而刺激開發(fā)主體與實施主體進行更進一步的開發(fā)與完善具有積極意義,進而影響市場層面。市場意義帶來的應用效果與研發(fā)效果疊加目前已見端倪,包括我國頭部企業(yè)在內(nèi)的互聯(lián)網(wǎng)平臺與資源企業(yè)正在積極投入到交互式人工智能的開發(fā)與應用當中,不久之后將帶動更大范圍與更深層面的技術開發(fā)與市場聯(lián)動。
成就智能型研發(fā)的有效工具。目前為止的主流科研模式仍基于實驗操作方法,執(zhí)行問題提出、方法設計、模型創(chuàng)建的基本規(guī)程,最終解決既定問題。智能型科研模式則強調(diào)對科研大數(shù)據(jù)的智能化處理與操作,獲取數(shù)據(jù)之中的潛在規(guī)律、發(fā)現(xiàn)其中的異常、智能構建規(guī)律模型等,或是通過自動化、持續(xù)性的工具操作來解放科研人員體力與精力。人工智能對科學研究的意義,不僅限于輔助性的獲得新科學發(fā)現(xiàn)、新數(shù)據(jù)規(guī)律,更重要的是,它愈發(fā)成為一種新型的基礎性科研平臺,或是通過為整個科學研究提供革命性研究工具,來提高整個科學研究活動效率。
我國人工智能發(fā)展面臨的機遇與挑戰(zhàn)
社會面與市場面接受度不同。任何創(chuàng)新都將在一定周期內(nèi)處于低接受度的實驗階段,這個周期的長短取決于社會層面的接收程度與技術本身融入社會需求的效果。而此次ChatGPT卻是先融入社會范疇之后,在一定領域產(chǎn)生了融入后剝離的逆向效果。如近期多家權威期刊對于以人工智能交互表達而生成的文章內(nèi)容持排斥意見,并引為禁止刊載的理由。各級學校、教育機關也頻頻表示對學生依靠ChatGPT完成作業(yè)、報告等情況加以制約。這類逆剝離現(xiàn)象源于人工智能作為工具過度深入介入人類社會行為,從而對既有行為效果產(chǎn)生了扭曲。如同技術的創(chuàng)新研發(fā)終將服務于人類社會一樣,在效果上扭曲人類社會既有規(guī)則并引發(fā)負面影響的人工智能應用方法自然會受到社會排斥。而社會的排斥并不直接引起市場層面的排斥,因為社會面產(chǎn)生斥力的原因便是由于不同立場人群間一部分人產(chǎn)生需求,一部分人抵制需求。需求存在,則市場面供給就可能持續(xù),是否保持市場面的供給則需要規(guī)則與制度依據(jù)社會選擇進行制約。
基礎研究與產(chǎn)業(yè)鏈優(yōu)勢。人工智能所能帶來的機械操作效率積累,為基礎技術的研發(fā)帶來了巨大的利好條件,將有望使大部分研究人員從枯燥且易錯的基礎操作當中解放出來,完成更多的前沿設計工作。我國目前產(chǎn)業(yè)鏈優(yōu)勢明顯,研發(fā)資源與人力積累豐厚,卻因時間軸上晚于西方,在基礎研究上處于劣勢地位。人工智能應用于各研究領域,將有望在基礎研究積累上進一步解放資源,提升創(chuàng)新與創(chuàng)造能力,為進一步的產(chǎn)業(yè)積累與前沿突破提供有利條件。
西方國家的先發(fā)優(yōu)勢影響。通過對本次語言交互人工智能應用爆發(fā)的研判,可見目前西方在技術積累與應用場景開發(fā)上對比我國處于優(yōu)勢地位。美國開發(fā)的ChatGPT,采用美西方掌握控制的語言文檔資料數(shù)據(jù)庫(大數(shù)據(jù))訓練引導產(chǎn)生的結論,暴露了其意識形態(tài)的傾向性、歸屬性、強制性。同時,開源促成了技術模型的接近性。我國對于人工智能跟進速度與效率始終保持高度發(fā)展狀態(tài),多年來形成的技術市場與產(chǎn)業(yè)密度決定我國的優(yōu)勢在于對于新興應用的落地執(zhí)行與基于市場反饋的多元優(yōu)化。多元場景落地基礎條件中包括資本、技術、執(zhí)行與市場接受度等方面,持續(xù)發(fā)展互聯(lián)網(wǎng)經(jīng)濟、數(shù)字經(jīng)濟的我國,兼有穩(wěn)步推進的條件與廣泛的用戶積累。
確保技術本身與應用環(huán)境的安全性。2010年開始并持續(xù)到現(xiàn)在的人工智能浪潮并不是人類思考邏輯,而是由讓計算機自己歸納出數(shù)據(jù)的各種類型的機器學習來引領。隨著相當于計算機大腦的半導體性能越來越高以及互聯(lián)網(wǎng)普及,可以收集全世界的數(shù)據(jù),被稱為“深層學習”的可以識別復雜類型的軟件技術問世等要素全部得以實現(xiàn)。由于機器學習逐漸到達能力提升臨界點,目前的人工智能應用尚未脫出現(xiàn)有規(guī)則控制,短期未來也不會。然而人工智能介于技術開發(fā)與產(chǎn)業(yè)應用的爆發(fā)臨界卻是不爭的事實。鑒于國內(nèi)外安全形勢,在我國總體國家安全觀政策框架下,未來應用于各社會及產(chǎn)業(yè)全景的人工智能是否可控,將是判別一款應用是否可推進的基礎條件。
促進我國人工智能發(fā)展的對策建議
積極快速引導,促進價值觀念再成型。人類決策的復雜與知性無法復制。監(jiān)督學習是未來主動左右人工智能服務內(nèi)容與價值傾向的主要手段。積極賦予人工智能人性價值判斷,結合網(wǎng)絡語料對交互式人工智能進行有效的人工監(jiān)督學習,通過用戶反饋強化學習,導入人類社會的需要與價值判斷,將避免其產(chǎn)生社會負面影響。同時,根據(jù)不同行業(yè)對于人工智能體驗的需要,針對各行業(yè)影響效果,推動細化規(guī)則,有效監(jiān)督落地,是達成細節(jié)監(jiān)管的必要條件。
積極研發(fā)新興應用場景,占據(jù)市場優(yōu)勢地位。人工智能技術所涉及的應用場景繁雜,目前各行業(yè)均已導入了有效的機器學習機制,形成了可推動的應用場景。基于我國產(chǎn)業(yè)鏈整體優(yōu)勢與基礎數(shù)據(jù)提供源的體量優(yōu)勢,比之交互式泛娛樂效果的人工智能應用,我國有望在西方占有交互式人工智能探索主動權的大環(huán)境下應用和推動包括主要產(chǎn)業(yè)領域在內(nèi)的人工智能應用模式落地,呈現(xiàn)與西方不同的服務于基礎產(chǎn)業(yè)與前沿研究的深層發(fā)展模式。同時,需始終保持審慎態(tài)度,控制細分領域顛覆性效果肆意膨脹。
確保算法優(yōu)勢。當前我國缺乏核心算法,過度依賴開源,幾乎93%的國內(nèi)研究者使用人工智能開源軟件包。雖然我國也有少數(shù)學者做出了原創(chuàng)性研究成果,但比之西方在實踐階段的擴展尚有明顯不足。日前,西方包括谷歌在內(nèi)的人工智能研究主體紛紛宣布裁員,許多知名的開源開發(fā)者遭到解雇,這或?qū)槲覈铀俜e累、實現(xiàn)超越提供有利條件。但也應當注意,開源部分的切割裁員更將帶來開源資源和開源社區(qū)活躍度的下降,需慎防開源算法被西方國家利用成為鉗制我國人工智能學習發(fā)展的工具。
統(tǒng)籌發(fā)展和安全。在發(fā)展中規(guī)范,在規(guī)范中發(fā)展,保證企業(yè)發(fā)展在法治軌道上運行。一方面,積極鼓勵企業(yè)通過自身的發(fā)展推動經(jīng)濟社會發(fā)展,對于企業(yè)的正當權益應該通過立法的形式予以確認,對企業(yè)有可能的違規(guī)違法行為予以及時糾正處理;另一方面,政策往往起到引領經(jīng)濟社會發(fā)展的作用,可以通過政策的形式對企業(yè)發(fā)展的方向予以指引。人工智能的應用涉及網(wǎng)絡安全、數(shù)據(jù)安全、個人隱私等,一方面我們可以在現(xiàn)有法律規(guī)范的框架內(nèi)予以規(guī)范;另一方面對于企業(yè)發(fā)展的新業(yè)態(tài)若無法通過現(xiàn)有法律予以規(guī)范的,要及時立法,確保有法可依、依法行政。
明確戰(zhàn)略定位,提供宏觀指導。一方面,人工智能技術的應用促進社會發(fā)展、節(jié)約社會開支、提高運作效率,因此國家總體上應該鼓勵人工智能技術發(fā)展與應用,保護企業(yè)積極性;另一方面應該給企業(yè)的發(fā)展以宏觀指導,知悉商業(yè)逐利的本質(zhì)以及市場營銷的本性,與國外企業(yè)積極競爭引領權,避免國內(nèi)產(chǎn)業(yè)重復建設、惡性競爭。
做好風險評估,確保企業(yè)合規(guī)。在企業(yè)自身發(fā)展過程中,為了有效降低各種風險,要考慮使用ChatGPT模型的潛在后果并采取措施最大程度地降低濫用風險:一是限制對ChatGPT模型的訪問,監(jiān)管其使用情況并查看數(shù)據(jù),然后再將其提供給模型以過濾或刪除敏感信息;二是使用安全和私人的計算環(huán)境并正確處理數(shù)據(jù),以防止數(shù)據(jù)泄露或未經(jīng)授權訪問數(shù)據(jù);三是定期監(jiān)管和審核該模型的性能和正在處理的數(shù)據(jù),可以揭示并防止濫用或操縱。
結語
強化人工智能對各產(chǎn)業(yè)及各行業(yè)的支撐作用,對我國未來發(fā)展具有重大意義,而基于我國堅實的產(chǎn)業(yè)與技術基礎,人工智能的研發(fā)溢出效果也將在不久后顯現(xiàn)。目前,社會面對人工智能的認知還有不足,由于對話式交互方式的出現(xiàn),社會與產(chǎn)業(yè)層面對人工智能的追逐產(chǎn)生了更加狂熱的傾向。由于人工智能無法做到領導前沿與指明方向的功能,因此數(shù)量級與效率的疊加無法完成的工作,需由宏觀決策加以引導。位于“爆點”的人工智能應用無法對新興技術與產(chǎn)業(yè)領域進行超前研判,因此宏觀的理性認知與發(fā)展決策變得至關重要。
【本文作者為浙江大學光華法學院教授】
參考文獻
[1]Vaccari, C., & Chadwick, A. (2020). Deepfakes and Disinformation: Exploring the Impact of Synthetic Political Video on Deception, Uncertainty, and Trust in News. Social Media + Society, 6(1).
責編:周素麗/美編:王嘉騏