華東政法大學法律學院教授 馬長山
【摘要】算法治理是數(shù)字時代的一個核心問題,它反映著數(shù)字社會的生活規(guī)律和運行邏輯,已經超出了工商社會的治理機制與體系框架,其價值尺度也突破了物理空間的正義范圍,新型的數(shù)字正義則應運而生。因此,在算法治理過程中,應適時確立數(shù)字正義原則,框定數(shù)字正義領域,探索數(shù)字正義實現(xiàn)路徑,從而構建科技向善、以人為本的算法治理秩序,促進我國的數(shù)字法治建設。
【關鍵詞】算法治理 數(shù)字正義 敏捷治理 數(shù)字法治
【中圖分類號】D90 【文獻標識碼】A
【DOI】10.16619/j.cnki.rmltxsqy.2022.10.006
在新興科技革命的推動下,人類開始邁進“萬物數(shù)字化、一切可計算”的新時代。算法不僅成為生產生活的重要組織者,還是社會秩序的重要建構者,但它所帶來的問題和風險也日漸凸顯。為此,世界主要國家都在積極探索構建算法治理體系,從而促進科技向善,推動數(shù)字化轉型和社會變革進步。然而,算法治理帶有顯著的技術性、風險性、迭代性,使其難以套用傳統(tǒng)的治理模式與機制,信息技術倫理也突破了物理空間的正義視域和尺度,這樣,確立與之相應的數(shù)字正義,就成為構建算法秩序的方向指引和價值支撐。
算法治理的正義原則
在當今數(shù)字社會,人類的一切活動都會生成數(shù)據(jù)、時刻都在交換信息,并通過數(shù)據(jù)分析、信息控制和建模計算來確保數(shù)字化生產生活的正常運行。正是基于這一全新的數(shù)字生態(tài),多環(huán)信息圈開始在任何空間中彌散,[1]“不論是人的、動物的或是機械的,都是信息論的組成部分”。[2]因此,數(shù)據(jù)信息就在物理世界(世界1)、精神世界(世界2)之外,形成了一個獨立平行的數(shù)據(jù)世界(世界3)。[3]這個數(shù)據(jù)世界固然是物理世界和精神世界的數(shù)字化呈現(xiàn),但又不是對它們的簡單映射,而是以信息中樞地位來實現(xiàn)對物理世界和精神世界的無界鏈接、分享重構和互動控制。其中,數(shù)據(jù)信息的分享利用是基礎,它并不會像面包那樣,你吃掉一半我就少了一半,恰恰是在不斷的流動分享、復制挖掘和賦值利用中才能生成更多數(shù)據(jù),附加更多意義,創(chuàng)造更多價值;但同時,如果這種分享利用不受節(jié)制,那也必然對數(shù)字人格、數(shù)字財產、數(shù)字交易、乃至分享利用本身帶來嚴重威脅。相對于分享利用,算法的建模計算則是數(shù)字引擎,它既是一個數(shù)據(jù)信息處理系統(tǒng),也是替代決策系統(tǒng)、透析評價系統(tǒng),一方面,憑借算法可以創(chuàng)造出智能化、自動化的生產和服務,讓全社會都能夠分享數(shù)字化的發(fā)展福利;另一方面,算法也會形成多重穿透、讓隱藏事物可視化、以及誘導操縱的能力,從而帶來令人不安的數(shù)字化控制。由此看來,數(shù)據(jù)信息和算法的背后,蘊含著分享與控制的數(shù)字生活悖論。算法治理的核心就在于消解這一悖論,確立并遵循數(shù)字時代的正義原則。
自主選擇原則。隨著數(shù)字化轉型的不斷加速和智能化水平的不斷提高,人們在日常生活中必然會面臨越來越多的算法推薦和算法決策,進而享受智慧便捷的數(shù)字生活。但是,算法并不是無邊界的,用算法來處理人類特有的一些活動,植入太多的計算機邏輯,就“有可能使這些活動喪失最根本的人性”;[4]而算法在生活中的泛化替代和誤用濫用,也很容易演化成一種“要么接受、要么離開”的數(shù)字化強迫。因此,在算法決策之外保留必要的平行選項,維護人類的自主性、個人的選擇性,無疑是數(shù)字正義的根本要求。我國的相關法律、法規(guī)也有相應規(guī)定,主要包括:一是關鍵領域的自主保留。即在涉及個人尊嚴和基本生存的服務領域,政府或者經營者應當控制算法決策的范圍與功能,從而為公民(消費者)保留是否接受自動化決策的選擇空間,提供人類決策(人工服務)的通道。二是個性服務的便捷拒絕。即在政府或者經營者基于個人敏感信息、或者針對個人特征而進行算法決策的情況下,應尊重公民(消費者)的同意權和拒絕權,確保用戶有可以關閉這些算法的便捷渠道,并提供拒絕后的其他選項。三是通暢可靠的救濟保障。即當公民(消費者)對算法決策結果產生質疑、并不能接受該結果時,應當為公民(消費者)提供人類決策的救濟渠道。這樣,才能有效制約算法決策可能產生的數(shù)字控制傾向,更好地發(fā)揮算法決策的積極效能、釋放數(shù)字福利、分享智慧生活,因此,自主選擇是算法治理必須遵循的重要價值原則。
公開透明原則。算法推薦和算法決策之所以備受推崇,很重要的原因就在于它具有勝出人類決策的一些優(yōu)勢,如基于大數(shù)據(jù)分析的科學性、沒有情感立場的客觀性、快速超能計算的高效率等。然而,算法并不是完美的,也不是萬能的,它并不能“解決”所有問題。更為重要的是,無論是在政務服務領域還是在商業(yè)交易領域,算法服務的提供方與接受方都在信息和技術上處于明顯的不對稱狀態(tài),彼此之間也沒有“面對面”的對話互動。此時,算法推薦和算法決策就猶如“盲盒”一樣,“用戶們無法看清其中的規(guī)則,無法提出不同意見,也不能參與決策過程,只能接受最終的結果”,[5]從而形成了眾所周知的算法黑箱,其中難免會蘊含“不穩(wěn)定、不公平和不勞而獲的因素”。[6]為破解這一難題,世界各國的法律和倫理規(guī)范都要求算法具有可解釋性、公開性、可責性。我國《個人信息保護法》第七條、《互聯(lián)網信息服務算法推薦管理規(guī)定》第四條、第十六條也規(guī)定:信息處理者應當公開個人信息處理規(guī)則,明示處理的目的、方式和范圍;提供算法推薦服務,應以適當方式公示算法推薦服務的基本原理、目的意圖和主要運行機制等。這樣才能大幅增強人們對算法服務的便利分享和理性監(jiān)督,有效抑制算法誤用與算法濫用,從而為強化算法治理、促進其友好向善提供必要的價值基準。
公平合理原則。近代以來,在工商社會邏輯和啟蒙思想的基礎上,構建了以人格權、物權、債權等為核心的現(xiàn)代法律制度,形成了私權神圣、契約自由、責任歸己的正義價值觀,并在公法和私法領域確立起相應的公平合理原則。然而,隨著信息革命的到來,網絡化、數(shù)字化、智能化轉型顛覆了人類生活的慣常方式,“從開車到股票交易再到公司人員配置等一系列重大決策權,從人手中轉移到算法手中”。[7]現(xiàn)代法律的正義價值觀和公平合理原則正在面臨嚴峻挑戰(zhàn),進而發(fā)生根本性重塑和時代轉型。
首先,維護交換平衡。在萬物互聯(lián)、數(shù)據(jù)說話的時代,每個人都既是信息生產者又是信息消費者,數(shù)據(jù)信息也因此在生產生活中占據(jù)中樞地位。[8]人們面對網約租車、刷臉支付、個性化推薦、智能投顧、智慧醫(yī)療等數(shù)字化服務時,都需要提供或分享必要的個人信息才能完成。也即在線生活和算法應用提供了智慧便捷服務,但同時,人們也必須把一些必要信息交給平臺和算法,從而形成互惠交換、合理利用的數(shù)字生態(tài)。此刻,就難以僵化地堅守個人隱私權利,也不能簡單搬用“物理時代”的正義原則,而應秉持開放包容的精神,一方面加強對個人敏感隱私信息的保護,另一方面強化個人一般信息的商業(yè)利用和公共利用,[9]從而以算法服務提供方和接受方的互惠交換與利益平衡為基點,確立起數(shù)據(jù)信息處理和算法規(guī)制的新型公平合理原則,實現(xiàn)數(shù)字正義,構建數(shù)字法治秩序。
其次,秉持正當合理。算法無疑是人類的設計之物,無論是AI編寫AI代碼,還是復雜的神經網絡算法,都是在人類的控制和教導下完成的。即便存在程序員也可能說不太清的算法黑箱,但算法也并沒有失控,仍在人類的掌控范圍內。事實上,從數(shù)據(jù)清洗標注、繪制知識圖譜、到算法建模、代碼編寫,都不可避免地嵌入了設計者、操作者的價值理念,都“吸收了設計師的社會觀念和社會目標,并試圖在未來重制它們”。[10]因此,如何限定算法的價值偏好,將其納入正當合理的規(guī)范框架內,無疑是算法治理的根本任務和重要使命。我國《互聯(lián)網信息服務算法推薦管理規(guī)定》明確要求,“提供算法推薦服務,應當遵守法律法規(guī),尊重社會公德和倫理,遵守商業(yè)道德和職業(yè)道德,遵循公正公平、公開透明、科學合理和誠實信用的原則”。具體包括:算法要堅持主流價值導向,避免非法虛假信息傳播,不得利用算法實施屏蔽、操縱、誘導、歧視、不合理限制、不公平不公正對待、以及實施壟斷和不正當競爭等行為。這些都是確??萍枷蛏?、正當合理的基本規(guī)范和價值尺度,需要基于不同的應用場景、不同的權益屬性、不同的類別等級、不同的數(shù)字關系進行厘定和確認。
再次,遵循比例原則。如前所述,算法是一個數(shù)據(jù)信息處理系統(tǒng),它必然以數(shù)據(jù)信息為基礎,直接關乎用戶、企業(yè)和政府等多方的數(shù)據(jù)信息權益;同時,算法又是一個決策系統(tǒng),其決策結果也會對用戶、企業(yè)和政府等多方權益產生重要影響。這樣,算法治理就包含了私權利、私權力和公權力之間的相互關系和權益邊界,也就應遵循比例原則來加以權衡。我國《個人信息保護法》在涉及信息處理、合同訂立履行等方面的多個條款中,均有“不得過度”“影響最小”“最小范圍”“合理范圍”“所必需的范圍和限度”“所必要的最短時間”等規(guī)定,這些規(guī)定正是比例原則的基本要求,也是算法治理的重要支撐。與以往比例原則所不同的是,應遵循以下衡量基準:一是立足數(shù)據(jù)信息的分享與控制屬性;二是堅持算法服務于人、分享數(shù)字發(fā)展福利的主導方向;三是保護數(shù)字人格和數(shù)字生存發(fā)展等基本權利;四是對不對稱關系中處于弱勢地位的算法服務接受方提供必要的優(yōu)先保護。
最后,避免誤用濫用。算法是一種數(shù)字技術應用,在很多領域、很多方面的計算能力和處理能力都超過人類,但并“不是所有可以計算的東西都重要,也不是所有重要的東西都可以被計算”,[11]它也會有自身的局限,如算法錯誤、算法黑箱、算法歧視、算法共謀、算法操控等,這些都會產生嚴重背離公平合理的不良后果。因此,避免算法誤用和濫用,是公平合理原則的底線要求,是維護算法治理秩序的重要保障。
數(shù)字人權原則。在數(shù)字時代,個人信息已經全方位覆蓋了從搖籃到墳墓的全部私人生活,“直至在計算機數(shù)據(jù)庫中形成一個‘人’。”[12]因此,在日常生活中,每個人都既是自然人也是數(shù)字人;而在數(shù)字政府的制度框架下,人們則是數(shù)字公民。其中,無論商業(yè)交易中的算法還是自動化行政中的算法,都有產生數(shù)字鴻溝、算法歧視、算法操控的可能,這就會給人們在數(shù)字社會的生存發(fā)展帶來嚴重障礙,從而出現(xiàn)數(shù)字人權問題。算法技術應用應堅持以人為本,以提高人類的數(shù)字生活能力和生活質量為標準,而不能異化為限制人、操控人的自動手段。聯(lián)合國教科文組織推出的《人工智能倫理問題建議書》就明確指出,人工智能這類技術極具侵入性,它們可能會侵犯人權和基本自由,且被廣泛使用。因此,應明確禁止使用人工智能系統(tǒng)進行社會評分和大規(guī)模監(jiān)控,個體也應該有權訪問甚至刪除其個人數(shù)據(jù)記錄,各國應采取改善數(shù)據(jù)保護和保障個體對自身數(shù)據(jù)的了解和控制權的行動。[13]因此,維護和保障數(shù)字人權,就成為算法治理不可或缺的重要準則。
算法治理的正義領域
以往的正義觀念和理論,基本上都是圍繞身份、地位、財富、機會和條件的分配,以自由、平等和權利的形態(tài)來展開的。然而進入數(shù)字時代后,萬事萬物都會通過網絡化、數(shù)字化、智能化方式加以表達、鏈接、交互和流轉,數(shù)據(jù)信息與建模算法就擔負起重要的關系建構和秩序塑造的功能。此時,公平正義的領域和范圍就不再局限于物理方式的資源分配模式與機制,而是形成了數(shù)字方式的“分享/控制”模式與機制。它所產生的一個嚴重后果是,相當一部分自由、平等、權利、公正的內涵已被數(shù)字化掏空變現(xiàn),只剩“外殼”尚在。例如,外賣騎手的勞動權利一直存在,但“逐低競爭”的算法派單機制卻讓他們形成了難以自控的嚴重“內卷”;商業(yè)交易中的合同權利依然如故,但大數(shù)據(jù)殺熟、算法歧視卻悄然“釜底抽薪”;同樣,老年人的各種權利都未改變,但數(shù)字鴻溝卻使他們失去了實現(xiàn)自己生活權利的能力。這表明,算法治理的重心是應對數(shù)字控制、實現(xiàn)數(shù)字正義。這里的數(shù)字控制,并不是以實物流轉方式和人為手段來直接分配資源,而是通過數(shù)據(jù)信息處理和算法控制來隱性地匹配資源與調動行為,于是就披上了技術的客觀外衣,建立了自動實現(xiàn)的執(zhí)行機制。因此,抑制數(shù)字控制也就成為數(shù)字正義的主要領域。
對數(shù)據(jù)信息的控制。對數(shù)據(jù)信息的控制,是指通過數(shù)據(jù)信息收集、存儲、加工、傳輸、提供、公開、刪除等方式,實現(xiàn)對相對方的數(shù)字錨定。它既是掌控目標對象的前提,也是算法建模的基礎。眾所周知,隨著從商品經濟向數(shù)字經濟的迭代轉型,數(shù)據(jù)信息已成為關鍵的生產要素,算法也成為重要的生產力。為此,信息“與其說是旨在儲藏,不如說旨在流通”,[14]進而把數(shù)字經濟打造成一種“不求所有、但求所用”“可用不可見”的分享經濟樣態(tài)。由于數(shù)字時代的一切社會行為都“圍繞著生產與信息控制”,[15]因此,在大量數(shù)據(jù)分享利用的同時,對數(shù)據(jù)信息的控制就顯得十分關鍵。具言之,一方面,社會生活中個人的數(shù)據(jù)信息隨時會生產出來,也隨時會以提供、傳輸、抓取等方式被互聯(lián)網平臺、技術公司和政府機構所收集存儲和挖掘使用,從而形成了信息優(yōu)勢方和信息弱勢方之間的明顯分野。另一方面,算法治理并不僅限于代碼編寫和計算過程本身,而是一個包括數(shù)據(jù)信息處理在內的“數(shù)據(jù)輸入—建模計算—結果輸出”的系統(tǒng)化形態(tài)。收集、存儲、使用、加工、傳輸、提供等數(shù)據(jù)信息處理過程,反映著信息處理者的不同價值觀和利益偏好,而消費者或公民往往對此難以察覺、也無策應對??梢姡瑪?shù)據(jù)信息控制上的不公平、不合理,實質上是數(shù)據(jù)信息控制能力和數(shù)字行動能力上的鴻溝,從而引發(fā)更嚴重、更廣泛的社會不公。這就要求在算法治理中貫徹數(shù)字正義原則,設置合法、合理、安全的數(shù)據(jù)信息處理框架,強化消費者或公民的數(shù)據(jù)信息控制能力,從而將分享與控制置于數(shù)字正義尺度之中。
基于算法的控制。基于算法的控制,主要是指依托算法推薦或者算法服務,向相對方施加或明或暗的影響,從而干預誘導相對方思想和行為的控制方式,它屬于一種由外及內的間接干預策略。這種控制主要通過如下步驟來完成。首先,全景敞視。即通過大數(shù)據(jù)收集、分析而進行數(shù)據(jù)畫像。如果說在1993年一只狗匿名上網發(fā)表言論,人們并不知道它是一只狗的話;那么到了2013年,“新版的互聯(lián)網不僅僅知道你是一只狗,它還了解你的品種,想賣給你一碗上等的粗粒狗糧。”[16]這時,每個人在大數(shù)據(jù)和算法面前,都只是一個全景敞視的“透明個體”,大數(shù)據(jù)和算法形成了一個“沒人能夠逃離的電子牢籠”。[17]其次,算法投喂。數(shù)字時代的一個重要特征是,“誰掌控數(shù)據(jù)信息、處理數(shù)據(jù)信息,誰就擁有了控制他人行為和思想的能力。”[18]曾經的臉書新聞就設計了一種投喂算法,計算出用戶的個性特征喜好,然后通過“過濾泡”投其所好,定向推送信息。而在美國總統(tǒng)大選中,F(xiàn)acebook、Twitter、YouTube等平臺公司通過大量用戶信息分析,進行數(shù)據(jù)畫像和個性化推送,從而操縱選民的意識和行為,“這種影響不會觸發(fā)用戶的意識,而是一種潛意識,使它們成為你思想的一部分,還讓你覺得這是自己的主見。”[19]同樣,英國脫歐決策過程中,也顯示出一場“新型政治形態(tài)革命”——“未來操控政治的,將是數(shù)據(jù),而不是你的大腦”。[20]最后,歸納偏置。有研究者指出,自動學習技術以及所有的人工智能技術幾乎都反映了其創(chuàng)立者的一種先驗偏置,他們在算法中給我們提供了一個預設性的、已經解釋了的世界。這樣,我們所看到的世界“恰好只是我們期望看見的或我們從訓練中看見的”。[21]這些帶有預設性的看法或者偏愛如果不受限制,將會“在更大程度上操控我們的生活”。[22]由上可見,基于算法的控制,會對人格尊嚴、自由選擇、平等參與、民主權利等產生深刻影響,這就需要按照數(shù)字正義原則,防范算法對人們的偏好誘導、思想控制和行為影響,從而維護數(shù)字人權,實現(xiàn)算法治理的正義目標。
通過算法的控制。通過算法的控制,主要是指通過算法決策來預測、分類、調配或者判定某個事項,進而對相對方的權益和生活產生重要影響的控制方式,它屬于一種自動執(zhí)行的直接干預策略,主要包括以下幾種類型。一是預測評估。近年來,國內外一些金融、投資、警局等公私部門都在大量開發(fā)算法預測評估系統(tǒng),例如,2004年9月至2007年4月,美國科羅拉多的公共福利系統(tǒng)開發(fā)自動化服務系統(tǒng);2013年1月,美國南加州阿罕布拉市警察局運用“預測犯罪”系統(tǒng)(PredPol);其他國家也在開發(fā)金融風險評估系統(tǒng)、城市安全風險評估系統(tǒng);等等。然而,這些對個人的評分和評估——就業(yè)、貸款資格、危險級別,其目的主要是目標篩選,這就很可能形成一種有意或者無意的算法偏見。[23]更為重要的是,它將導致一種被重新分類、評價、比較、甚至被看透的“控制革命”,[24]平等、自由、公正和民主原則都將遭遇重大挑戰(zhàn)和貶損危險。二是算法指令。例如,外賣騎手和網約車的算法派單、平臺的算法定價、算法成交單、智能合約等,它們都是由算法發(fā)出自動化指令,進而實現(xiàn)對人力物力資源的調配。在這里,算法系統(tǒng)已經由簡單工具變成了重要“決策者”和指令發(fā)布者,基于此,“依靠算法決定行動方向的人,可能會被導向固定的路線,就像演員只能照著劇本表演一樣”。[25]一旦存在明顯的價值偏好或者出現(xiàn)錯誤,就可能帶來嚴重的不良后果。三是算法裁決。2021年8月,俄羅斯在線支付服務公司Xsolla使用算法作出的“不敬業(yè)、效率低下”判斷,解雇了147名員工。無獨有偶,2019年美國亞馬遜內部的AI系統(tǒng),就通過追蹤物流倉儲部門員工的工作效率,自動生成解雇的指令。[26]這些無疑都是缺少溫度、漠視人性的算法濫用。在我國,自動化判定、自動化行政、智能裁判的情況也不斷增多,如自動化招投標系統(tǒng)、自動化執(zhí)法系統(tǒng)、自動化裁判系統(tǒng)(智能輔助裁判)等,這些系統(tǒng)都是通過算法決策,來對相應事項做出裁決,經由負責人員確認后生效。這些算法決策在效率性、客觀性、一致性等方面固然能夠超過人類,但它也存在著出現(xiàn)算法錯誤、算法偏見、算法歧視、算法黑箱、算法霸權等問題的可能,甚至會產生“數(shù)字決策系統(tǒng)鎖定”的社會風險。美國的算法實踐表明,算法裁決也可能會“將原有的歧視予以自動化,加劇了不平等”。[27]因此,需要按照自主選擇、公開透明、公平合理和數(shù)字人權原則,對通過算法的控制加以有效約束和規(guī)制,建立科技向善的算法治理秩序。
算法治理的正義路徑
算法治理是數(shù)字時代的全新課題,是一個融合技術、倫理和制度的高度復雜系統(tǒng),其治理方式、治理策略和治理導向均已超出了傳統(tǒng)治理范圍。因此,需要構建新型的治理范式,踐行數(shù)字正義原則,立足數(shù)字正義領域,探索實現(xiàn)數(shù)字正義的新路徑、新策略。
確立敏捷治理的監(jiān)管機制。敏捷治理是數(shù)字時代的新興治理理念,旨在形成快速靈活、包容平衡、共同參與、以人為本的治理模式和機制,從而應對新興技術挑戰(zhàn)、解決創(chuàng)新發(fā)展難題和推進構建智慧治理體系。2022年3月,中共中央辦公廳、國務院辦公廳印發(fā)的《關于加強科技倫理治理的意見》就明確要求敏捷治理、倫理先行,“加強科技倫理風險預警與跟蹤研判,及時動態(tài)調整治理方式和倫理規(guī)范,快速、靈活應對科技創(chuàng)新帶來的倫理挑戰(zhàn)。”為此,探索敏捷治理的算法監(jiān)管機制,已經勢在必行。
首先,秉持數(shù)字法治立場。即擺脫傳統(tǒng)法治的慣性思維,從數(shù)字法治理念和立場出發(fā),按照數(shù)據(jù)信息的基本屬性、算法治理的基本規(guī)律、數(shù)字權益的基本邏輯,來制定監(jiān)管規(guī)則、設立監(jiān)管程序、實施合理規(guī)制策略,既要為創(chuàng)新“踩油門”,又要為秩序“踩剎車”,其標準就是算法“以人為本”、遵循數(shù)字正義,如國家七部委要求以“算法取中”來優(yōu)化外賣送餐的派單機制等,就是重要的嘗試和努力。
其次,探索精細敏捷的治理策略。包括基于算法服務和算法決策的相關重要程度、用戶規(guī)模、動員能力、干預強度等,依法建立精細化的分級分類監(jiān)管機制;建立網信、電信、公安、市場監(jiān)管等政府部門的快捷協(xié)同機制、安全評估和監(jiān)督檢查機制;完善科技倫理審查和監(jiān)管制度,建立及時高效的跟蹤、監(jiān)測、預警科技倫理風險機制;建立靈活多樣、包容審慎的算法合規(guī)機制,實施及時有效的正向激勵監(jiān)管;等等。
再次,強化共同參與合作。針對算法的敏捷治理,技術性、復雜性、系統(tǒng)性、風險性都非常高,僅憑政府力量是難以做好的,因此,需要動員社會力量廣泛參與,包括科技公司、網絡平臺、行業(yè)組織、技術人員、消費者、新聞媒體等,共同維護數(shù)字正義價值,創(chuàng)造遵規(guī)守法的算法治理環(huán)境。
確立責任明確的自律機制。算法治理在很大程度上依賴于技術規(guī)程和操作控制,因此,基于主體責任的算法自律機制就十分關鍵了。目前,世界各國都在積極探索算法治理的自治模式,如微軟、谷歌、IBM等科技公司制定了人工智能開發(fā)的倫理原則。我國企業(yè)在《新一代人工智能治理原則——發(fā)展負責任的人工智能》《新一代人工智能倫理規(guī)范》等政策規(guī)范的指引下,也正在積極行動,促進可信AI的發(fā)展應用。根據(jù)《互聯(lián)網信息服務算法推薦管理規(guī)定》和相應倫理規(guī)范的要求,我國算法治理的自律機制主要包括以下四個方面。
一是落實算法主體責任。算法服務或者算法決策提供者應建立健全算法機制機理審核、數(shù)據(jù)安全和個人信息保護等管理制度和技術措施,進行嚴密的自我規(guī)范;應綜合運用內容去重、打散干預等策略,優(yōu)化檢索、排序、選擇、推送、展示等規(guī)則的透明度和可解釋性;建立完善的用戶自主選擇機制,充分尊重用戶的自主權、選擇權等。
二是建立風險評估預警機制。定期審核、評估、驗證算法機制機理、模型、數(shù)據(jù)和應用結果,發(fā)現(xiàn)問題及時整改修正。同時,可以借鑒美國推特2021年7月推出的“算法偏見賞金”,在社會上公開征求針對平臺“算法偏見”問題的舉措,以打造算法治理的“眾包模式”,[28]從而推進算法自律的機制創(chuàng)新。
三是積極研發(fā)倫理工具。通過科技研發(fā),推進以技術規(guī)制技術的能力和水平,向市場需求方提供合適的風險評估工具和相應的算法修復服務,推動倫理服務的精細化和專業(yè)化發(fā)展。[29]
四是推進AI倫理行業(yè)約束。這是一種全球趨勢,聯(lián)合國教科文組織于2019年啟動撰寫全球AI倫理建議書,于2021年11月在第41屆聯(lián)合國教科文組織大會上通過了全球首份《人工智能倫理問題建議書》。2019年歐盟委員會高級AI專家組(AI HLEG)發(fā)布了《可信賴AI倫理指南》,各主要國家也在積極響應和推進算法治理。在我國,2019年6月,國家新一代人工智能治理專業(yè)委員會發(fā)布了《新一代人工智能治理原則——發(fā)展負責任的人工智能》;2019年5月,人工智能倫理與安全研究中心、新一代人工智能產業(yè)技術創(chuàng)新戰(zhàn)略聯(lián)盟和其他學術機構及產業(yè)組織共同發(fā)布《人工智能北京共識》;2019年8月,深圳人工智能行業(yè)協(xié)會與曠視科技、科大訊飛等數(shù)十家企業(yè)聯(lián)合發(fā)布《新一代人工智能行業(yè)自律公約》。此外,百度、騰訊等主要科技企業(yè)也提出了企業(yè)自身的AI倫理準則;曠視科技還在制定準則的基礎上,成立了人工智能道德委員會,[30]進而推動人工智能安全可靠、可控可信和可持續(xù)發(fā)展。通過這些機制,就可以建立健全行業(yè)標準、行業(yè)準則、自律管理制度和服務規(guī)范,從而更好地促進算法治理,維護新時代的數(shù)字正義。
建立健全有效的社會監(jiān)督機制。在數(shù)字時代,算法應用改變著生產生活的一切,對每個人都會有切實的重要影響。但算法具有很強的技術性、隱形性、復雜性、自動性特征,又讓人們對其難以接近、難以洞察、難以把握。因此,亟需建立健全有效的社會監(jiān)督機制。
其一,暢通社會監(jiān)督渠道?!痘ヂ?lián)網信息服務算法推薦管理規(guī)定》明確要求,算法推薦服務提供者應制定完善服務規(guī)范、依法提供服務并接受社會監(jiān)督,設置便捷有效的用戶申訴和公眾投訴、舉報入口,明確處理流程和反饋時限,及時受理、處理并反饋處理結果。但這一規(guī)定要落到實處,尚需很多努力。而且,政府部門、行業(yè)組織等的監(jiān)督渠道也有待暢通和拓展。
其二,激活監(jiān)督能力。其實,我國的社會組織、基層組織、新聞媒體等并不少,但是并不都能發(fā)揮有效的監(jiān)督作用。因此,激活它們的監(jiān)督能力就至關重要。如2019年南京市建鄴區(qū)要求環(huán)衛(wèi)工人佩戴智能手環(huán)“監(jiān)工”,2020年蘇州推出“蘇城文明碼”等事件,受到社會的關注和質疑,當?shù)卣罱K在算法治理邊界的建議下回歸到審慎行政的策略上,社會監(jiān)督起到了良好效果。
其三,強化數(shù)字能力。我們每個人都具有權利能力和行為能力,并藉此行使自己的權利、履行自己的義務。但進入數(shù)字時代后,每個人不僅要有權利能力和行為能力,還需要有掌握、運用、操作數(shù)字產品和在線處理事務的能力,這樣才能適應和參與數(shù)字生活。因此,面對算法的社會監(jiān)督,就需要人們形成良好的數(shù)字素養(yǎng)和數(shù)字能力,更好地認識算法、體驗算法,并運用數(shù)字能力來監(jiān)督算法,從而維護自身的合法權益。這無疑是推進算法治理,實現(xiàn)數(shù)字正義的廣泛力量。
確立公正可靠的司法保障機制。在法治社會,司法救濟是最后的權益保護和公平獲得通道,也是社會治理的根本支撐。因此,算法治理也不例外。換言之,在算法治理過程中,司法救濟無疑設置了一道維護數(shù)字正義的重要屏障。
由于算法推薦和算法決策帶有調配性和控制性,因此,算法治理中的司法救濟也會更為復雜,利益關系更加重要。其司法救濟方式主要包括:一是算法的司法審查機制,即一旦發(fā)生算法訴訟,司法機關應啟動司法程序上的算法審計,并根據(jù)算法審計結果來進行權益衡量和司法裁決;二是算法案件的公益訴訟機制,將涉及公共利益、弱勢群體權益的算法案件,納入公益訴訟來進行維權保護;三是重要領域、重要權益的重點保護,如對算法訴訟中消費者或數(shù)字公民的基本權益、反壟斷和反不正當競爭、老年人和未成年人的基本權利、關乎生存和發(fā)展的數(shù)字人權等,均需要重點保護。只有這樣,才能體現(xiàn)科技向善、以人為本的精神,也才能更好地實現(xiàn)數(shù)字正義原則,構建良好的算法治理秩序。
結語
事實表明,新興技術應用既具有創(chuàng)造性,也具有破壞性。為此,聯(lián)合國教科文組織發(fā)布的《人工智能倫理問題建議書》突破了“發(fā)展先行”抑或“治理先行”的兩難選擇,強調二者的協(xié)同共進。我國需要秉持包容審慎的治理策略,積極構建科技向善的算法治理制度。然而,科技向善的基準已不再是以物質分配為核心的“物理”正義;而是以信息分享/控制為核心的數(shù)字正義。這就需要基于數(shù)字生產生活方式和數(shù)字行為規(guī)律,有效探索并重建數(shù)字正義理念、數(shù)字正義原則、數(shù)字正義領域、數(shù)字正義程序等,從而為我國的數(shù)字法治建設提供核心動力,奠定堅實基礎。
(本文系國家社科基金重大項目“數(shù)字社會的法律治理體系與立法變革”的前期成果之一,項目編號:20&ZD177)
注釋
[1]參見[英]盧恰諾·弗洛里迪:《信息倫理學》,薛平譯,上海譯文出版社,2018年,第426頁。
[2][14][美]維納:《人有人的用處——控制論與社會》,陳步譯,北京大學出版社,2010年,第12、109頁。
[3]董春雨、薛永紅:《大數(shù)據(jù)哲學——從機器崛起到認識論方法的變革》,北京:中國社會科學出版社,2021年,第37頁。
[4][5][美]盧克·多梅爾:《算法時代:新經濟的新引擎》,胡小銳等譯,北京:中信出版社,2016年,第223、139~140頁。
[6][美]弗蘭克·帕斯奎爾:《黑箱社會——控制金錢和信息的數(shù)據(jù)法則》,趙亞男譯,北京:電子工業(yè)出版社,2015年,第294頁。
[7][美]克里斯托弗·斯坦納:《算法帝國》,李筱瑩譯,北京:人民郵電出版社,2017年,第197頁。
[8]參見馬長山:《數(shù)字法學的理論表達》,《中國法學》,2022年第3期。
[9]參見張新寶:《從隱私到個人信息:利益再衡量的理論與制度安排》,《中國法學》,2015年第3期。
[10][11]Deakin, S. and Markou, C. (ed.), Is Law Computable? Critical Perspectives on Law and Artificial Intelligence, Oxford: Hart Publishing Bloomsbury Publishing Plc, 2020, pp. 135, 104.
[12][英]約翰·帕克:《全民監(jiān)控——大數(shù)據(jù)時代的安全與隱私困境》,關立深譯,北京:金城出版社,2015年,第14頁。
[13]《193個成員國簽署全球首份人工智能與倫理協(xié)議,應對隱私相關等問題 》,https://www.sohu.com/a/505874289_120076174,2021年4月29日訪問。
[15][荷蘭]約斯·德·穆爾:《賽博空間的奧德賽——走向虛擬本體論與人類學》,麥永雄譯,桂林:廣西師范大學出版社,2007年,第16頁。
[16][美]伊萊·帕里澤:《過濾泡——互聯(lián)網對我們的隱秘操縱》,方師師等譯,北京:中國人民大學出版社,2020年,第6頁。
[17][美]安德魯·基恩:《科技的狂歡》,趙旭譯,北京:中信出版集團,2018年,第177頁。
[18][19]《算法操控大選,數(shù)據(jù)左右美國》,https://new.qq.com/rain/a/20201015a025hs00,2021年9月28日訪問。
[20]《新型政治形態(tài)革命,用網絡操控你有多簡單?》,https://www.sohu.com/a/300329750_488672,2021年3月3日訪問;《英國首相背后的男人:策劃脫歐、贏下大選、改寫歷史》,https://ishare.ifeng.com/c/s/7sp1UqmIVAe,2021年3月3日訪問。
[21][美]George F. Luger:《人工智能——復雜問題求解的結構和策略》,郭茂祖等譯,北京:機械工業(yè)出版社,2017年,第483頁。
[22][美]凱西·奧尼爾:《算法霸權——數(shù)學殺傷性武器的威脅》,馬青玲譯,北京:中信出版集團,2018年,前言第V頁。
[23]參見[英]凱倫·楊等編:《馴服算法——數(shù)字歧視與算法規(guī)制》,林少偉等譯,上海人民出版社,2020年,第232頁。
[24][德]克里斯多夫·庫克里克:《微粒社會——數(shù)字化時代的社會模式》,黃昆等譯,北京:中信出版社,2018年,前言第VII~VIII頁。
[25][美]盧克·多梅爾:《算法時代:新經濟的新引擎》,第138、126、127頁。
[26]《被算法“監(jiān)控”的打工人,這家公司150人被算法裁定為“不敬業(yè)”》,https://www.sohu.com/a/484291096_115128,2022年5月17日訪問。
[27][美]弗吉尼亞·尤班克斯:《自動不平等——高科技如何鎖定、管制和懲罰窮人》,李明倩譯,北京:商務印書館,2021年,第5、173~174頁。
[28]佘宗明:《人,是算法的尺度》,https://www.163.com/dy/article/H7AP8V3Q0521N4E0.html,2022年5月18日訪問。
[29]參見曹建峰、胡錦浩:《倫理即服務:科技倫理與可信AI的下一個浪潮》,https://36kr.com/p/1358610582701448,2022年2月5日訪問。
[30]孫明春:《人工智能技術發(fā)展中的倫理規(guī)范與行業(yè)自律》,https://finance.sina.com.cn/review/jcgc/2021-01-13/doc-ikftssan5687816.shtml,2022年5月18日訪問。
責 編/陳璐穎
馬長山,華東政法大學法律學院教授、博導,國家“萬人計劃”哲學社會科學領軍人才,教育部“長江學者”特聘教授,華東政法大學數(shù)字法治研究院院長,《華東政法大學學報》主編。研究方向為法學理論、數(shù)字法治、法社會學。主要著作有《邁向數(shù)字社會的法律》《國家、市民社會與法治》等。
The Justice Criterion of Algorithmic Governance
Ma Changshan
Abstract: Algorithmic governance is a core issue in the digital age. It reflects the law governing people's life in the digital society as well as its operational logic. It has gone beyond the governance mechanism and system framework of the industrial and commercial society. Its value criterion has also broken through the scope of justice in the physical space. A new type of digital justice came into being. Therefore, in the process of algorithmic governance, this article holds that China should promptly establish the principle of digital justice, define the field of digital justice, and explore the path of realizing digital justice, so as to foster an algorithmic governance order that harnesses technology for social good and puts people first, and promote digital rule of law in China.
Keywords: algorithmic governance, digital justice, agile governance, digital rule of law