作為技術中介,算法無形中左右著我們對外界信息的認知和判斷——我們會不知不覺地把算法建構(gòu)的世界等同于現(xiàn)實世界,久而久之陷入“過濾泡”與“同溫層”。當下,確保算法應用符合主流價值觀,是技術有序發(fā)展的應有之義,更是每一個在“算法化生存”背景下社會個體的現(xiàn)實需要。真正助力算法技術的良性發(fā)展,需要從“多元共治、價值向善、以人為本”三個方面入手。
多元共治方面——明晰各方主體責任,倡導企業(yè)平臺自治、政府問責監(jiān)督、公眾參與管理的協(xié)同治理。平臺應用方應加強行業(yè)自我倫理審查,特別關注對誘導沉迷、引導高額消費等違背公序良俗的算法模型的審查;確立信息搜集的邊界,充分保障用戶的隱私權(quán)與知情權(quán)。有關部門應針對算法進行分級、分類管理,做好針對不同類型算法的備案管理;同時應加強部門間協(xié)作,面對可能涉及多部門交叉的算法違規(guī)問題時協(xié)同處置。對公眾而言,應加強對“算法素養(yǎng)”的持續(xù)培育,通過讓廣大用戶監(jiān)督算法,共同營造清朗的網(wǎng)絡空間。
價值向善方面——引導主流輿論,堅持算法的正向應用,構(gòu)建“規(guī)范化、有溫度、更透明”的算法傳播環(huán)境。相關部門應要求算法應用服務的提供者在算法設計階段提交及公開其基本原理、目的意圖、運行機制等內(nèi)容,讓算法透明性原則更具操作性,從流程上規(guī)避算法設計衍生的“自動化不平等”現(xiàn)象。在算法開發(fā)環(huán)節(jié)中,應堅守價值準繩,避免功利趨向和流量導向,確保主流價值觀和道德觀融入代碼程序的設計源頭。在行業(yè)規(guī)范環(huán)節(jié)中,針對信息謬誤、算法歧視和技術失靈等問題,基于“可信任AI”理念推動“可信賴算法”“公正算法”“向上向善算法”的實現(xiàn)??梢钥紤]通過引入第三方算法評估、提升算法可解釋性、訓練數(shù)據(jù)的有效干預、打通用戶申訴渠道等,塑造社會對智能技術的信任管理機制。
以人為本方面——提升算法推薦應用的“群體適配性”,尋求“人機協(xié)商”的共通意義空間,強調(diào)人的主體性。算法治理需要以問題為導向,著眼不同群體遇到的差異性問題。比如,對未成年人,平臺方應設置“青少年系統(tǒng)”,減少沉迷互聯(lián)網(wǎng)帶來的負面影響,還應杜絕色情、暴力、血腥等“少兒不宜”類信息向未成年人的推送。對老年群體,應加強算法的適老化改進,減少開屏、彈窗等可能造成誤點的推送鏈接,用好各類算法應用設置的個人信息保護功能。對外賣員等基于算法環(huán)境工作的勞動者,企業(yè)與平臺應當在“冰冷”的算法規(guī)則之外增補柔性管理舉措,為算法程序的機械運轉(zhuǎn)增添人性關切。對全體社會成員,則需要在“人機互動”中建立主體意識,主動規(guī)避“算法濾鏡”下的數(shù)據(jù)造假、信息歧視、隱私泄露等危險風險,尋求“人機協(xié)商”的邊界和規(guī)范。
有學者認為,算法不僅僅是數(shù)字世界里一條條必須執(zhí)行的命令,而且成為生活中的實體,以決定性或探索性的方法挑選、轉(zhuǎn)換和生成數(shù)據(jù)和知識。當下,做好算法的多元共治和規(guī)范發(fā)展,以“技術信賴”對抗“算法依賴”、以“價值導向”引領“算法偏向”、以“信息素養(yǎng)”克服“算法喂養(yǎng)”,方可更好地避免技術操控,走向更加文明有序的智能社會。
(作者為北京市習近平新時代中國特色社會主義思想研究中心特約研究員、中央民族大學新聞與傳播學院教授)