中國周刊

數(shù)字法治:人工智能算法的倫理危機與法律規(guī)制

2021-04-07 16:40:53 來源:中國周刊

圖片 4.png

作者:鄭智航 山東大學(xué)法學(xué)院和網(wǎng)絡(luò)安全學(xué)院雙聘教授、博士生導(dǎo)師。

本文原載《法律科學(xué)(西北政法大學(xué)學(xué)報)》2021年第1期

 

隨著互聯(lián)網(wǎng)、大數(shù)據(jù)、云計算等科學(xué)技術(shù)的發(fā)展,人力、腦力和算力融合的程度愈來愈緊密,以生活要素數(shù)據(jù)化和機器自動化決策為核心的人工智能算法得到了越來越廣泛的應(yīng)用。人工智能算法使得機器能夠通過可讀的指令程序,根據(jù)網(wǎng)絡(luò)痕跡、位置信息、消費記錄等數(shù)據(jù),對人的行為進行評價和預(yù)測。這種自動化決策方式在人員招聘、教育培訓(xùn)、無人駕駛、投資咨詢、司法判決、智能診療、新聞推薦等諸多領(lǐng)域得到了廣泛運用,極大地降低了人們的決策成本,提高了工作效率。然而,人工智能算法獨特的運行邏輯導(dǎo)致法律賴以生成與存在的社會結(jié)構(gòu)性場景發(fā)生了重大變化,加劇了決策者與相對人之間的“數(shù)字鴻溝”,造成個人權(quán)利與算法權(quán)力之間的失衡,從而誘發(fā)了一系列的倫理問題。這些問題在一定程度上顛覆了傳統(tǒng)的法律認知,增加了傳統(tǒng)法律治理的難度。要想增強人工智能算法法律治理的有效性和克服“人工智能時代的法律功能危機”,就必須回到人工智能算法這一基本原點,探求人工智能算法倫理危機產(chǎn)生的結(jié)構(gòu)性因素,并在此基礎(chǔ)上分析既有法律治理手段存在的限度,從而為人工智能算法法律治理的轉(zhuǎn)型升級探明方向。

一、人工智能算法運行的基本邏輯

現(xiàn)代意義上的算法技術(shù)源于1940年代克勞德·香農(nóng)有關(guān)信息論和通信系統(tǒng)的思考。他解決了信道容量、信源統(tǒng)計特性、信源編碼、信道編碼等一系列基本技術(shù)問題,為算法技術(shù)的運用奠定了架構(gòu)基礎(chǔ)。與此同時,麥卡洛克和匹茨推動了神經(jīng)元計算科學(xué)的發(fā)展,提出大腦天然有著適合進行計算的結(jié)構(gòu),并認為所有可設(shè)想的有窮計算都可以被神經(jīng)網(wǎng)絡(luò)計算出來,這在事實上否定了“意識/肉體二元論”的觀點。隨后,阿蘭·圖靈在此基礎(chǔ)上,發(fā)明了圖靈機,讓其執(zhí)行被定義的算法任務(wù)。他在二戰(zhàn)期間還帶領(lǐng)數(shù)學(xué)家使用算法破譯了德國納粹分子的密碼。進入網(wǎng)絡(luò)時代后,人們逐步形成了一種以技術(shù)性和流動性為核心的在線生存樣態(tài)。在這種生存樣態(tài)中,人們?nèi)找姹粩?shù)據(jù)化和算法化。技術(shù)平臺往往會利用自身的技術(shù)優(yōu)勢,生成一種隱性的支配權(quán)和控制權(quán),從而形成人工智能算法獨特的運行邏輯。

(一)人工智能算法的嵌入邏輯

從本質(zhì)上講,人工智能算法是一種利用機器深度自主學(xué)習(xí)能力對現(xiàn)實生活中大量分散的、碎片化的數(shù)據(jù)信息進行自動化處理的機制。從外在形式看,它主要體現(xiàn)為算法的研發(fā)者通過一系列的技術(shù)性指令作用于特定機器的活動。但是,這種活動具有較高的嵌入性。算法的研發(fā)者或運用者往往將虛擬世界的算法隱性地嵌入社會權(quán)力運行的結(jié)構(gòu)中,并依托現(xiàn)實物理世界中的經(jīng)濟權(quán)力或政治權(quán)力,以“持續(xù)控制形式”滲入日常社會互動中的微觀層面。在這種算法的嵌入邏輯中,傳統(tǒng)的經(jīng)濟權(quán)力或政治權(quán)力借助算法技術(shù)的專業(yè)化和隔離化,形成技術(shù)與經(jīng)濟、技術(shù)與政治的聯(lián)姻。如在經(jīng)濟領(lǐng)域,算法嵌入平臺重構(gòu)了消費者、平臺與服務(wù)提供者之間的關(guān)系。算法下探至每筆交易貫徹平臺交易規(guī)則,并對違約者予以即時處罰;在政治領(lǐng)域,算法可實時收集數(shù)據(jù)并持續(xù)運行,與公權(quán)力的實施具有高度契合性,并極大地增強了公權(quán)力運行的廣度、深度和效率。

人工智能算法運行的嵌入邏輯推動了算法的機制化?!八惴ǖ臋C制化”是指根據(jù)算法而生成的具有普遍性、連續(xù)性、穩(wěn)定性和恒久性的自動決策化機制。人工智能算法的嵌入邏輯使網(wǎng)絡(luò)空間具有了卡斯特意義上的“無時間的空間”特質(zhì)。算法在社會權(quán)力結(jié)構(gòu)中的隱性嵌入,促進了所有數(shù)據(jù)被納入算法建模系統(tǒng)中,并通過機器的自主學(xué)習(xí)升級延展,從而被永久性保存下來。因此,算法將每個人發(fā)生在網(wǎng)絡(luò)中的相關(guān)信息和行為通過圖譜畫像方式變?yōu)檫B續(xù)性的常規(guī)動作,并被賦予預(yù)先設(shè)定的意義和內(nèi)涵。以新聞智能推送算法為例,算法推薦新聞平臺將實現(xiàn)自身利益最大化的算法嵌入新聞傳播過程中,以便快速有效地檢測出新話題和熱點話題,以此構(gòu)建一套新聞推送的日常機制。推送機制一旦形成,網(wǎng)絡(luò)用戶就逼迫接受算法篩選和推送的信息。

(二)人工智能算法的概率統(tǒng)計邏輯

從傳統(tǒng)物理社會到人工智能算法的轉(zhuǎn)變,意味著從牛頓的“大定律,小數(shù)據(jù)”技術(shù)范式向默頓的“大數(shù)據(jù),小定律”技術(shù)范式的轉(zhuǎn)移。在“大定律,小數(shù)據(jù)”技術(shù)范式下,人們能夠?qū)暧^物體的運動規(guī)律進行把握,并將這種普遍性規(guī)律運用于具體場境中。而在“大數(shù)據(jù),小定律”技術(shù)范式下,人們以量子力學(xué)為基礎(chǔ),利用規(guī)則由小數(shù)據(jù)產(chǎn)生大數(shù)據(jù),再由大數(shù)據(jù)練就“小定律”,通過“小定律”精準地掌握知識。人工智能算法正是利用了這種“大數(shù)據(jù),小定律”技術(shù)范式。這種技術(shù)范式要求算法建立在概率統(tǒng)計的數(shù)理基礎(chǔ)上,并通過智能化的機器依據(jù)特定場景、語境和實用需要,從海量的“大數(shù)據(jù)”中,隨機提取特定的“小定律”,從而對行為形成一種反饋機制。這種概率統(tǒng)計邏輯要求算法的設(shè)計者采取二階語言描述的技術(shù),而二階語言所描述的對象在原理上又可以轉(zhuǎn)換為一階語言所描述的對象。按照這種概率統(tǒng)計邏輯,斷定某種狀態(tài)是否滿足某個問題就等同于斷定某種模型是否滿足某個一階語言所描述的對象,而這種一階語言描述的對象的真值源于初始狀態(tài)是隨機選擇,并依賴于先驗命題為真的概率。因此,人工智能算法的概率統(tǒng)計邏輯具有強烈遞歸思維色彩,即通過重復(fù)將問題分解為同類子問題來加以解決。另一方面,人工智能算法充分利用機器自身的深度學(xué)習(xí)能力,將分散的個殊化數(shù)據(jù)重新聚集,并作為形成未來數(shù)據(jù)處理方法的重要參數(shù)。機器深度學(xué)習(xí)強調(diào)的是計算機程序?qū)τ谀愁惾蝿?wù)T和性能度量P,在T上以P衡量的性能隨著經(jīng)驗E而自我完善。這種深度學(xué)習(xí),以貝葉斯概率理論和 Toulmin對推論的分析為基礎(chǔ),并形成了從證據(jù)到結(jié)論的“泛化”過程。算法設(shè)計者往往將具有一階語言描述性質(zhì)的分散數(shù)據(jù)之間的相關(guān)性解釋為“適當?shù)拇蟾怕适录?,然后從某一個結(jié)論出發(fā),來論證這一決策的正當性。因此,Schum認為人工智能算法的概率統(tǒng)計邏輯具有拓撲的性質(zhì)和特征。

(三)人工智能算法的效率主導(dǎo)邏輯

人工智能算法是一個以效率為主導(dǎo)的法則。它主要通過計算機程序來對問題進行“一種有限、確定、有效”的處理。這種對待事物的態(tài)度決定了人們在運用算法建構(gòu)認知模型,進行自動化決策時,需要盡可能降低認知負擔(dān),并將其控制在合目的的范圍內(nèi),從而提高效率。有學(xué)者認為,滋養(yǎng)算法的大數(shù)據(jù)具有追求效率而非追求絕對精確、強調(diào)相關(guān)性而非因果性的特征。平臺和算法設(shè)計者也往往將效率與利益作為首要考慮因素。因此,人工智能算法的運行具有強烈的效率主導(dǎo)邏輯。究其原因,這既有架構(gòu)和技術(shù)方面的客觀原因,也有平臺和算法設(shè)計者逐利的主觀原因。第一,網(wǎng)絡(luò)特殊的架構(gòu)模式為人工智能算法的效率主導(dǎo)邏輯生成奠定了結(jié)構(gòu)基礎(chǔ)。人工智能算法依托于網(wǎng)絡(luò)和信息技術(shù)的發(fā)展。目前,我們的網(wǎng)絡(luò)架構(gòu)是一種對等網(wǎng)絡(luò)(P2P Network)架構(gòu)模式。在這種架構(gòu)模式中,網(wǎng)絡(luò)建立了以積分為核心的激勵機制。網(wǎng)絡(luò)會根據(jù)積分高低來分配獲取服務(wù)的順序。算法設(shè)計者必須要考慮這種特殊激勵機制以便有效地將算法嵌入到網(wǎng)絡(luò)架構(gòu)中。第二,計算機有限的自主學(xué)習(xí)能力是選擇效率標準的一個重要原因。經(jīng)過近半個世紀發(fā)展,計算機的自主學(xué)習(xí)能力得到了快速發(fā)展。但是,它仍然處于模仿人類的動作與感受的較低階段,這種有限的自主學(xué)習(xí)能力致使算法只能選擇一些最容易被量化的簡單標準。相對于其他標準而言,效率是最容易被量化的。它也更容易被析分為沒有爭議的數(shù)字變量,以符合數(shù)學(xué)計算的要求。例如,在人工智能輔助辦案系統(tǒng)中,算法更多處理的是程式化的不涉及價值判斷的表層概括工作,而對于更高級的互動交流、非經(jīng)濟利益的價值評判等難以量化的工作則較少涉足。第三,平臺和算法設(shè)計者的利益訴求需要考慮算法運行的成本和效益。算法的設(shè)計和研發(fā)需要有大量的資金投入。平臺和設(shè)計者往往會從績效正當性角度出發(fā)來衡量算法設(shè)計的合理性。因此,他們在研發(fā)算法時會主動植入研發(fā)者的價值導(dǎo)向和利益意圖,以便用技術(shù)平臺來幫助其完成特定的利益訴求,實現(xiàn)利潤最大化的目標。以平臺媒體、互聯(lián)網(wǎng)巨頭和門戶網(wǎng)站為例,它們主要從績效正當性出發(fā)來構(gòu)建算法系統(tǒng)。為了追求效率或效益,它們設(shè)計的算法篩選程序是以用戶興趣為基本導(dǎo)向的,并建立了一套可量化的經(jīng)濟績效評價標準。這種算法設(shè)計極大地增強了生活、娛樂類資訊的供給量。

二、人工智能算法的倫理危機

人工智能算法獨特的運行邏輯正在深刻地改變著以往的生產(chǎn)方式和生活方式,并反客為主地對人的行為形成支配關(guān)系。人們可以借助于操縱數(shù)據(jù)與算法來實現(xiàn)控制人的目的。馬長山認為:“掌握了數(shù)據(jù),就意味著掌握了資本和財富;掌握了算法(Algorithm),就意味著掌握了話語權(quán)和規(guī)制權(quán)?!边@種具有隱蔽性的算法權(quán)力會給人們帶來系統(tǒng)性的不利后果,消解人的主體地位,侵犯公民的基本權(quán)利,誘發(fā)一系列的倫理危機。2014年美國白宮發(fā)布了一份題為《大數(shù)據(jù):抓住機遇,保護價值》的報告。該報告認為,受數(shù)據(jù)來源特定性和算法設(shè)計者主觀意圖的影響,算法可能會系統(tǒng)性地減少個人獲得信貸、就業(yè)和教育的機會。數(shù)據(jù)科學(xué)家稱這些算法以及由此產(chǎn)生的算法權(quán)力為“數(shù)學(xué)毀滅性武器”。人工智能算法對以強調(diào)個人幸福和權(quán)利優(yōu)先性為特點的現(xiàn)代倫理帶來了巨大挑戰(zhàn),現(xiàn)代倫理以道德個人主義目的論方法論原則為指導(dǎo),將個人幸福置于根本地位。這種方法論要求凸顯人的主體性地位,并用主體性原則來構(gòu)建現(xiàn)代社會。它將“人為目的”的道德觀和權(quán)利優(yōu)先性理念作為現(xiàn)代社會正義的基礎(chǔ),將人的外在行為所直接產(chǎn)生的現(xiàn)實效應(yīng)或?qū)嵸|(zhì)結(jié)果,或者由它帶來的實際價值效應(yīng)作為道德評價的依據(jù)。主體性、個體正義觀和實質(zhì)結(jié)果判斷構(gòu)成了現(xiàn)代倫理的基礎(chǔ)。然而,人工智能算法對作為現(xiàn)代倫理支撐的主體性原則、社會正義觀和實質(zhì)結(jié)果主義提出了嚴峻挑戰(zhàn)。這種挑戰(zhàn)主要體現(xiàn)為人的主體性地位的消解、群組正義觀代替?zhèn)€人正義觀、人工智能在算法結(jié)果上的標簽化效應(yīng)等。

(一)人工智能算法中人的主體性消解

現(xiàn)代社會是一個以主體性為支撐的社會。黑格爾把“主體性”原則直接概括為“現(xiàn)代性”原則,并認為主體性主要包括“個人(個體)主義”“批判的權(quán)利”“行為自由”和“把握自我意識的理念”四個方面的內(nèi)涵。這種主體性要求用人道主義終結(jié)封建專制制度,用理性主義殺死宗教中的上帝,用個人主義謀劃自然解放。這三者最終可以歸結(jié)為主體主義的確立和現(xiàn)代人主體性的生成。因此。現(xiàn)代社會是一個強調(diào)個人主義、理性主義和人道主義的社會,它要求在人的生活領(lǐng)域全面貫徹個人主義、理性主義和人道主義等基本原則。“這一主體地位不僅關(guān)乎于人生活的安全,也是人類文明開展的根基,其主體地位一旦動搖,政治、經(jīng)濟、文化、社會制度隨即分崩離析?!比欢?,人工智能算法卻在不斷消解著人的主體性,動搖人在世界中的主體地位。特別是未來社會,隨著人工智能通過深度學(xué)習(xí)具備了自身算法系統(tǒng)的反思能力和自己的萬能算法語言,人的主體性將遭受更大的挑戰(zhàn)。就目前而言,這種主體性消解主要體現(xiàn)在以下方面:

首先,算法使人面臨客體化的危險。人工智能算法中,個人逐步被數(shù)據(jù)化和被計算化。在數(shù)據(jù)處理和整合時,算法將人按照各種各樣的自動化區(qū)分標準進行排列,并賦予相應(yīng)的意義。個人一旦進入這種數(shù)據(jù)化的“微粒社會”,就成為被算法定義的對象。這種新興的算法權(quán)力并不是從主體角度,而是從作為可以被計算、預(yù)測和被控制的客體的角度來看待個人的。1.滿足算法預(yù)設(shè)條件是用戶進入人工智能算法的前提。從性質(zhì)上講,人工智能算法是一個網(wǎng)絡(luò)技術(shù)和信息技術(shù)結(jié)合而建構(gòu)出來的虛擬世界。個人要想進入網(wǎng)絡(luò)接受平臺提供的服務(wù),獲得平臺承諾的優(yōu)惠和完成支付等,就必須接受通過代碼加以確定和規(guī)制的交易規(guī)則與支付規(guī)則。2.算法決定著人們在網(wǎng)絡(luò)空間中的自由度。網(wǎng)絡(luò)社會具有發(fā)達的信息篩選機制。這種機制通過設(shè)置技術(shù)障礙的方式,促進網(wǎng)絡(luò)空間的分區(qū),限制個人訪問網(wǎng)絡(luò)空間信息的權(quán)利。它主要通過網(wǎng)絡(luò)巡查(CyberPatrol)、網(wǎng)絡(luò)監(jiān)視(SurfWatch)等篩選軟件或利用瀏覽器的現(xiàn)有內(nèi)置功能來實現(xiàn)控制。這些機制通過算法來定義網(wǎng)絡(luò)分級檢索方式和網(wǎng)絡(luò)文件分級標簽語法。人們要想在網(wǎng)絡(luò)空間享有更大的自由權(quán),就必須符合算法所認可的代碼要求。3.算法將人類作為“計算組件”來增強算法自身的權(quán)威。例如,亞馬遜的勞務(wù)眾包平臺(MechanicalTurk)就將勞動者視為一個完整的計算組件來映射進算法函數(shù)中。在這個算法系統(tǒng)中,人類從屬于充當雇主的算法。算法系統(tǒng)按照評級標準自動分配勞務(wù)。美國和印度之外其他國家的勞動者通過亞馬遜禮品卡獲取報酬。這些勞動者可以用禮品卡兌換比特幣,從而獲得現(xiàn)金酬勞。Caitlin Lustig認為,這種勞務(wù)眾包平臺能夠運行下去的一個重要原因,是因為人們正在從對人的信任轉(zhuǎn)向?qū)C器和算法的信任,從而導(dǎo)致了技術(shù)異化。其次,算法容易將人鎖定在自我編織的“信息繭房”中。“信息繭房”是桑斯坦提出的一個重要概念。他指出,在互聯(lián)網(wǎng)時代,伴隨網(wǎng)絡(luò)技術(shù)的發(fā)達以及信息量的劇增,每個人都能隨意選擇關(guān)注的話題,并可以根據(jù)自己的喜好打造一份“個人日報”,但這種信息選擇行為將會導(dǎo)致“信息繭房”的形成。他所謂的“信息繭房”,是指傳播體系個人化所導(dǎo)致的信息封閉的后果。當個體只關(guān)注自我選擇的或能夠愉悅自身的內(nèi)容,而減少對其他信息的接觸時,久而久之,便會像蠶一樣逐漸桎梏于自我編織的“繭房”之中。這種信息的自我鎖定狀態(tài),將引起以下不利后果:其一,算法推送的信息潛移默化地影響著人們的認知框架和價值選擇。張愛軍和王首航認為,算法作為一項技術(shù)手段,能夠起到重構(gòu)公眾環(huán)境、規(guī)范人的行為的作用。算法的精準性在便于人們迅速獲得信息的同時,也塑造著個體的認知結(jié)構(gòu),使人們固守在自身的信息繭房,逐漸受到算法的“馴化”。其二,算法會進一步強化人的既有觀念和想法,不利于人的觀念的更新與發(fā)展。算法主要是利用對個人的圖譜畫像來實現(xiàn)學(xué)習(xí)和進化的。換言之,個人數(shù)據(jù)在喂養(yǎng)著算法。然而,這些數(shù)據(jù)往往具有時態(tài)上的慣性,并反映著人們對事物的看法。算法這種單向進化的學(xué)習(xí)思路,會進一步通過計算機強化這種刻板印象,從而“屏蔽”其他信息。因此,桑斯坦一再強調(diào)算法會“將用戶束縛在由興趣和先入之見所引導(dǎo)的狹隘的信息領(lǐng)域”。其三,算法容易加劇信息偏食現(xiàn)象,侵蝕個人對社會的認同。隨著算法技術(shù)的發(fā)展,信息“私人訂制”會變得更為普遍,個人信息偏食現(xiàn)象必將愈演愈烈,以致于侵蝕社會的共識基礎(chǔ),危害民主社會的發(fā)展。

再次,人工智能算法在語言和思維層面愈來愈迫近人類。語言和思維是人類區(qū)別于其他物種而具有主體性地位的重要原因。趙汀陽認為,語言具有自身的生成規(guī)則,并且能夠在語言系統(tǒng)內(nèi)部加以表達和解釋。任何一個語句或詞匯都能夠在元語言層次被分析為可判定的(所有可清楚界定的句子)或不可判定的(比如語義悖論)。它能夠生成無窮的語句并借以表達一切現(xiàn)實事物和可能性。語言的這些特性決定了語言具有構(gòu)造世界的能力。因此,具備了等價于人類語言的任何一種語言能力就等于具有了思想的能力,并能夠構(gòu)造世界。具備了語言能力的人工智能在地位上也會迫近人類,動搖人類的主體性地位。就人工智能算法發(fā)展來看,它大致經(jīng)歷了從物理系統(tǒng)到仿生神經(jīng)網(wǎng)絡(luò)系統(tǒng)的發(fā)展歷程。這種仿生神經(jīng)網(wǎng)絡(luò)系統(tǒng)的人工智能算法模擬大腦中真實鏈接和處理信息的神經(jīng)元結(jié)構(gòu)。它改變了物理系統(tǒng)階段的顯式指令式編程的語言方式法,采取LISP語言實現(xiàn)算法深度學(xué)習(xí)的目的。這種從HOW型低級語言向WHAT型高級語言的進化,有助于計算機不斷從經(jīng)驗感官刺激過程中形成抽象知識和概念,為聲明式編程語言、函數(shù)式編程語言和動態(tài)語言等未來計算機編程語言奠定了基礎(chǔ)。這勢必增強程序在運行過程中根據(jù)具體情勢改變結(jié)構(gòu)的能力。這種算法的語言和思維會不斷靠近智能發(fā)展的“奇點”,甚至有可能具有哥德爾反思能力,從而迫近人類,對人類的主體性地位構(gòu)成挑戰(zhàn)。

最后,算法可能將人擠出就業(yè)市場,造成更為徹底的“無用階層”。人工智能算法的高度智能化釋放出巨大的生產(chǎn)力,愈來愈突破了人類以往的計量體系,人類對算法的依賴程度也愈來愈高。原本由人從事的勞動和工作,愈來愈交由機器來完成。這會大大減少人類的工作崗位,從而沖擊人的實踐主體性的特質(zhì)。“當勞動,特別以改造自然為目的的勞動不再成為生存的需要,那么人作為類的普遍性本質(zhì),人作為實踐主體的本質(zhì)就部分地喪失?!绷硪环矫?,算法有助于財富進一步向少數(shù)精英集中。在算法集中財富的過程中,處于社會底層的“失能者”改變自己命運的難度便愈來愈大,社會階層固化現(xiàn)象會更為明顯。對此,尤瓦爾·赫拉利認為:“隨著算法將人類擠出就業(yè)市場,財富和權(quán)利可能會集中在擁有強大算法的極少數(shù)精英手中,造成前所未有的社會及政治不平等?!?/span>

(二)人工智能算法正義觀的危機

現(xiàn)代社會是一個追求正義的社會。它強調(diào)社會基本結(jié)構(gòu)應(yīng)當建立在正義所蘊涵的自由、平等和權(quán)利等價值基礎(chǔ)上。只有體現(xiàn)自由、平等和權(quán)利等價值的社會,才是正義的社會。按照這種社會正義的要求,現(xiàn)代社會應(yīng)當確立“人為目的”的道德觀,應(yīng)當樹立權(quán)利優(yōu)先性的基本理念。然而,人工智能算法秉持的并不是這種以個人正義觀為核心的社會正義觀,而是一種以效率為核心的群組正義觀?!叭航M正義觀”是建立在統(tǒng)計奇偶性(statisticalparity)基礎(chǔ)上的正義觀。CynthiaDwork等人認為,統(tǒng)計奇偶性強調(diào)接受正負分類的人的人口統(tǒng)計學(xué)與總體人口統(tǒng)計學(xué)具有相同的特征,因此,統(tǒng)計均等性被等同于群體性的公平。就算法而言,它不太考慮個人的差異性,而是將群組作為分析單位,并對不同群組作同質(zhì)化處理。即使群組和個人存在差異,算法也認為這些差異無法人為加以控制,因此,在算法決策時也應(yīng)當將這些差異因素排除出去。這樣能夠抵消冗余的編程,減少算法設(shè)計和運行的成本。

然而,這種群組性社會正義觀對現(xiàn)代社會正義觀提出了嚴峻的挑戰(zhàn)。從本質(zhì)上講,現(xiàn)代社會的正義觀是建立在道德目的論基礎(chǔ)上的。萬俊人認為,道德的根本意義是對人的行為本身的價值評價,而一行為善惡好壞的性質(zhì)和程度,最終取決于該行為所產(chǎn)生的實際結(jié)果,該行為結(jié)果必須是實質(zhì)性的、且首先是相對于行為主體自身而言,其次才是相對于其他相關(guān)群體或個體。因此,它以“人的道德行為的圓滿實現(xiàn)為根本價值目標和評價標準,所看重的是行為的最終結(jié)局(thefinality)或最高實現(xiàn)(thefinalrealization)”。算法群組正義觀則主要是從整體主義和工具主義角度來看待個人的。它主張人們對技術(shù)作去價值觀的理解,并將效率作為人類活動的首要標準。它把計算作為社會的本質(zhì),并用計算手段代替人的生活目的。因此,算法將人的理想和目的淹沒在電子忙碌中,這種理念將社會的精神價值技術(shù)化,從而與人類生活中的道德觀念和人的道德目的論格格不入。

算法對道德目的論的沖擊,動搖了社會正義觀中權(quán)利優(yōu)先性這一核心理念。羅爾斯認為:“權(quán)利的優(yōu)先性理念是一個根本要素,而在公平正義中,該理念作為公平正義觀點的一種形式具有其核心作用?!彼珜?dǎo)個人的基本權(quán)利應(yīng)當優(yōu)先于公共的“善”。個人只有在尊重權(quán)利的前提下,才能去追求自己的“善”。任何違背個人權(quán)利去追求特定“善”的行為,都是一種不正當?shù)男袨椤K惴ㄈ航M社會正義觀往往從后果主義出發(fā),注重決策行為的績效正當性,而無視個人權(quán)利。它將效率和便利凌駕于個人權(quán)利之上,認為效率應(yīng)當優(yōu)先于個人權(quán)利。為了獲得算法決策的便利,克減個人的一些權(quán)利具有后果主義上的正當性。例如,在算法驅(qū)動的路線導(dǎo)航實驗系統(tǒng)中,算法所使用的數(shù)據(jù)都是在缺乏用戶知情同意的前提下采集的,而且,整個算法系統(tǒng)更為傾向選擇那些信息較少的用戶作為實驗對象。

(三)人工智能算法的標簽化效應(yīng)

人工智能算法具有極強的分類篩選能力和超乎想象的預(yù)測能力。它主要是通過選擇與各種行為具有密切關(guān)聯(lián)性的數(shù)據(jù)的顯著特征來工作的。因此,算法極有可能基于分類篩選機制而形成“大數(shù)據(jù)黑名單”。這些“黑名單”不恰當?shù)貙€人或群體標記為具有某種風(fēng)險或傾向,進而限制或排除他們的權(quán)利或機會。例如,美國有些法院利用Northpoint公司開發(fā)的犯罪風(fēng)險評估算法COMPAS對犯罪人的再犯風(fēng)險進行評估。法官可以根據(jù)這個再犯風(fēng)險分值來決定犯罪人應(yīng)受的刑罰。又如,Gogle算法通過過去的搜索行為模式,以非洲裔美國人相關(guān)姓名進行搜索,要比以高加索人相關(guān)姓名進行搜索顯示的犯罪信息多得多。這極有可能給某些個人或群體貼上標簽,形成一種不好的“刻板印象”。

這種標簽化對寬恕這一現(xiàn)代社會的基本倫理價值提出了重大挑戰(zhàn)。慈繼偉將人的生活邏輯分為“正義的邏輯”和“超越正義的邏輯”?!罢x的邏輯”強調(diào)人與人之間的“等利害交換關(guān)系”和“互惠性”,以及建立在此基礎(chǔ)上的正義感,而“超越正義的邏輯”強調(diào)人有向善的可能性。它承認了人們應(yīng)當在尊重道德人格主體平等和價值多元化前提下對傷害行為作出一定的理解和容讓。然而,在人工智能算法中,一旦某個個體或群體具有了污名化的算法身份,就會一直被帶進下一輪的運算中?!盎谒惴ㄉ矸莸乃惴Q策會產(chǎn)生關(guān)于個體的新推斷,并影響個體的行為,進而形成更多的數(shù)據(jù),而這些新數(shù)據(jù)則會成為算法再一次對個體進行分類、確定算法身份并作出推斷的數(shù)據(jù)基礎(chǔ)。如此一來,劣勢則會越累積越多。與此同時,算法在劣勢累積影響下所作出的推斷與決策結(jié)果還將導(dǎo)致對少數(shù)群體或受保護群體的負面成見,即污名化與自我應(yīng)驗預(yù)言的實現(xiàn)?!边@種算法的標簽化和污名化既沒有考慮個體或群體具有向善的一面,也沒有考慮人因過錯而接受懲罰應(yīng)該是有期限的一面,從根本上否定了人有做錯事的權(quán)利。

三、人工智能算法法律規(guī)制遇到的挑戰(zhàn)

(一)運用法律主體制度規(guī)制人工智能算法的難題

算法自動化決策在推動社會進步的同時,也帶來一系列的社會問題和法律問題。人們試圖通過既有的法律主體性制度來解決這些問題。2017年2月歐盟表決通過的《歐盟機器人民事責(zé)任法律規(guī)則》提出了“非人類的代理人”的概念。這一概念的實質(zhì)是將人工智能作為一個有目的性的系統(tǒng),并在實質(zhì)上將工人智能體作為民事主體。是年,沙特阿拉伯給我國香港HansonRobotics公司研發(fā)的表情機器人“索菲亞”授予公民資格。我國制定的《新一代人工智能發(fā)展規(guī)劃》也提出“明確人工智能法律主體以及相關(guān)權(quán)利、義務(wù)和責(zé)任”。這些制度構(gòu)想和法律實踐的核心就是要運用現(xiàn)代法律主體制度,通過賦予作為算法載體而存在的人工智能體相應(yīng)的法律主體資格來解決財產(chǎn)權(quán)利歸屬、法律責(zé)任承擔(dān)等問題。這種法律主體性制度構(gòu)想體現(xiàn)了進一步捍衛(wèi)現(xiàn)代社會主體性倫理基礎(chǔ)的努力,但是,它難以適應(yīng)人工智能算法運行的基本邏輯。這種“生硬”的制度“嫁接”,既難以在法學(xué)理論上實現(xiàn)邏輯自洽,也難以對人工智能算法的健康發(fā)展進行有效引導(dǎo)。

現(xiàn)代法律主體制度是建立在對人的哲學(xué)理解基礎(chǔ)上的。它強調(diào)人除了具有認知、判斷和選擇等能力以外,還具備道德、良心、良知、倫理等要素。因此,法律主體制度是以人具有獨立的人格為前提的,并將人作為一個不證自明的法律目的。運用法律主體制度來解決算法誘發(fā)的倫理問題與社會問題會存在諸多障礙。首先,人類設(shè)計算法和發(fā)明作為算法載體而存在的人工智能體的目的并不是為了創(chuàng)制一個目的性存在,而是要為人類生活服務(wù)。換言之,算法及作為算法載體而存在的人工智能體始終是一種工具性存在。盡管算法系統(tǒng)經(jīng)歷了從物理系統(tǒng)到仿生神經(jīng)網(wǎng)絡(luò)系統(tǒng)的發(fā)展,并不斷迫近人類的神經(jīng)認知系統(tǒng),但是,它“沒有上升到有生命的狀態(tài),不具備生命所要求的能夠利用外界物質(zhì)形成自己的身體和繁殖后代,按照遺傳的特點生長、發(fā)育并在外部環(huán)境發(fā)生變化時及時適應(yīng)環(huán)境的能力”。而人自然生命的目的神圣性是法律主體制度建立的基礎(chǔ)。賦予作為算法載體而存在的人工智能法律主體地位,既會冒犯人的自然生命的目的神圣性,又顛倒了目的與工具的關(guān)系。其次,運用法律主體制度規(guī)制算法,無法實現(xiàn)權(quán)利義務(wù)統(tǒng)一性原則。權(quán)利與義務(wù)相統(tǒng)一原則是現(xiàn)代法律的一項基本原則,也是法律主體的核心內(nèi)涵。賦予作為算法載體的人工智能體法律主體地位,是一種授予權(quán)利的行為。但是,既有的法學(xué)理論無法回答人工智能體獨立承擔(dān)相應(yīng)的法律責(zé)任的問題?!胺▽W(xué)家目前設(shè)想的方案是像機動車強制保險那樣為人工智能進行投保或設(shè)置某種基金,但這種責(zé)任仍然是人類的財產(chǎn)責(zé)任而不是AI的獨立責(zé)任。因此,‘主張人工智能具有主體資格......不具有現(xiàn)實性意義’,人工智能達到權(quán)利義務(wù)相統(tǒng)一的法教義要求幾乎不可能,體系性思考的缺失只會顧此失彼、不可能拼湊出一個法律上的新主體?!弊詈?,算法目前通過深度學(xué)習(xí)難以進化出人的自由意志和情感?,F(xiàn)代法律主體制度深受康德自由意志學(xué)說影響,并將自由意志和情感作為法律主體的必備要件。隨著科學(xué)技術(shù)的發(fā)展,算法的學(xué)習(xí)能力得到大幅度提高,并形成了一定的語言和思維能力。但是,要想在短期內(nèi)進化出反思能力,具有同人類一樣的自由意志與情感則幾乎不可能。

(二)運用透明性原則規(guī)制人工智能算法的難題

為了規(guī)制算法權(quán)力,揭開“算法黑箱”,人們愈來愈傾向于運用透明性原則,因為透明性原則能夠彌補決策者與相對人之間形成的“數(shù)字鴻溝”,避免信息的過度不對稱導(dǎo)致技術(shù)劣勢一方依附于技術(shù)強勢一方,從而演變成數(shù)字經(jīng)濟時代的精英統(tǒng)治。美國聯(lián)邦貿(mào)易委員會認為,信息掌握在消費者手中,能夠提高其合理購買的決策能力,這是我們經(jīng)濟體系的基本原則。這對于經(jīng)濟的有效運作來說,是絕對必要的。因此,美國政府及司法機關(guān)極力倡導(dǎo)與宣傳算法透明度的重要性,例如,美國聯(lián)邦貿(mào)易委員會技術(shù)研究和調(diào)查辦公室就強調(diào)算法透明度的重要性,并向FTC消費者保護調(diào)查員和律師提供有關(guān)算法透明度的培訓(xùn)和技術(shù)專業(yè)知識。算法透明度主要包括算法源代碼的透明性和開放性;公布用于做出相關(guān)算法決策的輸入和輸出過程;以簡明易懂的方式公開輸入到輸出的中間過程,以便被決策對象充分知悉并認同算法的正當合理性等內(nèi)容。2017年,美國計算機學(xué)會公眾政策委員會公布了知情原則、質(zhì)詢和申訴原則、算法責(zé)任認定原則、解釋原則、數(shù)據(jù)來源披露原則和可審計原則等六項原則。歐盟也積極加強透明度原則的實踐,并在歐盟《通用數(shù)據(jù)保護條例》中試圖通過賦予人們算法解釋權(quán)來確保透明度原則的實現(xiàn)。該《條例》第71條規(guī)定:“在任何情況下,該等處理應(yīng)該采取適當?shù)谋U希ㄏ驍?shù)據(jù)主體提供具體信息,以及獲得人為干預(yù)的權(quán)利,以表達數(shù)據(jù)主體的觀點,在評估后獲得決定解釋權(quán)并質(zhì)疑該決定。”這種透明性原則實質(zhì)是現(xiàn)代信息公開制度在人工智能算法領(lǐng)域的援用。它雖然在防止算法技術(shù)異化方面起到了一定的作用,但仍然會受到算法性質(zhì)、公眾認知能力和算法自身的可解釋性等因素的影響。1.就算法的性質(zhì)而言,各國法院傾向于認為它是一種商業(yè)秘密。在 State訴Lomis案中,美國威斯康星州最高法院認為,COMPAS評估算法屬于商業(yè)秘密,魯米斯提出的初審法院依賴COMPAS評估算法作出判決侵犯他的正當程序權(quán)利和平等保護權(quán)的訴求不合法。在德國,聯(lián)邦最高法院也認為,算法是公司的核心商業(yè)秘密(Geschftsgeheimnis),當事人要求信用卡公司公開信用評估核心公式(Scoreformel)是不合理的。法院之所以要將算法看作是一種商業(yè)秘密,主要是基于人工智能算法運作的效率邏輯考慮。算法的設(shè)計和運行都需要大量資金投入,而且一旦公開透明,就極有可能出現(xiàn)“搭便車”現(xiàn)象,好的算法、收益率高的算法、行業(yè)領(lǐng)導(dǎo)者的算法可能會引起業(yè)界的效仿,從而會出現(xiàn)“羊群效應(yīng)”,加大順周期的風(fēng)險。這極有可能影響算法公司對算法的開發(fā),阻礙科技的發(fā)展和進步。2就公眾的認知能力而言,絕大多數(shù)非專業(yè)人士都不具備讀懂算法語言的基本能力。透明性原則的核心是通過公眾的知曉和理解來防止決策的失誤和不公正??炊屠斫鈩t是公眾監(jiān)督的前提。人們依憑看懂和理解的信息,并結(jié)合生活中的常識判斷,能夠作出一個較為客觀公允的結(jié)論。然而,算法極強的專業(yè)性和嵌入性,極大地超越了普通人的常識判斷,絕大多數(shù)非專業(yè)人士根本無法看懂和理解算法。換言之,人工智能算法是一個自我封閉的“孤島”,要想理解算法,就必須具備相應(yīng)的知識體系和認知能力。因此,運用透明性原則來規(guī)制算法的效果不會十分理想。3就算法自身的可解釋性而言,它是運用透明性原則規(guī)制人工智能算法的前提。某一事物只有具有可解釋性,才既能夠在公眾面前得到有效的開示,又能使專業(yè)技術(shù)人員對自身行為的正當性進行有效辯解。從本質(zhì)上講,算法是在特定的網(wǎng)絡(luò)架構(gòu)模式中,通過計算機語言進行具體編程而組合成一套源代碼系統(tǒng)。簡單的算法具有可控性,是可以解釋的,但是,復(fù)雜的算法對于數(shù)據(jù)和硬件設(shè)施的依賴程度會很高,并且它們在不斷地進行學(xué)習(xí)和自我進化。這使算法得出的結(jié)論的可解釋性變得愈來愈孱弱。另一方面,對于涉及一些隨機因素的決策過程,即使將系統(tǒng)源代碼、輸入、操作環(huán)境和結(jié)果完全透明公開,也不排除算法結(jié)果可能會以一種不可檢測的方式被不恰當?shù)毓潭ㄏ聛?。JoshuaAKrol等人以經(jīng)典彩票為例論證了這一觀點。他們認為一種完美透明的算法,隨機數(shù)生成器每次都會生成不同的隨機數(shù)。這種算法結(jié)果是難以復(fù)制或驗證的。這種技術(shù)上的難以復(fù)制性降低了透明性原則在規(guī)制算法方面作用的發(fā)揮。

(三)運用數(shù)據(jù)權(quán)約束人工智能算法的難題

在人工智能算法中,數(shù)據(jù)與算法的關(guān)系極為密切,以致于“數(shù)據(jù)喂養(yǎng)著人工智能”成為一個基本的共識。計算機只有吸收大量的數(shù)據(jù),算法才能運行起來,并得到學(xué)習(xí)和進化。而算法又能夠?qū)?shù)據(jù)加以轉(zhuǎn)化和控制,從而形成一種“準公權(quán)力”,這是算法異化的一個重要原因。因此,人們認為運用數(shù)據(jù)權(quán)的保護模式能夠有效地解決人工智能算法的倫理危機。例如,《歐盟通用數(shù)據(jù)保護條例》從個人對數(shù)據(jù)的自決權(quán)出發(fā)建構(gòu)了一套個人數(shù)據(jù)權(quán)利體系來約束算法行為。該條例第2條提出,通過保護數(shù)據(jù)流動和數(shù)據(jù)處理過程中自然人所享有的數(shù)據(jù)權(quán)利來規(guī)范算法行為。為了實現(xiàn)這一目標,該條例規(guī)定數(shù)據(jù)權(quán)人享有知情權(quán)、要求更正權(quán)、要求刪除權(quán)和限制處理權(quán)等具體權(quán)利形態(tài)。學(xué)者們也認為,中國應(yīng)當盡快出臺保護數(shù)據(jù)和數(shù)據(jù)生產(chǎn)者合法權(quán)利的法律法規(guī),明確數(shù)據(jù)的產(chǎn)權(quán)主體,建立使用者付費制度,防止資本對于公民數(shù)據(jù)和國家數(shù)據(jù)的濫用。這種制度設(shè)計和制度構(gòu)想,并不適合人工智能算法的運行邏輯。因為,人工智能算法的嵌入邏輯和效率主導(dǎo)邏輯產(chǎn)生了新的知識生產(chǎn)和治理模式。它模糊了數(shù)據(jù)權(quán)利的主體范圍、架空了個人數(shù)據(jù)保護的知情同意原則、阻礙著個人的更正權(quán)。具體來講,運用數(shù)據(jù)權(quán)來約束人工智能算法存在以下難題:第一,數(shù)據(jù)權(quán)的內(nèi)容和歸屬界定困難。權(quán)利內(nèi)容清晰和歸屬明確是權(quán)利有效行使的前提,而算法運用的數(shù)據(jù)非常復(fù)雜。它近似于一個倉庫、可以分為數(shù)據(jù)運營層、數(shù)據(jù)倉庫層和數(shù)據(jù)產(chǎn)品層等層級。不同的數(shù)據(jù)層對數(shù)據(jù)的管理和使用方式也不同,相應(yīng)地涉及具體的權(quán)利內(nèi)容也較為模糊。另一方面,平臺數(shù)據(jù)的權(quán)利主體難以通過法律條文和法律教義的分析來明確,也難以基于正當性與后果主義的分析來界定,因為平臺數(shù)據(jù)既可以被認為是個人所有、平臺所有、個人與平臺共有,也可以被認為是互聯(lián)網(wǎng)空間的公共數(shù)據(jù)。第二,算法技術(shù)可以繞開數(shù)據(jù)權(quán)主體。隨著算法學(xué)習(xí)能力的不斷增強,它愈來愈能夠?qū)A康臒o結(jié)構(gòu)數(shù)據(jù)(包括百度搜索記錄、淘寶購物記錄、手機GPS信息等各種電子痕跡)進行分析和處理。個人身份的已識別或可識別狀態(tài)往往成為數(shù)據(jù)分析的結(jié)果而不是起點。特別是到了數(shù)據(jù)倉庫層和數(shù)據(jù)產(chǎn)品層,算法所處理的數(shù)據(jù)距離數(shù)據(jù)源中的原始數(shù)據(jù)愈來愈遠,因為算法在最接近原始數(shù)據(jù)的數(shù)據(jù)運營層就進行了去噪、去重、提臟、業(yè)務(wù)提取、單位統(tǒng)一、砍字段等多項工作。因此,算法技術(shù)繞開了數(shù)據(jù)權(quán)主體,致使“從數(shù)據(jù)是否已包含個人身份信息入手來規(guī)制算法無法達到保護個人權(quán)益的目的”。第三,數(shù)據(jù)權(quán)是一種以個人為中心的救濟模式,難以應(yīng)對算法權(quán)力的復(fù)雜性。從本質(zhì)上講,運用數(shù)據(jù)權(quán)制約算法權(quán)力的思路是一種以單個的個體為中心來對抗“準公權(quán)力”的思想。這種思路忽視了算法權(quán)力的技術(shù)性和資本性兩大基本特性。

算法權(quán)力的技術(shù)性增加了普通民眾的認知難度。算法權(quán)力的資本性,決定了普通民眾難以用數(shù)據(jù)權(quán)來制約算法權(quán)力。算法設(shè)計者和研發(fā)者往往是一支龐大的專業(yè)團隊,并且擁有雄厚的財力支持。無論是法官,還是律師都難以應(yīng)對專業(yè)化的算法問題。這種認知上和財力上的懸殊,使個人數(shù)據(jù)權(quán)難以對抗日益膨脹的算法權(quán)力。

四、人工智能算法法律規(guī)制的基本路徑

人工智能算法獨特的運作邏輯致使運用法律主體制度、透明性原則和數(shù)據(jù)權(quán)等方式化解人工智能算法的倫理危機和社會危機的思路難以奏效。因此,應(yīng)當調(diào)整傳統(tǒng)法律制度的規(guī)制理念,構(gòu)建符合人工智能算法運作基本邏輯的規(guī)制路徑。

(一)人工智能算法法律規(guī)制的基本理念

1.從用戶注意力到用戶數(shù)字福祉

受效率主導(dǎo)邏輯的支配,算法設(shè)計者和開發(fā)者往往將注意力集中在吸引甚至迎合用戶上。這種偏好原則可能將用戶鎖定在“信息繭房”中,從而忽視了用戶的數(shù)字福祉(digitalwel-being)。數(shù)字福祉主要包括以下兩大內(nèi)涵:一方面是人人都可享受到數(shù)字技術(shù)帶來的紅利,最大化地實現(xiàn)普惠和賦能;另一方面是促進個人對數(shù)字技術(shù)和網(wǎng)絡(luò)服務(wù)的高質(zhì)量使用,減小、防止數(shù)字技術(shù)對個人的負面影響。2017年,英國科學(xué)院和皇家學(xué)會明確提出將促進數(shù)字福祉的日益增長和人類繁榮作為數(shù)據(jù)開發(fā)、利用和管理的首要原則。這種數(shù)字福祉的范圍要大于數(shù)據(jù)權(quán)的范圍,體現(xiàn)在算法及作為算法載體而存在的人工智能體在認識、動機、結(jié)果、組織評價等多方面滿足善的要求。它能夠在社會提出的倫理原則或指導(dǎo)方針與算法設(shè)計者或開發(fā)者提出的目標技術(shù)之間進行一種反思性的平衡,并應(yīng)該在特定數(shù)據(jù)技術(shù)的開發(fā)、部署和使用等各個關(guān)鍵階段都發(fā)揮核心作用。隨著網(wǎng)絡(luò)技術(shù)和算法技術(shù)的發(fā)展,人們愈來愈強調(diào)算法設(shè)計者和開發(fā)者應(yīng)當依循“經(jīng)由設(shè)計的數(shù)字福祉(digital well-being by design)”理念,將對用戶數(shù)字福祉的保障和促進融入產(chǎn)品和服務(wù)的設(shè)計中去。這種算法中嵌入數(shù)字福祉的做法在醫(yī)療保健、教育和就業(yè)、治理和社會發(fā)展以及媒體和娛樂等領(lǐng)域愈來愈得到運用。特別是數(shù)據(jù)技術(shù)所具有的積極計算能力,促進了道德規(guī)范在算法設(shè)計過程中的嵌入,因為它建立在積極心理學(xué)研究的基礎(chǔ)上。

2.從二元結(jié)構(gòu)到三元結(jié)構(gòu)

傳統(tǒng)的法律規(guī)制手段還是建立在國家與社會、公權(quán)力與私權(quán)利的二元結(jié)構(gòu)基礎(chǔ)上的。它強調(diào)國家以自主性為核心的“專斷性權(quán)力”和個人基本權(quán)利所具有的排除公權(quán)力侵害的防御功能。具體到算法規(guī)制領(lǐng)域,它主要體現(xiàn)為試圖建立一套以結(jié)果責(zé)任認定為核心的政府事后監(jiān)管模式和以個人為中心的權(quán)利救濟模式。這些方式和手段雖然在一定程度上能夠起到糾正算法偏差的作用,但是對于嵌入到算法技術(shù)過程中的更為隱蔽的算法偏差的作用并不大。這需要我們重新認識國家與社會、公權(quán)力與私權(quán)利、行政權(quán)力與技術(shù)權(quán)力的關(guān)系,并建立一種“政府—平臺—商戶(消費者)、公權(quán)力—社會權(quán)力—私權(quán)利的三元結(jié)構(gòu)”。三元結(jié)構(gòu)中的國家與社會、公權(quán)力與私權(quán)利不再是簡單的消極對抗關(guān)系,政府權(quán)力也不應(yīng)該是一種高專斷性權(quán)力。人工智能算法構(gòu)造了一個信息社會,信息成為了權(quán)力的中心,產(chǎn)生一種信息權(quán)力,這種信息權(quán)力制約和阻礙著以科層制為核心的政府權(quán)力的運作,并在事實上改變了政府權(quán)力的運作形態(tài)和人們對權(quán)力的認識?!?5〕 算法平臺具有的經(jīng)營權(quán)、財產(chǎn)權(quán)和知識產(chǎn)權(quán)等一系列私權(quán)利會在這種信息優(yōu)勢和技術(shù)優(yōu)勢下演變?yōu)橐环N“準公權(quán)力”。“與以往工商業(yè)時代的壟斷企業(yè)不同,它們不再局限于身為某個領(lǐng)域、某個行業(yè)的巨頭,而是具有超強滲透、覆蓋能力的全方位‘霸主’;它們不再局限于經(jīng)濟目標上的經(jīng)營管理,而是通過制定平臺規(guī)則、處理平臺糾紛、行使平臺監(jiān)管權(quán)等賦有了‘準立法權(quán)’‘準行政權(quán)’‘準司法權(quán)’?!闭谒惴ㄒ?guī)制過程中,也需要借助算法平臺、程序員和人工智能專家的信息優(yōu)勢和技術(shù)優(yōu)勢,實現(xiàn)合作性治理。因此,算法平臺企業(yè)、程序員和人工智能專家不僅是政府監(jiān)管的對象,也是政府監(jiān)管的參與者、決策者和執(zhí)行者。國家有關(guān)算法規(guī)制法律規(guī)范的制定和執(zhí)行都離不開他們的積極參與,而且這種參與的深度和力度要遠遠超過二元結(jié)構(gòu)中的公眾參與。

3.從依靠政府管控到政府克制

人工智能算法運作的效率主導(dǎo)邏輯以及由此衍生出來的群組正義觀決定了算法治理過程中必須高度重視權(quán)利保護與科技創(chuàng)新之間的平衡問題。而法律規(guī)制因遵循集權(quán)邏輯、權(quán)利邏輯和客觀認定事實邏輯而與人工智能算法運作所奉行的基本邏輯存在較大差異。如果一味地運用法律規(guī)制特別是運用政府管制手段,勢必會以犧牲算法科技的活力和創(chuàng)造力為代價,進而影響算法技術(shù)的發(fā)展。例如,對于無人駕駛的刑法規(guī)制就應(yīng)當采取克制與審慎的態(tài)度,因為碰撞算法還處于發(fā)展之中,算法技術(shù)之爭導(dǎo)致算法規(guī)范的爭議,目前碰撞算法對于事故參數(shù)還處于初步應(yīng)用階段,對于這種算法采取刑事規(guī)制無疑會阻礙算法創(chuàng)新。而且,算法自身也正在按照運作的基本邏輯逐步衍生出一套約束和治理機制。例如,為了保護消費者的身心健康,AndroidP、iOS12和Facebok等都設(shè)置了“屏幕使用時間”,以幫助用戶將手機和網(wǎng)絡(luò)使用時間控制在合理限度。算法企業(yè)也可以通過行業(yè)技術(shù)標準和倫理道德規(guī)范來減少或克服算法帶來的風(fēng)險和危害。這些機制既能降低法律運作的成本,又可以避免法律規(guī)制給技術(shù)創(chuàng)新可能帶來的負面效應(yīng)。因此,政府進行算法規(guī)制時,應(yīng)當樹立權(quán)力克制的基本理念,堅持多元主義的治理方向,并為技術(shù)治理、倫理治理和其他治理留下必要的空間。

另一方面,傳統(tǒng)政府管控手段的合法性正在受到人工智能算法專業(yè)性的挑戰(zhàn)。在傳統(tǒng)集權(quán)體制下,政府管控手段的合法性來源于其基于縱向?qū)蛹壥浇Y(jié)構(gòu)而形成的一種知識與信息壟斷。然而,在人工智能算法中,知識與信息的碎片化和分散化消解了傳統(tǒng)管控手段的合法性。更為重要的是,算法問題“可能會涉及到有著高度不確定性的未知事項,所要求的不僅僅是從‘事實’到‘法律’的推理,還要求在復(fù)雜模型和統(tǒng)計學(xué)幫助下,在純技術(shù)‘事實’間的推演。面對法律和事實的混合問題,面對法律和科技的絞結(jié),法院很難肩負起對技術(shù)標準進行司法審查的重擔(dān)。”這種政府認知能力不足的客觀現(xiàn)實,需要權(quán)力保持必要的克制。

(二)人工智能算法法律規(guī)制的主要路徑

人工智能算法法律規(guī)制基本理念的轉(zhuǎn)變必然帶來法律規(guī)制路徑的變化。具體來講,人工智能算法的法律規(guī)制應(yīng)當強調(diào)元規(guī)制治理,突出數(shù)據(jù)控制者的自我控制義務(wù);加強政府、平臺和社會三方的合作治理,通過第三方參與實現(xiàn)對算法的協(xié)同治理;完善算法責(zé)任分擔(dān)機制,建立算法安全風(fēng)險的保險制度等。

1.人工智能算法的元規(guī)制治理

按照鮑德溫等人的界定,元規(guī)制治理是規(guī)制對象在政府外在規(guī)制作用下,由規(guī)制客體轉(zhuǎn)變?yōu)橐?guī)制主體,從而采取具有內(nèi)控性質(zhì)的一種自我規(guī)制形式。這種規(guī)制形式具有政府規(guī)制和自我規(guī)制雙重面向。它既能防止自我規(guī)制出現(xiàn)自利性傾向,又能解決政府規(guī)制能力不足問題。在這一治理過程中,政府主要扮演著“掌舵者”的角色,它不斷地對規(guī)制系統(tǒng)進行監(jiān)督與管理,并在發(fā)現(xiàn)問題時,要求自我規(guī)制者及時制定應(yīng)對方案,對自身施加內(nèi)部式的規(guī)制。自我規(guī)制者則充分發(fā)揮其在專業(yè)技術(shù)方面的優(yōu)勢,并根據(jù)自身行業(yè)的特點,制定相應(yīng)的規(guī)制方案。這既能減少規(guī)制上的知識障礙,又能增加規(guī)制執(zhí)行的靈活性,還能降低政府的規(guī)制成本。

就算法的元規(guī)制治理而言,應(yīng)當強調(diào)通過激勵機制來促使數(shù)據(jù)控制者針對問題進行內(nèi)控式的自我規(guī)制。在此過程中,數(shù)據(jù)控制者應(yīng)當通過數(shù)據(jù)保護影響評估和“經(jīng)由設(shè)計的數(shù)據(jù)保護”等方式來履行數(shù)據(jù)保護義務(wù)。數(shù)據(jù)保護影響評估是對算法進行的一種事先規(guī)制。它強調(diào)數(shù)據(jù)控制者對軟件產(chǎn)品和過程是否符合適用的法規(guī)標準、指南、計劃、規(guī)格和過程進行獨立評估。為了強化評估的作用,只有那些通過專家、公共機構(gòu)和受算法決策影響的社區(qū)代表審查評估的算法,才能在一組實體之間共享或在公共站點上發(fā)布。在具體評估過程中,不但應(yīng)當評估基于目的使用算法的必要性和相稱性,而且應(yīng)當評估算法可能帶來的侵害自主權(quán)、差別性待遇、財產(chǎn)損失等風(fēng)險。算法擁有者應(yīng)當根據(jù)評估結(jié)果提出處理風(fēng)險的預(yù)想方案。

“經(jīng)由設(shè)計的數(shù)據(jù)保護”是由歐盟《通用數(shù)據(jù)保護條例》提出來的。該《條例》第25條第1款規(guī)定:“考慮到行業(yè)最新水平、實施成本及處理的性質(zhì)、范圍、目的和內(nèi)容以及處理給自然人的權(quán)利與自由造成的影響,數(shù)據(jù)控制者應(yīng)當在決定數(shù)據(jù)處理方式以及進行處理時以有效的方式采取適當?shù)慕M織和技術(shù)措施?!睆谋举|(zhì)上講,該條款就是要將數(shù)據(jù)保護嵌入到算法的基礎(chǔ)架構(gòu)和具體實踐中。它為政府規(guī)制算法確定了基本目標,但保留了政府采取規(guī)制算法的具體措施的權(quán)力。當下的算法規(guī)制應(yīng)當進一步強化“經(jīng)由設(shè)計的數(shù)據(jù)保護”這一措施,在兼顧算法行業(yè)特點的前提下,要求數(shù)據(jù)控制者采取具體的適當措施來確保算法決策的科學(xué)性和公正性。

社會責(zé)任披露機制是人工智能算法元規(guī)制治理的重要組成部分。它通過在被規(guī)制者與規(guī)制受益群體之間建立激勵機制來推動人工智能算法開發(fā)者和運用者增強自我規(guī)制的能力,從而在市場上獲得更大的份額。這種信息披露機制要求“公司披露其社會責(zé)任表現(xiàn)能夠創(chuàng)造一種使利益相關(guān)者約束公司行為的情形。如果根據(jù)特定利益相關(guān)群體所期望遵守的行業(yè)規(guī)制標準來看,公司披露的社會責(zé)任信息是令人滿意的,那么它的后果可能是積極的。比如,公眾對公司聲譽的認知可能會改善,對公司的投資可能會增加,或者公司將會獲得更大的市場份額。但如果評價是負面的,則可能會導(dǎo)致公司的聲譽受損,繼而帶來的是投資的減少以及市場份額的下降”。具體來講,政府監(jiān)管部門可以要求人工智能算法企業(yè)和平臺定期發(fā)布社會責(zé)任報告,強制披露風(fēng)險活動,公開數(shù)據(jù)處理的目的、數(shù)據(jù)處理者的身份、數(shù)據(jù)接收者等相關(guān)信息。

2.人工智能算法的合作治理

隨著政府-平臺-商戶、公權(quán)力-社會權(quán)力-私權(quán)利三元結(jié)構(gòu)治理理念的確立,除了政府需要改變過去單向度的“命令加控制”的管控方式外,還需要構(gòu)建算法規(guī)制的合作治理路徑。在這種合作治理中,政府監(jiān)管機構(gòu)應(yīng)當通過“提高標準化程度和自動化程度”,使用“司法測試和新技術(shù)”來敦促算法相關(guān)企業(yè)遵守法律法規(guī)和其他內(nèi)控性質(zhì)的規(guī)范。社會第三方力量應(yīng)當提供全自動的算法風(fēng)險分析和控制技術(shù)。算法平臺和企業(yè),應(yīng)當嚴格履行防范算法風(fēng)險的義務(wù),不斷調(diào)整信息技術(shù)系統(tǒng),制定個性化的內(nèi)部算法風(fēng)險管理流程。在此,筆者將著重分析如何構(gòu)建社會第三方力量在算法合作治理中的參與機制。

首先,明確社會第三方力量的參與權(quán)限。算法往往涉及到設(shè)計者、開發(fā)者和平臺的經(jīng)濟利益,具有商業(yè)秘密的性質(zhì)。因此,第三方力量參與算法治理應(yīng)當是有限度的。具體來講,社會第三方力量可以就訪問協(xié)議的嚴密性、商定數(shù)字管理的道德準則、任命專人監(jiān)管信息、在線跟蹤個人信息再次使用的情況,允許用戶不提供個人數(shù)據(jù)、為數(shù)據(jù)訪問設(shè)置時間軸、未經(jīng)同意不得將數(shù)據(jù)轉(zhuǎn)賣給第三方等問題進行監(jiān)督和審核。社會第三方力量也可以就是否執(zhí)行數(shù)據(jù)保護影響評估、進行數(shù)據(jù)保護影響評估采用什么方法、數(shù)據(jù)保護影響評估是內(nèi)部操作還是外包、采取哪些技術(shù)上的和組織結(jié)構(gòu)上的措施能夠減少對數(shù)據(jù)主體的權(quán)利和利益的負面影響、數(shù)據(jù)保護影響評估是否能正確執(zhí)行等問題提出建議。社會第三方力量還享有就算法侵權(quán)行為提出申訴的權(quán)利?!稓W盟通用數(shù)據(jù)保護條例》第80條規(guī)定,社會第三方機構(gòu)可以代表數(shù)據(jù)主體就算法侵權(quán)行為提出申訴和行使司法救濟權(quán)。這在一定程度上能夠克服以個人為中心的救濟模式在算法認知能力和權(quán)利救濟能力方面存在不足的問題。

其次,細化社會第三方力量的參與程序。(1)參與時間。應(yīng)當強化社會第三方力量全程參與的基本理念,并在算法事先審查和評估階段就應(yīng)當介入。例如,美國政府規(guī)定只有經(jīng)過社會第三方力量參與審查和評估的算法才是合法的算法,才能在實體間共享?!稓W盟通用數(shù)據(jù)保護條例》規(guī)定數(shù)據(jù)控制者或數(shù)據(jù)處理者在進行數(shù)據(jù)保護影響評估時,必須征求數(shù)據(jù)保護官的意見。(2)參與決定權(quán)。由于算法技術(shù)的專業(yè)性和侵權(quán)行為的隱蔽性,單個個體的維權(quán)成本較高。法律試圖通過激活社會第三方力量來實現(xiàn)侵害雙方力量的平衡。因此,《歐盟通用數(shù)據(jù)保護條例》規(guī)定第三方機構(gòu)可以在接受數(shù)據(jù)主體委托和無須獲得數(shù)據(jù)主體同意兩種情況下向數(shù)據(jù)監(jiān)管機構(gòu)提出申訴和行使救濟權(quán)。(3)參與方式。社會第三方力量可以通過聽證、驗證、檢查、提供咨詢意見等方式進行參與。

再次,對社會第三方力量進行監(jiān)督。除了應(yīng)當加強社會第三方算法科技方面的職業(yè)倫理素養(yǎng)和法律思維能力外,還應(yīng)當加強政府對他們的監(jiān)督。具體來講,政府除了應(yīng)當對第三方機構(gòu)的資質(zhì)進行認定外,還應(yīng)當聯(lián)合平臺和其他力量制定覆蓋數(shù)據(jù)投入、數(shù)據(jù)處理和數(shù)據(jù)產(chǎn)出全過程中的算法質(zhì)量標準。這些質(zhì)量標準應(yīng)當成為社會第三方力量參與算法治理的行為標準。否則,第三方機構(gòu)可能因為利益因素而淪為數(shù)據(jù)生產(chǎn)者的同盟者或擺設(shè)。

3.算法安全風(fēng)險的保險機制

算法系統(tǒng)的復(fù)雜性對傳統(tǒng)的以因果關(guān)系為基礎(chǔ)的法律責(zé)任體系形成了嚴峻挑戰(zhàn)。當某個產(chǎn)品匯聚多種算法系統(tǒng)時,要想找到損害結(jié)果與損害行為之間的因果關(guān)系,難度會更大。在未來相當多的情況下,通過傳統(tǒng)產(chǎn)品責(zé)任來解決智能算法及智能系統(tǒng)致人損害問題愈來愈不可能。吳漢東預(yù)測,未來社會以過錯責(zé)任為基礎(chǔ)建立的“風(fēng)險分配”責(zé)任體系,將在某些領(lǐng)域不復(fù)存在。例如,對于算法引發(fā)的交通事故的認定,歸責(zé)事由只有結(jié)果的“對與錯”,而無主觀上的“故意”或“過失”。倘若讓算法及其智能系統(tǒng)的開發(fā)者或經(jīng)營者承擔(dān)無過錯責(zé)任,就勢必加大產(chǎn)品的生產(chǎn)成本,阻礙算法技術(shù)的發(fā)展。因此,筆者主張逐步建立算法安全風(fēng)險的保險機制。作為算法載體而存在的人工智能體的生產(chǎn)者或所有者應(yīng)當購買一定份額的保險,以分擔(dān)算法引發(fā)的安全風(fēng)險。以無人駕駛汽車風(fēng)險防范為例,傳統(tǒng)汽車發(fā)生交通事故的原因主要有車輛原因、人為原因和道路原因,而無人駕駛汽車發(fā)生交通事故的原因除了上述原因外,還有智能系統(tǒng)的原因。因此,我們應(yīng)當針對汽車制造商設(shè)定一份智能系統(tǒng)的法制性保險,以分攤算法安全險。

圖片 3.png

《數(shù)字法治》專題由華東政法大學(xué)數(shù)字法治研究院供稿。專題統(tǒng)籌:秦前松

 


編輯:海洋

已經(jīng)到底部