算法歧視的法律規(guī)制動因與路徑和制度完善 附算法歧視法律規(guī)制的法理分析_第1頁
算法歧視的法律規(guī)制動因與路徑和制度完善 附算法歧視法律規(guī)制的法理分析_第2頁
算法歧視的法律規(guī)制動因與路徑和制度完善 附算法歧視法律規(guī)制的法理分析_第3頁
算法歧視的法律規(guī)制動因與路徑和制度完善 附算法歧視法律規(guī)制的法理分析_第4頁
算法歧視的法律規(guī)制動因與路徑和制度完善 附算法歧視法律規(guī)制的法理分析_第5頁
已閱讀5頁,還剩8頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認(rèn)領(lǐng)

文檔簡介

算法歧視的法律規(guī)制動因與路徑和制度完善

摘要:算法內(nèi)置性編碼凝視、支撐算法運行的訓(xùn)練數(shù)據(jù)之偏差以及算法黑箱

帶來的程序透明度缺失是摯致算法歧視的技術(shù)性原因,進而引致權(quán)利失衡,使權(quán)

利成為缺損狀態(tài)。為保障權(quán)利行使,本文認(rèn)為應(yīng)當(dāng)確立算法公平理念,并明晰算

法歧視法律規(guī)制的技術(shù)環(huán)節(jié),建立以權(quán)利失衡的矯正為中心的法律規(guī)制模式作為

算法歧視法律規(guī)制的路徑選擇,并從明確篩選訓(xùn)練數(shù)據(jù)的標(biāo)準(zhǔn)化制度、建立算法

透明性和可解釋性的審查機制、完善算法問責(zé)機制三方面予以探究。

關(guān)鍵詞:算法歧視;權(quán)利失衡;路徑選擇;制度完善

大數(shù)據(jù)時代,算法通過其程序以及運算規(guī)則作出決策。相對于傳統(tǒng)決策領(lǐng)域,

其對人工干預(yù)的需求甚少,因而多被認(rèn)為能夠為人類社會提供公正的糾紛解決方

式和決策論斷。幾乎可以肯定的是,在算法實際運用的過程中,智能算法因其特

殊編碼所有的自主數(shù)據(jù)分析機制,會加速并放大現(xiàn)存的價值偏好、歧視認(rèn)知,使

得數(shù)據(jù)在經(jīng)算法編碼程序分析后形成的決策附有“算法歧視”,導(dǎo)致不公現(xiàn)象產(chǎn)

生,從而會對社會秩序造成沖擊[1]。在此背景下,本文擬就算法歧視法律規(guī)制

的核心、路徑和制度完善予以探討。

一、算法歧視法律規(guī)制的動因:基于技術(shù)構(gòu)造的權(quán)利失衡的矯正

算法以其高度發(fā)達(dá)的信息系統(tǒng)融入人們的生活,現(xiàn)代社會在發(fā)展過程中也逐

漸離不開算法對于計算便利性提升的幫助。正因為算法歧視面向?qū)ο笾畯V及其影

響之深,需加以重視,其中法律系統(tǒng)對于算法歧視的回應(yīng)更應(yīng)給予高度重視。

(一)算法歧視的技術(shù)性原因

相較于人工在決策過程中占據(jù)主導(dǎo)地位的傳統(tǒng)決策路徑,人類在智能算法決

策的過程中,能夠產(chǎn)生直接影響的范圍隨著信息技術(shù)的發(fā)展而逐漸縮小,決策更

多地通過算法本身程式對于數(shù)據(jù)理解后的運算得出,而非人腦對數(shù)據(jù)的分析,這

一自主決策系統(tǒng)使得算法歧視存在技術(shù)性原因。

首先,算法內(nèi)置性編碼凝視。所謂編碼凝視(codedgaze),即是外界固有偏

見被嵌入到代碼系統(tǒng)中,成為算法天生所有的偏見。算法是以數(shù)學(xué)程式或者計算

機代碼表達(dá)意見,其設(shè)計理念、數(shù)據(jù)使用規(guī)范、決策輸出標(biāo)準(zhǔn)等都是開發(fā)者的主

觀選擇,算法開發(fā)者在代碼輸入的過程過也因此可能將自己原有的偏見嵌入算法

系統(tǒng)之中,從而表現(xiàn)為一種故意為之的歧視。即便開發(fā)者想盡一切辦法規(guī)避自身

原有價值觀對于算法設(shè)置的影響,但只要生活在這個社會,每個人都無法成為一

座“孤島由此,內(nèi)置性編碼凝視有可能表現(xiàn)為無意識的偏見攝入,即由于群體

觀念的裹挾而不可避免的存在自我偏見。在算法程式建立完成后,由于預(yù)設(shè)偏見

的存在,數(shù)據(jù)在通過算法編碼后成為“污染數(shù)據(jù)”。由這類污染數(shù)據(jù)循之產(chǎn)生的污

染結(jié)果會通過同一套算法不斷反復(fù),使偏見數(shù)據(jù)的不良影響不斷擴大,最終產(chǎn)生

帶有偏見的智能算法結(jié)果。可見,開發(fā)者的素質(zhì)、價值水平的高低,以及算法本

身編碼的特性,使算法內(nèi)置性編碼凝視成為算法在走向公正之路上不容忽視的環(huán)

節(jié)。

其次,支撐算法運行的訓(xùn)練數(shù)據(jù)之偏差。除了上述外部性社會文化、個人主

觀偏見的影響,一些具有歧視性意味的結(jié)論源于支撐算法運行的訓(xùn)練數(shù)據(jù)的缺陷

帶來的偏差。第一,樣本數(shù)據(jù)中“少數(shù)族群”的存在。現(xiàn)實中的數(shù)據(jù)遠(yuǎn)不止幾類、

幾十類的區(qū)分種類,面對多元、復(fù)雜、區(qū)分界限模糊的數(shù)據(jù)源,通常為了設(shè)計簡

便、減少運行成本,智能算法會選擇“技術(shù)逃避”,不自覺地把一些特征不太明顯

的少數(shù)數(shù)據(jù),直接認(rèn)定為錯誤(或噪聲)數(shù)據(jù),或是將全新的數(shù)據(jù)信息歸于大致

類似的數(shù)據(jù)群中作為后續(xù)分析的基礎(chǔ),一些稀有、缺失的現(xiàn)象(即涉及少數(shù)群體

的數(shù)據(jù))很難被選中,從而導(dǎo)致數(shù)據(jù)算法結(jié)果更青睞于在統(tǒng)計上的多數(shù)樣本群,

形成馬太效益,資源跟隨算法不斷地向樣本更加豐富的數(shù)據(jù)群集聚,導(dǎo)致少量但

是并非無用的數(shù)據(jù)在往后的算法決策之中消失不見,影響算法樣本數(shù)據(jù)多樣化的

實現(xiàn)[2]。第二,樣本質(zhì)量可能存在問題。因算法的特殊性質(zhì),數(shù)據(jù)是必不可少

的輸入,其對于數(shù)據(jù)質(zhì)量的要求相較于其他的編程技術(shù)來說更加嚴(yán)格。但是因為

算法的訓(xùn)練數(shù)據(jù)是通過不同的方式和渠道形成的集合,集合中缺失、重復(fù)、失效、

造假的“臟數(shù)據(jù)”可能對數(shù)據(jù)樣本帶來污染,使算法出現(xiàn)誤解而導(dǎo)出歧視性結(jié)果。

由于數(shù)據(jù)算法對數(shù)據(jù)依賴程度之高,訓(xùn)練數(shù)據(jù)的優(yōu)劣與否深刻影響著算法本身的

公正性。

再次,算法黑箱引起的程式透明度的缺失。在信息技術(shù)領(lǐng)域,“黑箱”一詞指

的是當(dāng)信息技術(shù)專業(yè)人員對計算系統(tǒng)進行理解和測試時,并不知道也無法查看計

算系統(tǒng)的內(nèi)部工作情況,因而無法在出現(xiàn)問題之后找出具體的環(huán)節(jié)或代碼鏈條

[3]o相比傳統(tǒng)的機器學(xué)習(xí)通過特征提取、判定進行推理得出結(jié)果的程式,算法

深度學(xué)習(xí)是通過剖析事物原始特性并進行歸納總結(jié)之后得出的結(jié)果,是一種更為

高級的認(rèn)知方式。正是這一種從原始特征出發(fā)的認(rèn)識范式,存在著我們無法洞悉

的隱層,即“算法黑箱”。這里的“黑箱”并不僅意味著不能觀察,還意味著即使計

算機試圖向我們解釋,面對晦澀的代碼鏈條我們也無法理解。由于算法黑箱的存

在,其運行過程變得愈加模糊,可能通過不成比例的數(shù)據(jù)聯(lián)結(jié)出相關(guān)性,帶來令

人不安的隱形歧視。例如,將男性與機械、計算機技術(shù)相連,女性與文職、家政

服務(wù)相連,對某些表面不敏感但存在某些敏感特性的數(shù)據(jù)中建立相關(guān)性,而這一

活動的具體過程是我們所不知道的。即使是在開發(fā)者非常小心的情況下,他們?nèi)?/p>

然可能通過原有模型影響歧視性結(jié)果,而這些模型在無意中會為受保護的類別挑

選代理變量,其創(chuàng)造的關(guān)聯(lián)性帶來進一步的傷害。由于黑箱的不透明性在現(xiàn)代科

技目前發(fā)展中還無法得到解決,算法輸出結(jié)果、決策中可能存在的隱形歧視將成

為現(xiàn)代科技之暗傷。

(二)基于算法歧視技術(shù)構(gòu)造的權(quán)利失衡

數(shù)據(jù)時代除了對普通個體生活便利性提升帶來影響之外,還有另外一個深層

影響,即個體的全面數(shù)據(jù)化[4]。且在不久的將來,數(shù)據(jù)將不僅僅涉及單個個體

的狀態(tài)與活動,每個人的信息點將會通過交互系統(tǒng)匯成一條大河,用戶的數(shù)據(jù)將

變得更加多元化、多樣化。在這種個體數(shù)據(jù)化、數(shù)據(jù)多元化的發(fā)展過程中,用戶

數(shù)據(jù)背后的商業(yè)價值也變得越來越大,數(shù)據(jù)涉及的權(quán)利保護也會點面臨更大的挑

戰(zhàn)。在力量懸殊巨大的互聯(lián)網(wǎng)與網(wǎng)民之間,權(quán)利的讓渡似乎成為一種必然。而在

權(quán)利讓渡之后,由于算法歧視的存在,權(quán)利失衡就此產(chǎn)生,亦即,權(quán)利人基于理

性而對自己利益的主張遭到?jīng)]有正當(dāng)理由的拒絕;其權(quán)利既得不到周圍人的承

認(rèn),也得不到政治國家的有效保障;權(quán)利人的利益遭受侵害后缺乏有效救濟,因

而其權(quán)利處于缺損狀態(tài)的現(xiàn)象[5]。算法歧視引致的權(quán)利失衡,不僅是抽象層面

平等權(quán)的失衡,還包括具象層面隱私權(quán)、選擇權(quán)的失衡。

內(nèi)置性編碼凝視以其前置存在的特點,使得算法用戶在使用的過程中不可避

免地使自己的基礎(chǔ)信息、行為足跡等數(shù)據(jù)進入海量的訓(xùn)練數(shù)據(jù)之中,并在算法設(shè)

計者的編碼程序中進行運轉(zhuǎn)。如此,算法開發(fā)者與算法用戶之間的地位懸殊極大,

開發(fā)者以其擁有的解釋權(quán)和海量數(shù)據(jù)庫占據(jù)絕對優(yōu)勢地位,而用戶只能在其制定

的規(guī)則之下活動,通過讓渡部分權(quán)利獲得使用權(quán)限的便利性,而導(dǎo)致二者之間的

權(quán)利失衡。如果開發(fā)者利用與用戶之間極度的信息不對稱并不履行相應(yīng)義務(wù),會

進一步加劇權(quán)利失衡。

同時,用戶在讓渡權(quán)利后,算法開發(fā)者應(yīng)遵循相應(yīng)行業(yè)自律守則,不越過法

律、道德所允許的邊界。但由于原則、行業(yè)自律規(guī)則的不確定性和缺乏強制性規(guī)

制,規(guī)制措施的缺乏與用戶對生活便利性的要求發(fā)生了強烈的沖突,特別是在用

戶與那些掌握并利用甚至可能出賣他們的隱私數(shù)據(jù)的算法開發(fā)者之間,這樣的

“交易’天然是不平等的。

此外,黑箱內(nèi)容的不確定性使得用戶的權(quán)利無法得到保障。由于計算機系統(tǒng)

內(nèi)部工作情況,具有在專業(yè)人員進行理解和測試的過程中無法知曉的特征,引起

人們關(guān)于算法權(quán)利行使的擔(dān)憂。例如,一家名為“劍橋分析”的英國公司,在未經(jīng)

用戶許可的情況下違規(guī)獲取Facebook上5000萬名用戶個人信息數(shù)據(jù)。在曲折

迂回的算法運行過程中,由于黑箱本身內(nèi)容的無法確定,為權(quán)利讓渡過程變得模

糊不清。用戶在其權(quán)利受到侵害的時候也只能選擇在該應(yīng)用框架內(nèi)尋求解決辦

法,這使得算法開發(fā)者一方在某種程度上獲得了裁定用戶使用資格、使用程度的

特殊權(quán)力。例如,當(dāng)算法歧視、算法錯誤等情況發(fā)生時,開發(fā)者往往以技術(shù)錯誤

或者用戶已知情等理由逃避承擔(dān)對用戶的損失賠償責(zé)任,使得用戶不得不自行承

擔(dān)由于算法歧視、算法錯誤帶來的損失。

綜上所述,基于自主決策系統(tǒng)的技術(shù)特殊性,算法歧視的實質(zhì)在于主體權(quán)利

的讓渡失衡。信息提供者(即算法用戶)以及技術(shù)提供者(即算法開發(fā)者)之間

存在的“力量”懸殊,使得權(quán)利讓渡后的公正行使變得困難。因此,算法歧視的法

律規(guī)制的動因就在于矯正權(quán)利失衡,賦予和保障算法用戶對算法提供選項內(nèi)容的

選擇權(quán)、對算法決策生成過程的知情權(quán)、保障開發(fā)者和用戶之間平等權(quán),等等。

二、算法歧視法律規(guī)制的路徑選擇

(一)確立算法公平理念

算法歧視引致的權(quán)利失衡實質(zhì)是算法公平的缺失。因此,對算法歧視予以法

律規(guī)制,首先必須確立包括結(jié)果公平和程序公平在內(nèi)的算法公平理念。針對算法

歧視問題,需要的不僅是消除算法歧視本身所有的偏見,更要求對公平作出更加

準(zhǔn)確的定義,以使相關(guān)法律規(guī)制有跡可循[6]。公平作為法律所追求的基本價值

之一,意味著其能夠在公正、無偏見的背景下對法律行為作出評價。將這一概念

引申到算法領(lǐng)域,即是通過公正、公平的運算過程和透明的運算決策結(jié)果,來保

證多方利益的平衡和權(quán)力的對等。

算法結(jié)果公平,即算法輸出結(jié)果的公平性可以從群體和個體角度進行探討。

算法中的群體公平,是指算法一般不做個性化的探討,以人數(shù)的多寡分配名額,

在稀有與非稀有族群以人口比例作出相稱的決定。例如,某種職業(yè)的從業(yè)人員男

女比例達(dá)到2:1,那么在進行招聘時嚴(yán)格按照2:1進行簡歷的收納和錄取。盡

管這樣一種分配方式在大概率上不影響群組中標(biāo)幾率的變化,但是從個體的視角

來看,以此可能導(dǎo)致特定少數(shù)族群中個體中標(biāo)概率顯著偏高或者偏低,而帶來另

外一種意義上的不公。算法中的個體公平則是在相近的個體中分別對數(shù)據(jù)內(nèi)容作

出判定,考慮個體化之間的差異。這種公平理論對個體之間的分類更為謹(jǐn)慎,通

過行業(yè)要求的特定特征對個體進行分類,而非單純依靠人口數(shù)量的正負(fù)相關(guān)性。

比較而言,群體公平著重于群體之間概率上的公平,而個體公平更側(cè)重于在決策

做出之后相關(guān)個體所可能受到的影響公平與否。算法作為一個根據(jù)數(shù)據(jù)特征作出

決策的計算機程式,個體公平更加契合算法設(shè)計的初衷,即通過個性化定制獲取

信息并向用戶提供便利。

但是,關(guān)注算法結(jié)果公平的同時,也要注重對決策過程本身的關(guān)注,即對于

算法公平中程序公平的關(guān)注。程序公平,側(cè)重于程序的輸入前數(shù)據(jù)的篩選,輸入

中數(shù)據(jù)運行的透明度以及輸入后決策作出的監(jiān)管,通過加大算法程式運算過程中

的透明性、可解釋性,為算法決策的公信力背書。算法中的公平并非只是對單個

群體或者個體權(quán)利義務(wù)的調(diào)整和救濟,算法面對的人群是龐大的,除了一部分實

際使用者外,由于算法可能存在的間接影響,而不可避免的存在著大量的潛在用

戶。盡管結(jié)果對于關(guān)涉主體的具體特征予以了考慮,但是對算法結(jié)果的過多關(guān)注,

可能導(dǎo)致過程中各個環(huán)節(jié)對外界可能產(chǎn)生的影響被忽略,而產(chǎn)生另外一種微觀層

面的不公。因此,通過人口統(tǒng)計或者群體特征篩選是遠(yuǎn)遠(yuǎn)滿足不了算法對于公平

性要求的。公平存在于法律上的意義并非狹義的人人對等,法律中對于可理解性

的要求也遠(yuǎn)高于可闡釋性,算法公平很大程度上取決于在算法決策做出后,能否

為所產(chǎn)生的一系列權(quán)利義務(wù)關(guān)系的變動,提供可查證、可解釋、可救濟的具有公

信力的記錄。而算法程序公平理論中所涉及的源頭篩選、程式中的可解釋性、決

策后的可救濟性對算法公平的實現(xiàn)更具有可操作性,可以避免對單一個體結(jié)果的

過多關(guān)注,實現(xiàn)整個程式內(nèi)容的可視化。因此,在算法歧視的法律規(guī)制的各個環(huán)

節(jié),貫徹算法程序公平的理念,是更合理并符合實際的。

(二)明晰算法歧視法律規(guī)制的技術(shù)環(huán)節(jié)

在大數(shù)據(jù)時代下,算法作為大數(shù)據(jù)技術(shù)發(fā)展下的重要引擎,力圖從海量的數(shù)

據(jù)世界中,對有意義的數(shù)據(jù)進行挖掘、加工,消除不確定性,重還世界一個新的

“秩序”,這就是大數(shù)據(jù)技術(shù)的本質(zhì)所在[7]。然而算法歧視往往扭曲了算法的原本

意義。如前文所述,算法歧視的產(chǎn)生與運行主要由三個問題引發(fā),即算法內(nèi)置性

編碼凝視、訓(xùn)練樣本數(shù)據(jù)偏差、算法計算領(lǐng)域的黑箱,或者由于其中一個問題的

出現(xiàn),或者多個問題同時出現(xiàn)導(dǎo)致算法歧視。由于其相對應(yīng)的三個環(huán)節(jié)為數(shù)據(jù)輸

入、數(shù)據(jù)運行、數(shù)據(jù)監(jiān)管,可以從這三個環(huán)節(jié)入手,對算法運行過程中有可能出

現(xiàn)的問題予以規(guī)避,以達(dá)到算法真正為人類服務(wù)的預(yù)期目的。

首先,數(shù)據(jù)輸入涉及算法訓(xùn)練數(shù)據(jù)的篩選。由于數(shù)據(jù)內(nèi)容的質(zhì)量和種類對算

法程式樣本數(shù)據(jù)的完善與否有著直接的關(guān)系,算法種類過少直接可能導(dǎo)致算法輸

出結(jié)果可信度的降低,算法質(zhì)量、內(nèi)容缺失帶來的數(shù)據(jù)污染則可能帶來算法計算

結(jié)果的瑕疵。數(shù)據(jù)作為算法程式的立身之本,只有在樣本數(shù)據(jù)建立初期,通過對

源頭數(shù)據(jù)大規(guī)模的篩選,保證樣本數(shù)據(jù)多樣化與數(shù)據(jù)內(nèi)容的非導(dǎo)向性,才能在算

法程式運算源頭有效避免不公現(xiàn)象的產(chǎn)生。

其次,數(shù)據(jù)運行主要是關(guān)于算法透明性、算法黑箱可解釋性的規(guī)制。通過可

被理解的方式解釋算法、提高算法的透明度,以使其運行更加公開公正。在數(shù)據(jù)

出現(xiàn)跳漏或是算法權(quán)重設(shè)置有誤時,及時提供救濟。算法透明性的要求不僅僅針

對于內(nèi)置性編碼凝視所帶來的隱形歧視,更因其內(nèi)部復(fù)雜以及商業(yè)機密的外衣而

具有黑箱特性,使其成為必要,尤其是算法在信用體系中的應(yīng)用,關(guān)乎公眾在社

會生活中的根本。正如學(xué)者所指出的,對消費者信用進行評分作為涉及消費者切

身權(quán)益的半公共產(chǎn)品,不僅要有足夠的預(yù)測準(zhǔn)確率,還要具有可解釋性[8]。為

避免數(shù)據(jù)失真,歧視決策可能帶來的不利影響,以及分配責(zé)任模糊等問題,有關(guān)

算法透明性、可解釋性需要得到法律的回應(yīng)。

最后,數(shù)據(jù)監(jiān)管則指向算法問責(zé)制的確立和完善。由于至今科學(xué)上都沒有完

美解答算法黑箱歧視問題,因此除了在算法本身進行規(guī)制之外,算法之外的規(guī)制

也必不可少。但是,在算法責(zé)任歸屬中,由于算法責(zé)任難以測量,由于算法多個

環(huán)節(jié)共同作用所造成的算法危害難以追蹤,算法設(shè)計的關(guān)涉人員“碎片化”使得人

的責(zé)任難以分配,算法責(zé)任的分配與承擔(dān)出現(xiàn)困境。在此,只有創(chuàng)建并完善算法

問責(zé)制,才能使公民在遭受算法歧視的時候,知道這一事實及救濟方式。所謂算

法問責(zé)制,即必須有人處理算法所造成的危害,相關(guān)責(zé)任主體有解釋的義務(wù)和對

算法決策負(fù)有責(zé)任,并應(yīng)當(dāng)由責(zé)任主體減輕任何負(fù)面的社會影響或者潛在危害,

畢竟僅僅指出問題而不進行改正只是做了無用功而已。在國際計算機協(xié)會

(ACM)的算法透明度和問責(zé)性七原則中,也指出了算法運行必須有監(jiān)管機制,

以糾正對個人造成的損害結(jié)果和在算法中發(fā)現(xiàn)的偏見?,F(xiàn)今算法監(jiān)管遠(yuǎn)遠(yuǎn)落后于

算法編程技術(shù)的創(chuàng)新,對日益增長的數(shù)據(jù)流監(jiān)管不力,亟待實踐過程中法律予以

回應(yīng)。

(三)建立以權(quán)利失衡的矯正為中心的法律規(guī)制模式

從國際立法來看,目前規(guī)制人工智能算法歧視的法律模式主要有兩種,即歐

盟的以數(shù)據(jù)保護為中心的規(guī)制模式和美國的以算法責(zé)任為中心的規(guī)制模式。

早在1953年,《歐洲人權(quán)公約》中就對個人的數(shù)據(jù)保護予以了規(guī)定,其第8

條提出各人都有權(quán)享有自己生活、通訊得到尊重的權(quán)利[9]。隨著互聯(lián)網(wǎng)技術(shù)的

不斷發(fā)展,傳統(tǒng)的隱私權(quán)保護已經(jīng)不能夠滿足要求,于是2016年《通用數(shù)據(jù)保

護條例》對個人數(shù)據(jù)的保護提供了支撐,其前言中提出算法控制者所需要承擔(dān)的

避免包括有關(guān)于種族、性別、性取向、宗教信仰等敏感因素,所可能造成的歧視

影響的責(zé)任[10]。正如前文所述,訓(xùn)練數(shù)據(jù)作為算法運行的支撐,對于算法的意

義猶如水之于木,歐盟以數(shù)據(jù)保護為中心的規(guī)制模式更多的是從源頭開始對算法

歧視所進行的規(guī)制,通過規(guī)避敏感因素所可能造成的歧視影響而降低算法歧視出

現(xiàn)的可能性。不過在對敏感信息進行篩選的過程中,大量個人數(shù)據(jù)的篩出可能導(dǎo)

致算法決策準(zhǔn)確性的降低。除此之外,剔除敏感社會信息后的算法訓(xùn)練樣本,算

法在通過大量間接樣本對個人畫像進行補足的過程也存在著一定的不確定性。面

對這些問題,傳統(tǒng)的算法篩出也許并不能解決算法歧視問題,算法歧視有關(guān)規(guī)制

或許更應(yīng)該依靠算法審查所具有的篩選功能口1]。

相對于歐洲大陸,美國是以算法責(zé)任為中心的規(guī)制模式。2014年白宮發(fā)表

的《大數(shù)據(jù):攥住機遇,守護價值》[12]中開始提出對于算法歧視的法律規(guī)制問

題,希望政府解決這一問題所有可能帶來的社會危害。2016年1月,美國FTC

(聯(lián)邦貿(mào)易委員會)發(fā)布《大數(shù)據(jù):包容工具還是排斥工具?》[13]中通過對大

數(shù)據(jù)所存在的利弊分析,以及相關(guān)消費者保護法律的運用法則,對大數(shù)據(jù)中間商

和使用企業(yè)的實踐提出相關(guān)建議。2017年發(fā)布了有關(guān)算法透明性、可責(zé)性的聲

明,提出了包括算法可問責(zé)、可解釋、可審計及驗證等為中心的七項原則。最后

于2019年初部分國會議員提出了《算法責(zé)任法案》[14],希望賦予聯(lián)邦貿(mào)易委

員會有要求具有一定經(jīng)濟實力或者社會影響的企業(yè),出具其自動化決策系統(tǒng)以及

數(shù)據(jù)運行所帶來影響的評估的權(quán)力,這一評估包括對自動決策可能帶來的風(fēng)險,

以及數(shù)據(jù)運行可能帶來的歧視性影響等文件。以這種自查方式規(guī)避有可能的算法

歧視,并置以高額的違規(guī)懲罰。盡管這一法案尚未通過,但對于理解美國算法規(guī)

制模式和算法規(guī)制改示有借鑒作用。

在我國,尚未出臺的《個人信息保護法》《數(shù)據(jù)安全管理辦法》1和2019

年《電子商務(wù)法》可以說是從數(shù)據(jù)和算法兩個方向規(guī)制算法歧視的努力,但目前

算法歧視法律規(guī)制仍處于草創(chuàng)階段。筆者認(rèn)為,對于算法歧視的法律規(guī)制可以選

擇以矯正權(quán)利失衡為中心的模式,在借鑒域外相關(guān)制度的基礎(chǔ)上,建構(gòu)我國算法

歧視法律規(guī)制制度體系。這一模式具體包括三個部分,即權(quán)利確認(rèn)、權(quán)利保護、

權(quán)利救濟。首先,權(quán)利確認(rèn)通過保護數(shù)據(jù)提供者的平等權(quán),保證各個群組,各種

類型的信息毋論大小、多寡經(jīng)過公正篩選之后,都能夠充分的參與到算法樣本數(shù)

據(jù)中來,在算法決策中得以體現(xiàn)。其次,通過實現(xiàn)權(quán)利主體的知情權(quán)和選擇權(quán)來

實現(xiàn)權(quán)利保護的內(nèi)容。由于算法程式的特殊性,權(quán)利主體的知情、選擇權(quán)往往由

于技術(shù)或者其他因素的限制怠于實現(xiàn),通過法律系統(tǒng)的積極回應(yīng),實現(xiàn)算法程式、

內(nèi)容以及輸出結(jié)果的透明化和可解釋性以保障主體權(quán)利的實現(xiàn)。再次,權(quán)利救濟

是對算法疏于監(jiān)管的現(xiàn)狀作出的積極調(diào)整,通過算法問責(zé)制的構(gòu)建給予權(quán)利主體

可靠的救濟途徑而促使算法程式的不斷完善。

三、算法歧視法律規(guī)制的制度完善

相較于歐美法律系統(tǒng)內(nèi)簡單的事前事后規(guī)制,權(quán)力失衡的矯正程序通過各個

環(huán)節(jié)的聯(lián)動合作,構(gòu)建有關(guān)算法歧視的法律規(guī)制。

(-)明確篩選訓(xùn)練數(shù)據(jù)的標(biāo)準(zhǔn)化制度

這一環(huán)節(jié)是確認(rèn)主體平等權(quán),對各種信息篩選標(biāo)準(zhǔn)進行完善,即權(quán)利確認(rèn)的

內(nèi)容。如前文算法歧視的技術(shù)構(gòu)造得知,算法歧視產(chǎn)生的一部分原因就是因為算

法訓(xùn)練數(shù)據(jù)存在偏差,由此導(dǎo)致的數(shù)據(jù)污染隨著算法因為原始數(shù)據(jù)本身的盲區(qū)而

越來越大。算法數(shù)據(jù)的樣本如果一直輕視小樣本、稀有樣本的聲音,為了追求效

率而忽略掉少數(shù)族群的“吶喊”,帶來的社會效應(yīng)將會極其糟糕,部分人的聲音不

再是人們所能聽到的聲音。面對訓(xùn)練數(shù)據(jù)的質(zhì)量以及面向族群的缺陷,在訓(xùn)練數(shù)

據(jù)篩選的過程中應(yīng)盡可能的納入多樣性為篩選標(biāo)準(zhǔn)。由此,算法多樣性并非單稱

網(wǎng)絡(luò)數(shù)據(jù)的多樣性,在篩選標(biāo)準(zhǔn)、族群、性別、內(nèi)容偏向方面也應(yīng)當(dāng)具有多樣性,

只有在多方力量維持多樣平衡的同時,算法上的公正才能得到保證。

就具體內(nèi)容而言,首先,篩選標(biāo)準(zhǔn)上,除了對主流數(shù)據(jù)進行篩選之外,面對

容易被識別為“噪音數(shù)據(jù)''的少數(shù)數(shù)據(jù)應(yīng)當(dāng)設(shè)計更加精細(xì)的標(biāo)準(zhǔn),不能讓少部分人

的聲音因為微弱而被忽略。其次,在設(shè)計人員的組成上,盡可能吸納不同年齡、

性別,甚至種族的設(shè)計人員,對設(shè)計人員的組成和監(jiān)督人員的設(shè)置投入多樣性評

分機制,通過不同性別、種族之間的差異平衡因為單一設(shè)計人員可能帶來訓(xùn)練數(shù)

據(jù)準(zhǔn)入標(biāo)準(zhǔn)的偏見[15]。再次,在訓(xùn)練數(shù)據(jù)的內(nèi)容偏向性上,除了對與需要得到

的算法結(jié)果正相關(guān)的數(shù)據(jù)之外,部分關(guān)聯(lián)數(shù)據(jù)也應(yīng)當(dāng)考慮進來,在大數(shù)據(jù)時代信

息與信息之間相互鏈接,信息的攝入單純考慮到正相關(guān)的訓(xùn)練數(shù)據(jù)不足以反應(yīng)真

實的社會聲音。綜上所述,在算法設(shè)計前期,法律應(yīng)當(dāng)對算法前期主要的數(shù)據(jù)構(gòu)

成和設(shè)計程式進行規(guī)制,提出多樣性的要求,最大程度的規(guī)避“偏見數(shù)據(jù)”進入算

法程式之中。

(二)建立算法透明性和可解釋性的審查機制

這是以算法透明性、可解釋性為切入點保護主體知情權(quán)和選擇權(quán),即權(quán)利保

護的內(nèi)容。近年來,國際電子協(xié)會以及歐美國家有關(guān)立法機關(guān)都開始著手對算法

透明性和可解釋進行規(guī)制。為了平衡公平與便利的矛盾,我國需要對算法透明及

其可解釋性作出規(guī)定,不能僅僅依靠行業(yè)自律對算法市場進行規(guī)范。算法解釋要

求算法決策系統(tǒng)的使用者對算法遵循的程序和特定結(jié)果進行解釋。隨著科學(xué)技術(shù)

的發(fā)展和專業(yè)人才的增加,公布和監(jiān)管算法內(nèi)容和結(jié)果并非完全不可能的事情,

但需要注意的是,由于算法運營者有時通過其算法系統(tǒng)進行商業(yè)運作,算法公平

的要求與保護商業(yè)秘密、個人隱私以及防止第三方機構(gòu)欺詐等存在沖突。止匕外,

算法代碼通常多而復(fù)雜,對其進行全面測試的成本也很高,隨著數(shù)據(jù)時代的到來,

或大或小的算法程式只會越來越多,對每一條算法進行監(jiān)管是不現(xiàn)實的。

對算法內(nèi)容、輸出結(jié)果進行審查和公開對于算法公平雖是必不可少,但是不

能簡單的要求一律公開,應(yīng)當(dāng)建立標(biāo)準(zhǔn)完善的審查機制。在我國的具體實踐中,

也有對智能投顧領(lǐng)域的算法透明性的規(guī)定,有學(xué)者將其概括為算法的穿透式監(jiān)

管,但是這種監(jiān)管手段的發(fā)起方和實施方都是公權(quán)力主體,第三方介入的方式幾

乎微乎其微[16]。在當(dāng)前背景下,第三方機構(gòu)對于算法運行機制的熟悉程度往往

是高于公權(quán)力主體的。應(yīng)當(dāng)適當(dāng)準(zhǔn)入第三方機構(gòu)對算法內(nèi)容、輸出結(jié)果中的技術(shù)

性內(nèi)容進行審查,通過設(shè)置相關(guān)的技術(shù)性機制對算法訓(xùn)練樣本、內(nèi)置性編碼凝視

等問題進行篩選和解釋,并由公權(quán)力主體進行主導(dǎo)和監(jiān)督,即通過技術(shù)手段,對

算法運行機制中的篩選標(biāo)準(zhǔn)和最終結(jié)果進行解釋,以此最大程度地推進算法公平

在三方之間的實現(xiàn)。

(三)完善算法問責(zé)機制

建立算法問責(zé)機制,對算法決策所帶來的不利影響進行追責(zé),這是權(quán)利救濟

的內(nèi)容。為盡可能避免算法歧視,除了對算法進行訓(xùn)練樣本的篩選和運行過程中

的監(jiān)督之外,算法的問責(zé)機制也同樣重要。算法問責(zé)要求算法使用者對算法產(chǎn)生

的結(jié)果負(fù)責(zé),而不論是否能夠詳細(xì)解釋該結(jié)果為何產(chǎn)生,并要求在設(shè)計算法時就

遵循法律、政策的要求,使算法對法律的目標(biāo)負(fù)責(zé)。建立算法問責(zé)機制需要明確

算法歧視的責(zé)任主體、歸責(zé)原則、法律責(zé)任三個部分。

首先,明確算法歧視的責(zé)任主體。為算法歧視承擔(dān)法律責(zé)任的,主要是那些

注入歧視因子或有義務(wù)卻未能及時排除歧視因子的主體,在算法歧視形成的過程

中,有關(guān)開發(fā)者、運營主體在將具有偏見的歧視因子納入算法結(jié)果生成過程中,

但是卻任由之影響算法結(jié)果的生成沒有及時排除不利影響,則需要承擔(dān)責(zé)任。

其次,確定算法歧視的歸責(zé)原則。算法歧視會給被歧視者造成精神或物質(zhì)層

面的損害,理應(yīng)受到侵權(quán)法的規(guī)制。由于算法設(shè)計準(zhǔn)則與算法用戶之間存在著天

然技術(shù)壁壘以及前文所提到的權(quán)利不對等的現(xiàn)象,因此,在算法責(zé)任適用的過程

中,無過錯責(zé)任原則能夠最大限度的保護使用者的權(quán)利,以此保持平衡。在歸責(zé)

原則得到確認(rèn)的前提下,算法歧視的因果關(guān)系認(rèn)定規(guī)則以及在算法開發(fā)者內(nèi)部的

責(zé)任劃分也是亟待解決的問題。第一,在無過錯責(zé)任原則這一歸責(zé)背景下,仍有

兩種情形,一種是在當(dāng)事人都沒有過錯的情況下根據(jù)實際情況分擔(dān)過錯,承擔(dān)賠

償責(zé)任;另一種是在諸如產(chǎn)品責(zé)任、環(huán)境污染、飼養(yǎng)動物等特殊情況造成損傷的

情形下,致害人即使無過錯仍承擔(dān)民事責(zé)任。正如前文所述,在算法開發(fā)者與算

法用戶之間存在著數(shù)據(jù)、技術(shù)鴻溝,雙方權(quán)利地位處于極度失衡的狀態(tài),因此對

于算法責(zé)任的因果關(guān)系認(rèn)定應(yīng)當(dāng)類比產(chǎn)品責(zé)任的認(rèn)定,算法用戶在證明算法歧視

給相同背景下的算法用戶進行了區(qū)別對待,并這一區(qū)別對待損害用戶的利益即視

為因果關(guān)系成立。第二,在算法歧視的責(zé)任人內(nèi)部,算法開發(fā)者可以分為對算法

程式熟練掌握的算法設(shè)計者、將算法技術(shù)納入公司運營用以謀求利益的算法運營

者兩類,自此責(zé)任劃分也應(yīng)當(dāng)分為幾種情況。首先,若算法設(shè)計者在設(shè)計程式時,

已經(jīng)竭盡當(dāng)下技術(shù)水平所能及排除歧視因子對于算法用戶權(quán)利的侵害,而算法運

營者在運營的過程中納入歧視因子。應(yīng)由算法運營者承擔(dān)主要責(zé)任,算法設(shè)計者

承擔(dān)補充責(zé)任。其次,若設(shè)計者和運營者在歧視因子的排除過程中都起到了消極

作用,則兩者應(yīng)對損害結(jié)果承擔(dān)連帶責(zé)任。最后,若設(shè)計者未將歧視因子篩出即

予算法運營者使用,在這一情形下由于算法運營者對算法程式掌握程度遠(yuǎn)不如設(shè)

計者,應(yīng)由算法設(shè)計者承擔(dān)主要責(zé)任,算法運營者承擔(dān)疏于篩查的補充責(zé)任。

再次,確立數(shù)據(jù)算法的法律責(zé)任,數(shù)據(jù)算法的法律責(zé)任包括事前責(zé)任和事后

責(zé)任兩個方面。事前責(zé)任即為算法訓(xùn)練數(shù)據(jù)、算法編碼的內(nèi)置編碼凝視以及運算

過程中出現(xiàn)的算法歧視現(xiàn)象,通過設(shè)置警示、懲罰機制,通過定期整改、罰款、

停用等規(guī)制措施,對具有組漏的算法進行規(guī)制。事后責(zé)任即為在發(fā)生算法歧視所

導(dǎo)致的不良結(jié)果之后,對于相關(guān)責(zé)任人的追責(zé)原則。在事后責(zé)任方面可以引入“純

粹經(jīng)濟損失”原則,歧視結(jié)果可能帶來的各種間接、直接的經(jīng)濟損失相較于現(xiàn)實

世界中的沖突更加難以把握。正如前文所言,由于開發(fā)者、運營者與用戶地位的

天然級差,通過“純粹經(jīng)濟損失”可以最大程度的拉長損害賠償?shù)囊蚬P(guān)系鏈條,

最大程度的避免用戶權(quán)利、利益受到侵害后的投告無門[17]。

參考文獻:

[1]楊學(xué)科.論智能互聯(lián)網(wǎng)時代的算法歧視治理與算法公正[幾山東科技大學(xué)

學(xué)報(社會科學(xué)版),2019,21(4):33-58

[2]張玉宏,秦志光,肖樂.大數(shù)據(jù)算法的歧視本質(zhì)[J]啟然辯證法研究,2017,

33(5):81-86

[3]高學(xué)強.人工智能時代的算法裁判及其規(guī)制[J].陜西師范大學(xué)學(xué)報(哲學(xué)

社會科學(xué)版),2019,48(3):161-168.

[4]彭蘭.假象、算法囚徒與權(quán)利讓渡:數(shù)據(jù)與算法時代的新風(fēng)險[J].西北師

大學(xué)報(社會科學(xué)版),2018,55(5):20-29.

[5]馮衛(wèi)國.權(quán)利失衡視野下的農(nóng)民工犯罪[C].中國犯罪學(xué)學(xué)會.中國犯罪

學(xué)學(xué)會第十七屆學(xué)術(shù)研討會論文集.中國犯罪學(xué)學(xué)會:中國犯罪學(xué)學(xué)會,2008:

132-133.

[6]SolonBarocas,AndrewD.Selbs.BigData'sDisparateImpact*fJ].California

LawReview,2016,104(3):671-732.

[7]季潔.算法歧視下的金融風(fēng)險防控[J].上海金融,2018(10):60-64.

[8]劉新海,陳道富,孟祥鋒.擔(dān)保圈風(fēng)險的大數(shù)據(jù)實證分析[J].清華金融評

論,2016(10):71-72.

[9]項延,陳曦.大數(shù)據(jù)時代歐盟個人數(shù)據(jù)保護權(quán)初探[J].華東理工大學(xué)學(xué)報

(社會科學(xué)版),2019,34(2):81-91.

[10]胡嘉妮,葛明瑜.歐盟《一般數(shù)據(jù)保護條例》[J].互聯(lián)網(wǎng)金融法律評論,

2017(1):28-120.

[11]汪慶華.人工智能的法律規(guī)制路徑:一個框架性討論[J].現(xiàn)代法學(xué),2019,

41(2):54-63.

[12]“BigData:SeizingOpportunities,PreservingValues”

[13]"BigData:AToolforInclusionorExclusion?”FTCReport,January2016,

retrievedfrom

[14]H.R.2231-AlgorithmicAccountabilityActof2019,introduced04/l0/2019,

retrievedfrom

[15]金童書平,劉慶振,牛媛媛,陳疆猛.智能媒體語境中的信息囚徒、算法

悖論及其突圍路徑[J].教育傳媒研究,2019(3):16-21.

[16]周仲飛,李敬偉.金融科技背景下金融監(jiān)管范式的轉(zhuǎn)變[J],法學(xué)研究,

2018,40(5):3-19

[17]王夙.人工智能發(fā)展中的“算法公開”能否解決"算法歧視”?[J],機器人產(chǎn)

業(yè),2019(3):17-22.

Abstract:Thebuilt-incodedgazeofthealgorithm,thedeviationofthetraining

datathatsupportstheoperationofthealgorithm,andthelackofprogram

transparencycausedbythealgorithmblackboxarethetechnicalreasonsthatleadto

algorithmdiscrimination,whichinturnleadstoanimbalanceofrightsandmakes

rightsastateofdeficiency.Inordertoensuretheexerciseofrights,thisarticle

proposedthattheconceptofalgorithmicfairnessshouldbeestablished,andthe

technicalaspectsoflegalregulationonalgorithmicdiscriminationshouldbeclarified.

Alegalregulationmodelcenteredonthecorrectionofrightsimbalancesshouldbe

establishedasthepathchoiceforalgorithmicdiscriminationlegalregulation.The

systemwillbeimprovedinthreeaspects:clarificationoftheselection

standardizationofthetrainingdata,establishmentofareviewmechanismfor

algorithmtransparencyandinterpretability,andimprovementofalgorithm

accountabilitymechanism.

Keywords:algorithmicdiscrimination;rightimbalance;pathselection;system

improvement

算法歧視法律規(guī)制的法理分析

摘要:算法的迅速發(fā)展使得法律對算法的規(guī)制制度迅速滯后,算法逐漸暴

露出歧視性的特征,已經(jīng)嚴(yán)重問題,不僅體現(xiàn)在商業(yè)領(lǐng)域,現(xiàn)如今已經(jīng)向公權(quán)力

域滲透,嚴(yán)重影響了算法正義的實現(xiàn)。算法歧視產(chǎn)生源自于人類社會本身的歧視

和算法權(quán)利人的利用目的,并通過數(shù)據(jù)的量化展現(xiàn)出來。算法歧視是為對人的尊

嚴(yán)的侵犯,對平等原則的違背,對正義價值的僭越。反觀我國現(xiàn)行的法律規(guī)制尚

未形成完備的體系,呈現(xiàn)出監(jiān)管困難、責(zé)任落實不到位、法律適用尺度不一等問

題,因此,應(yīng)當(dāng)堅持以人為本位,建立算法規(guī)制的法律體系,維護算法正義。

關(guān)鍵詞:算法歧視;平等原則;正義價值;算法規(guī)制

近幾年,隨著移動終端的迅速普及,互聯(lián)網(wǎng)在數(shù)據(jù)來源拓寬,加之現(xiàn)代計算

機的數(shù)據(jù)傳播、收集、運算能力的加強,算法發(fā)展勢頭迅猛,特別是人工智能的

出現(xiàn),計算機程序超越了傳統(tǒng)的被動、機械運算的層次,開始具有大范圍的自主

深度學(xué)習(xí)的能力,并且具有了輔助決策功能。

但是,隨著科技的迅猛發(fā)展,監(jiān)管和規(guī)制制度迅速滯后。2020年,復(fù)旦大

學(xué)孫金云教授帶領(lǐng)團隊提交了一份大數(shù)據(jù)報告,揭示了一個非經(jīng)大樣本調(diào)查無法

發(fā)現(xiàn)的問題——價格歧視。大數(shù)據(jù)“殺熟”問題出現(xiàn),意味著科技樹點亮之后,科

技“雙刃劍''的不公平、不合理應(yīng)用的發(fā)現(xiàn)、監(jiān)督、管理和規(guī)制的問題將成為一個

巨大的挑戰(zhàn)。

為了適應(yīng)大數(shù)據(jù)時代的到來和算法的發(fā)展,以及規(guī)制算法的不正當(dāng)應(yīng)用的問

題,2021年8月,全國人大常委會表決通過了《個人信息保護法》,以調(diào)整信息

交流、信息保護、信息使用等方面的關(guān)系。2021年10月29日,最高人民法院

發(fā)布了《關(guān)于加強新時代知識產(chǎn)權(quán)審判工作為知識產(chǎn)權(quán)強國建設(shè)提供有力司法服

務(wù)和保障的意見》。

一、算法的概述

根據(jù)中國科學(xué)技術(shù)協(xié)會關(guān)于算法的定義:“算法是指解題方案的準(zhǔn)確而完整

的描述,是一系列解決問題的清晰指令,算法代表著用系統(tǒng)的方法描述解決問題

的策略機制。也就是說,能夠?qū)σ欢ǖ囊?guī)范輸入,在有限的時間內(nèi)獲得所要求的

輸出”。本文中所說的算法值得是以計算機為載體的智能算法,不僅包括源代碼,

也包括算法運行的計算網(wǎng)絡(luò)以及算法賴以決策的大數(shù)據(jù),不論是算法還是現(xiàn)代意

義的智能算法,都是通過某一特定規(guī)則處理信息,并輸出為特定結(jié)果。由于算法

的不透明性和自主性,侵權(quán)事實的發(fā)現(xiàn),以及侵權(quán)事實發(fā)生后侵權(quán)責(zé)任分配成為

難題,算法“黑箱”也可能成為責(zé)任機構(gòu)推諉的工具和屏障。

二、算法歧視的產(chǎn)生與表現(xiàn)

科技本身具有中立性,但是在實行過程中,算法卻表現(xiàn)出歧視性。根據(jù)現(xiàn)在

通說的觀點,“算法歧視的根源是人類本身”,人工智能歧視和威脅都并非來自人

工智能,而是設(shè)計者和支配者的思維的衍射。在設(shè)計算法的過程中,設(shè)計者往往

根據(jù)自身的需要、立場以及利益等因素,使得算法的運行能夠滿足符合預(yù)期目的。

其次,算法學(xué)習(xí)和依據(jù)決策的大數(shù)據(jù)本身,也會反應(yīng)算法設(shè)計者和數(shù)據(jù)產(chǎn)生、收

集者的價值偏好,算法實際處理處理數(shù)據(jù)的過程中,看似客觀中立實際區(qū)別對待

的。第三,算法具有社會歷史性,牛津大學(xué)數(shù)據(jù)倫理和算法領(lǐng)域?qū)<疑5吕?沃

撤說:“世界存在偏見,歷史數(shù)據(jù)就存在偏見,因此,我們得到帶有偏見的結(jié)果,

不足為奇?!比祟惿鐣旧硎菨摬仄娦缘?,算法通過數(shù)字量化的方式,使得偏

見以更直觀的方式顯化出來。

算法嵌入商業(yè)領(lǐng)域、社會生活領(lǐng)域甚至公權(quán)力領(lǐng)域,己經(jīng)對社會方方面面產(chǎn)

生深遠(yuǎn)的影響。因此,當(dāng)算法歧視的問題影響的范圍也非常廣泛,本文將從社會

生活領(lǐng)域和公權(quán)力領(lǐng)域?qū)λ惴ㄆ缫暤谋憩F(xiàn)進行分析。

首先,算法歧視表現(xiàn)在社會生活領(lǐng)域。在算法建立的基礎(chǔ)上,算法的支配者

和適用對象之間的地位注定不平等。在用戶加入企業(yè)平臺初期,往往會要求用戶

簽訂“隱私協(xié)議”、“用戶協(xié)議”等格式條款作為使用軟件的前置條件。對客戶的年

齡、瀏覽記錄、價格區(qū)間等信息進行收集,是平臺在算法的幫助下,利用雙方的

的信息差,重新制定具有針對性的定價、制定營銷策略。

其次,算法歧視的的問題滲透進公權(quán)力領(lǐng)域,近年來從中央到地方大力推進

“智慧法院”、“法律輔助系統(tǒng)”,例如北京市高院的“睿法官”,最高院的“類案智能

推送系統(tǒng)”,這些智能系統(tǒng)都表現(xiàn)出強大的數(shù)據(jù)處理和分析能力,在應(yīng)對“訴訟爆

炸”方面提高司法效率,輔助裁判具有重要的意義。但是算法的弊端隨之而來,

司法系統(tǒng)數(shù)據(jù)量龐大,系統(tǒng)建設(shè)發(fā)展迅速,使得算法歧視在司法領(lǐng)域表現(xiàn)得尤為

明顯。

三、法律規(guī)制算法的法理證成

我們在依賴算法的同時,不得不承受伴隨著算法的特性而來的巨大風(fēng)險。因

此我們應(yīng)當(dāng)充分了解算法帶來的影響,對算法歧視的規(guī)制的研究具有重要意義。

(一)算法歧視的法理違背

首先,算法歧視對人的尊嚴(yán)造成侵犯,“雖然尊嚴(yán)不是一種美德,卻是許多

美德之母”,人的尊嚴(yán)是任何時代、任何國家都應(yīng)當(dāng)尊重和捍衛(wèi)的底線,也必須

成為算法時代倫理以及法律的至高原則。我國《憲法》明確規(guī)定,“中華人民共

和國公民人格尊嚴(yán)不受侵犯”,但是算法歧視的對人的尊嚴(yán)提出了挑戰(zhàn)。首先,

在當(dāng)代互聯(lián)網(wǎng)的“監(jiān)視”下,用戶在個人信息和隱私不得不做出一定的退讓。算法

利用收集來的用戶信息對用戶進行分析、畫像,并作出相應(yīng)的營銷對策和定價時,

是在未經(jīng)用戶的知情同意的情況下,已經(jīng)打破了平臺和用戶基本的平等和尊重。

針對用戶個人信息進行分析的時候,性別、年齡、民族、職業(yè)等進入分析模型,

難免對各種變量進行加權(quán),種種明碼標(biāo)價的行徑很難說不是在挑戰(zhàn)尊嚴(yán)的底線。

人民在社會關(guān)系中應(yīng)當(dāng)占據(jù)主體地位,人民主體性的基礎(chǔ)基本要求就是人的意思

自由,能夠按照自己的意志自由行動。人工智能的算法是最初的定位是服務(wù)和輔

助人類,而現(xiàn)在人工智能正在脫離工具性地位,正在形成算法權(quán)力對人產(chǎn)生支配

作用,人在交易中從獨立自主地位變成了被支配地位。算法應(yīng)當(dāng)維護人的尊嚴(yán),

而不是漠視和凌駕于人的價值之上,這種對人本主義的漠視是不可取的。

其次,算法歧視明顯違背了平等原則。平等原則是主體的法律地位一律平等

的準(zhǔn)則,是現(xiàn)代法律的精髓。我國憲法明確規(guī)定:“中華人民共和國公民在法律

面前一律平等”,在算法歧視造成的差別中,往往在限度和事項上是不合理的,

是違背公序良俗的。消費者在以讓渡部分個人隱私換取服務(wù)時,并不意味著與商

家交易接受差別對待。而且算法具有不透明性,算法歧視往往具有隱蔽性,用戶

無法獲得大量數(shù)據(jù)來查證是否被差別對待。用戶和平臺的對抗處于實力懸殊的地

位,平臺擁有強大的數(shù)據(jù)支撐,用戶缺少能力和專業(yè)知識對抗,但是為了使用便

利只能妥協(xié)。平臺和用戶之間已經(jīng)從信息不對等轉(zhuǎn)化為實質(zhì)的權(quán)利義務(wù)的不平

等。當(dāng)算法歧視滲透進公權(quán)力領(lǐng)域,公民的平等權(quán)將會受到進一步剝削,使得公

民在保障權(quán)利的“最后一道防線”這里仍無法尋求到公正的對待。將引發(fā)更為嚴(yán)重

的社會后果。

(二)規(guī)制算法歧視的合理性

法律與科技的關(guān)系一直是法理學(xué)界重點討論的話題,根據(jù)韓大元教授的觀

點,法學(xué)的使命不是要對科技發(fā)展所帶來的輝煌成就的贊成,而是要審視科技可

能帶來的非理性后果,以及如何通過法治降低科技發(fā)展帶來的風(fēng)險。V不能因為

科技造成非理性后果就因此制約科技的發(fā)展,但是要引導(dǎo)科技在正當(dāng)?shù)能壍腊l(fā)展

并運行是法律應(yīng)有之義。

技術(shù)的發(fā)展可能對法律造成沖擊和挑戰(zhàn),但是法律仍應(yīng)當(dāng)對技術(shù)發(fā)展進行保

護。法律也是力量對比的體現(xiàn),因此當(dāng)科技的力量發(fā)展的足夠壯大,應(yīng)當(dāng)對其進

行規(guī)制,處理好技術(shù)的保護和規(guī)制的關(guān)系,才能達(dá)到調(diào)整社會力量平衡,實現(xiàn)社

會公平正義,維護社會秩序的穩(wěn)定。

四、現(xiàn)行算法規(guī)制模式

近年來,我國明顯加強了對個人信息的保護,2021年11月《個人信息保護

法》正式開始實行,通過個人信息保護法,對公民個人信息的收集、處理和使用

做了嚴(yán)格的限制。同樣于2021年施行的《民法典》也明確規(guī)定了公民的“隱私權(quán)

與個人信息保護其他關(guān)于個人電子信息的規(guī)定還散見于《關(guān)于加強網(wǎng)絡(luò)信息

保護決定》、《網(wǎng)絡(luò)安全法》、《消費者權(quán)益保護法》等,對于嚴(yán)重侵犯公民個人信

息權(quán)的行為,《民法典》中明確規(guī)定了網(wǎng)絡(luò)侵權(quán)責(zé)任,《刑法》與《刑法修正案(九)》

中也具體明確規(guī)定了“侵犯公民個人信息罪”和“編造、故意傳播虛假信息罪”,作

為保障公民個人信息權(quán)落實的底線。

在我國的立法實踐中,真正對算法、深度學(xué)習(xí)及個性化定制等內(nèi)容進行規(guī)定

是近兩年才開始的。2019年實施的《電子商務(wù)法》首先針對用戶畫像并個性化

推送商品的行為做出規(guī)制。隨后陸續(xù)出臺的《數(shù)據(jù)安全管理辦法》、《網(wǎng)絡(luò)信息內(nèi)

容生態(tài)治理規(guī)定》分別就“定推”的相關(guān)規(guī)定,圍繞著“定推”標(biāo)識義務(wù)、“定推”的

人工干預(yù)和用戶自主選擇機制做出了明確規(guī)定。2020年,國家標(biāo)準(zhǔn)《個人信息

安全規(guī)范》對信息安全保障做出更加詳細(xì)的規(guī)定,針對“多項業(yè)務(wù)功能自主選擇”,

“用戶畫像的使用限制個性化展示的使用”、“獲取個人數(shù)據(jù)''及"算法自動決策”

的權(quán)利進行嚴(yán)格限制。指定個人信息保護方面的標(biāo)準(zhǔn)有可能成為作用于法律與實

踐之間的“潤滑劑”,對動態(tài)發(fā)展的個人信息提供動態(tài)保護建議。

我國現(xiàn)行的算法的法律規(guī)制重視對算法輸出結(jié)果的規(guī)制,對過程的規(guī)制較

少,責(zé)任平臺的責(zé)任承擔(dān)不夠明確,而且條文散見于法律法規(guī)之中,缺乏體系性。

雖然我國諸多法律里已經(jīng)提及算法的規(guī)制和公民權(quán)利的保護,但是涉及的法律法

規(guī)眾多,且分處與不同的層級,缺乏體系性會導(dǎo)致使用的困難、立法和裁判尺度

難以統(tǒng)一,不利于市場監(jiān)管等。其次,如果無法把責(zé)任落實到位,則權(quán)利保護就

無從談起。在對于我國現(xiàn)行的算法規(guī)制的法律規(guī)范來說,我國對于平臺責(zé)任并未

作出明確的規(guī)定,特別是電子數(shù)據(jù),由于流通的便利,隱患就更為嚴(yán)重,我國在

數(shù)據(jù)的濫用、泄露、流通方面的義務(wù)、責(zé)任沒有明確具體的規(guī)定,而

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論