摘 要 為應(yīng)對算法技術(shù)形成的數(shù)字化生存困境,免受自動(dòng)化決策約束權(quán)應(yīng)運(yùn)而生。該項(xiàng)權(quán)利賦予數(shù)據(jù)主體自治性尊重,是技術(shù)正當(dāng)程序的應(yīng)有之義,有助于數(shù)據(jù)主體與數(shù)據(jù)控制者之間創(chuàng)建信任性互動(dòng)。歐盟《通用數(shù)據(jù)保護(hù)條例》第 22 條選取了嚴(yán)格禁令與積極權(quán)利路徑的中間路線,設(shè)定了橫跨公私場景下自動(dòng)化決策實(shí)施的正當(dāng)性基礎(chǔ),構(gòu)建了多層次立體化聯(lián)動(dòng)保護(hù)機(jī)制。但該條制度設(shè)計(jì)存在限制過多、指引不明、規(guī)則科學(xué)性不足以及實(shí)效堪憂的缺憾。我國《個(gè)人信息保護(hù)法》應(yīng)在借鑒的基礎(chǔ)上積極創(chuàng)新,擴(kuò)展行權(quán)適用的決策類型,厘清對個(gè)人產(chǎn)生影響的判斷標(biāo)準(zhǔn),并面向數(shù)據(jù)生命周期構(gòu)建事前知曉、事中參與、事后救濟(jì)的全周期閉環(huán)行權(quán)體系,增強(qiáng)算法私權(quán)體系的韌性和質(zhì)效。
關(guān)鍵詞 免受自動(dòng)化決策約束權(quán) 拒絕權(quán) 算法治理 個(gè)人信息保護(hù)
張欣, 華東政法大學(xué)學(xué)報(bào) 發(fā)表時(shí)間:2021-09-20
一、問題的提出
伴隨著海量數(shù)據(jù)和高效算法,自動(dòng)化決策系統(tǒng)被日益廣泛地應(yīng)用在金融、醫(yī)療、就業(yè)、警務(wù)、社會(huì)福利等公共和商業(yè)領(lǐng)域,成為數(shù)字社會(huì)的基礎(chǔ)設(shè)施之一。算法不斷分析和透視人類生活,像“隱形牢籠”一般操控著人類。各類社交媒體過濾信息流,搜索引擎過濾搜索結(jié)果,人們生活在算法濾泡之中。〔1〕無論是沉浸在短視頻中無法自拔的年輕人,還是被困在智能配送系統(tǒng)里無力招架的外賣騎手,〔2〕一系列算法操控現(xiàn)象反映出個(gè)體被不斷數(shù)據(jù)化,逐步喪失主體性的數(shù)字化生存困境。〔3〕面對算法的擴(kuò)展性滲透,以歐盟《通用數(shù)據(jù)保護(hù)條例》(以下簡稱 GDPR)為代表的立法賦予了數(shù)據(jù)主體一系列新型算法權(quán)利,希冀以此賦予個(gè)體選擇權(quán)和控制權(quán),弱化人在算法社會(huì)被不斷異化的趨勢。在這些新型權(quán)利中,算法解釋權(quán)已得到中外學(xué)者的一致關(guān)注和熱烈探討,相關(guān)研究層出不窮。〔4〕但與算法解釋權(quán)的研究熱潮形成鮮明反差的是,深入探究免受自動(dòng)化決策約束權(quán)(Right not to be subject to automated decision-making)的研究卻尚為薄弱,缺乏體系化、理論化的深度挖掘。〔5〕實(shí)際上,與算法解釋權(quán)相比,數(shù)據(jù)主體免受自動(dòng)化決策約束權(quán)貫穿著歐洲個(gè)人信息保護(hù)法的整個(gè)發(fā)展歷程。該項(xiàng)權(quán)利以保護(hù)人的主體性為首要宗旨,面向事后階段構(gòu)筑算法風(fēng)險(xiǎn)消弭機(jī)制,成為個(gè)體對抗算法操控的防御堡壘。伴隨著我國數(shù)字技術(shù)的發(fā)展,日趨成熟的算法技術(shù)嵌入逐利驅(qū)動(dòng)的平臺(tái)之中,滋生蔓延了一系列算法濫用行為。為此,我國立法者雖并未全盤移植免受自動(dòng)化決策約束權(quán),但在算法治理實(shí)踐中已然通過多種方式踐行著類似的制度設(shè)計(jì)。〔6〕可以說,如何科學(xué)構(gòu)筑數(shù)據(jù)主體對抗算法的新型權(quán)利體系,針對算法風(fēng)險(xiǎn)建立科學(xué)完備的預(yù)警機(jī)制、抵御機(jī)制及消弭機(jī)制,增強(qiáng)對抗算法私權(quán)體系的韌性和質(zhì)效成了中外算法治理研究和立法實(shí)踐的首要難點(diǎn)。在《個(gè)人信息保護(hù)法》頒布之際更進(jìn)一步凸顯出算法基礎(chǔ)權(quán)利研究的現(xiàn)實(shí)緊迫性。鑒于這一主題的重要意義,本文聚焦 GDPR 第 22 條之規(guī)定,以立法溯源和功能價(jià)值為研究基礎(chǔ),凝練探析免受自動(dòng)化決策約束權(quán)的構(gòu)造原理。通過對技術(shù)架構(gòu)、主體行為以及權(quán)利構(gòu)造的聯(lián)合反思,本文緊密結(jié)合《個(gè)人信息保護(hù)法》第 24 條及我國最新算法治理實(shí)踐對免受自動(dòng)化決策約束權(quán)的本土化借鑒與調(diào)適予以深入探討。
二、立法溯源與功能探析
瞰覽數(shù)據(jù)主體免受自動(dòng)化決策約束權(quán)的立法史可以發(fā)現(xiàn),該項(xiàng)權(quán)利的淵源與演變實(shí)際上與歐洲隱私傳統(tǒng)及基本權(quán)利保障變革的譜系緊密交織。在歐洲隱私治理傳統(tǒng)中,以完全自動(dòng)化方式評估或者預(yù)測個(gè)體,以算法調(diào)配和呈現(xiàn)個(gè)體生活,被認(rèn)為是以去人性化的方式對個(gè)體尊嚴(yán)的數(shù)字化貶損。〔7〕緣于這一認(rèn)知,不難理解立法者為何對以可計(jì)算方式呈現(xiàn)個(gè)人形象、決定個(gè)人損益的自主型算法抱有警覺和擔(dān)憂。循此邏輯,要重塑個(gè)體在機(jī)器時(shí)代的尊嚴(yán),首先應(yīng)確保其具有脫離算法操控的選擇權(quán),從法律機(jī)制上允許個(gè)體回歸到“人先于一切”的原初狀態(tài)。〔8〕有鑒于此,免受自動(dòng)化決策約束權(quán)漸具雛形,應(yīng)運(yùn)而生。
早在 1978 年,法國通過的《第 78-17 號(hào)計(jì)算機(jī)、文件和自由法》第 10 條就明確規(guī)定,如果一項(xiàng)司法決定完全基于自動(dòng)化數(shù)據(jù)處理作出,且該決定以目標(biāo)主體的畫像或者個(gè)性評估為依據(jù),應(yīng)當(dāng)對其加以禁止。〔9〕該條規(guī)定采用全面禁止路徑,對完全自動(dòng)化決策在司法領(lǐng)域的適用加以限制,希冀以保障人類司法決策的方式對抗個(gè)體尊嚴(yán)被不斷蠶食的現(xiàn)狀。類似的立法理念可在同一時(shí)期頒布的多部數(shù)據(jù)保護(hù)法中觀察到。〔10〕1995 年,歐盟委員會(huì)頒布了《數(shù)據(jù)保護(hù)指令》。該指令第 15 條第 1 款規(guī)定,“如果一項(xiàng)決定是完全基于數(shù)據(jù)的自動(dòng)化處理做出且目的是評估與其相關(guān)的某些個(gè)人方面,例如工作表現(xiàn)、信用、可靠性、行為等,成員國應(yīng)當(dāng)賦予數(shù)據(jù)主體免受對其產(chǎn)生法律效力或者重大影響的完全自動(dòng)化決策約束的權(quán)利”。〔11〕可以說,《數(shù)據(jù)保護(hù)指令》真正創(chuàng)建了“免受自動(dòng)化決策約束權(quán)”,首次從立法上確認(rèn)了個(gè)體有權(quán)選擇與其有關(guān)的決策方式的權(quán)利。歐盟委員會(huì)在立法提案階段進(jìn)一步闡明了這一立法初衷:“本規(guī)定旨在保護(hù)數(shù)據(jù)主體具有參與對其作出的重要決策形成過程的權(quán)益。日益強(qiáng)大的公共和私營機(jī)構(gòu)大量使用個(gè)人數(shù)據(jù),如果事關(guān)重要影響的決策僅依據(jù)個(gè)人的‘數(shù)據(jù)掠影’(data shadow)作出,則會(huì)剝奪個(gè)人對機(jī)構(gòu)決策產(chǎn)生影響的能力。”〔12〕步入大數(shù)據(jù)和人工智能時(shí)代,人類的人格尊嚴(yán)和主體價(jià)值面臨著更為系統(tǒng)化、復(fù)雜化的挑戰(zhàn)。商業(yè)場景下個(gè)性化和精細(xì)化運(yùn)營的需要使得用戶畫像建模技術(shù)早已實(shí)現(xiàn)了從設(shè)備到用戶、從靜態(tài)到動(dòng)態(tài)、從評估到預(yù)測的三維躍遷,〔13〕一套新的算法監(jiān)控、歧視和操縱系統(tǒng)于無形之中威脅著人類的獨(dú)立性和自主性地位。〔14〕為適應(yīng)算法時(shí)代的技術(shù)發(fā)展和應(yīng)用現(xiàn)狀,推動(dòng)個(gè)體權(quán)利的轉(zhuǎn)型升級(jí)就顯得日益緊迫。因此,GDPR 第 22 條承襲了《數(shù)據(jù)保護(hù)指令》第 15 條,將適用范圍從完全自動(dòng)化處理擴(kuò)展到了用戶畫像,以更好地應(yīng)對與日俱增的算法風(fēng)險(xiǎn)。本條雖然不及引發(fā)了轟動(dòng)式關(guān)注的算法解釋權(quán),但 GDPR 第 22 條作為整部法律中最為系統(tǒng)和針對性的算法規(guī)制條文,無疑對數(shù)據(jù)個(gè)體乃至算法行業(yè)的持續(xù)健康發(fā)展具有重要的價(jià)值和功用。
(一)賦予數(shù)據(jù)主體自治性尊重
在現(xiàn)代社會(huì),通過制度保證“作為人的完整性”,對個(gè)人尊嚴(yán)予以基礎(chǔ)保護(hù)成為人類生存和發(fā)展的基本需求之一。〔15〕歐洲的文化自覺使得立法者對信息自決權(quán)頗為關(guān)注。信息自決權(quán)是個(gè)人決定自身形象呈現(xiàn)方式的權(quán)利,體現(xiàn)在數(shù)據(jù)治理領(lǐng)域表現(xiàn)為數(shù)據(jù)主體被賦予擁有控制與自身相關(guān)信息披露的能力。〔16〕免受自動(dòng)化決策約束權(quán)就是信息自決權(quán)在算法應(yīng)用場景下的集中體現(xiàn),旨在確保個(gè)人的主體性不因算法的廣泛嵌入而被蠶食消解。眾所周知,算法技術(shù)已經(jīng)推動(dòng)人類社會(huì)實(shí)質(zhì)性地邁入“評分社會(huì)”。這使得個(gè)人形象的呈現(xiàn)不再由個(gè)體自主決定,而是被一系列算法評分塑造操控。一旦某一主體遭受一次算法歧視,則在相關(guān)甚或不相關(guān)的領(lǐng)域也可能屢受不公待遇,產(chǎn)生歧視鎖定和數(shù)字污名效應(yīng)。例如,有報(bào)道披露美國一位女士因被錯(cuò)誤標(biāo)記為曾受到刑事指控被分類為低信譽(yù)群體,不僅屢次被雇主解聘,無法租賃房屋,甚至沒有足夠的信譽(yù)資格去購買一款洗碗機(jī)。當(dāng)事人為此心力交瘁,用時(shí)四年之久才最終讓其中一家收集消費(fèi)者數(shù)據(jù)的公司糾正錯(cuò)誤。〔17〕由此可見,在算法決策的準(zhǔn)確性、正當(dāng)性和可問責(zé)性尚無法周全保證,且難以通過人工干預(yù)予以有效修復(fù)的發(fā)展階段,賦予數(shù)據(jù)主體免受自動(dòng)化決策約束的權(quán)利不僅體現(xiàn)了立法者對個(gè)體自治和自決的基本尊重,還體現(xiàn)了立法者借助該項(xiàng)權(quán)利防范算法歧視、算法不公等算法社會(huì)風(fēng)險(xiǎn)的調(diào)控努力。
(二)打造算法決策正當(dāng)程序的權(quán)利基石
從技術(shù)運(yùn)行邏輯來看,自動(dòng)化決策系統(tǒng)分為輔助型和完全型。后者指完全無須人工干預(yù),系統(tǒng)自動(dòng)收集、分析數(shù)據(jù)并作出決策的運(yùn)行模式。目前在貸款審批、醫(yī)療保健、就業(yè)招聘、福利發(fā)放、市場營銷等諸多場景中被廣泛使用。這一類型的自動(dòng)化數(shù)據(jù)處理通過使用個(gè)人數(shù)據(jù)或者與其具有類似特征的定點(diǎn)人群數(shù)據(jù)完成對特定個(gè)體的分析、評估和預(yù)測。這一技術(shù)運(yùn)行模式對正當(dāng)程序原則構(gòu)成了實(shí)質(zhì)性威脅和挑戰(zhàn)。其一,自動(dòng)化處理活動(dòng)中的數(shù)據(jù)可能被過度收集和濫用,而數(shù)據(jù)主體在事前和事中階段難以獲得及時(shí)預(yù)警并實(shí)施有效阻擊。通過人工智能設(shè)備采集到的人體行為數(shù)據(jù)以及算法模型創(chuàng)建的推斷衍生數(shù)據(jù)無須個(gè)體同意就可用于生成與個(gè)體相關(guān)的精準(zhǔn)畫像,從而對其行為進(jìn)行預(yù)測和評估,使得個(gè)體徹底淪為機(jī)器決策的客體。其二,在自動(dòng)化數(shù)據(jù)處理過程中,模型架構(gòu)復(fù)雜疊加專有產(chǎn)權(quán)和商業(yè)秘密制度形成的保護(hù)盾牌,導(dǎo)致難以解釋、難以質(zhì)疑、難以修復(fù)的問責(zé)難題,對個(gè)人基本權(quán)利形成威脅。例如在盧米斯案件后,〔18〕COMPAS 軟件再次陷入評估風(fēng)波。〔19〕涉案被告人羅林 ? 羅德里格茲雖然已經(jīng)具有良好的刑事恢復(fù)記錄卻仍被拒絕假釋。原因在于 COMPAS 系統(tǒng)判定其具有較高的再犯風(fēng)險(xiǎn)。當(dāng)被告人主張獲取軟件輸入的信息時(shí),該公司基于專有性和商業(yè)秘密拒絕透露輸入信息的權(quán)重。一年后,被告人獲得了相同評分。其提出 COMPAS 輸入中存在一項(xiàng)錯(cuò)誤,但由于該項(xiàng)錯(cuò)誤所占權(quán)重不得而知,無法解釋這一錯(cuò)誤對于整個(gè)評分的影響,因此既無法糾正這一決定,也無法拒絕該項(xiàng)評分對自身的約束和不利影響。〔20〕由此可見,若無法全面保證算法決策的準(zhǔn)確性和可問責(zé)性,數(shù)據(jù)主體應(yīng)當(dāng)被賦予免于受到?jīng)Q策約束,并進(jìn)而獲得安全保障和人為干預(yù)的權(quán)利,確保不利算法決策的風(fēng)險(xiǎn)得到程序性控制、緩解甚至消弭。〔21〕因此,免受自動(dòng)化決策約束權(quán)實(shí)際上通過賦予數(shù)據(jù)主體應(yīng)然層面的普遍反對權(quán),事后階段的知情、表達(dá)、異議和人為干預(yù)權(quán),聯(lián)動(dòng)構(gòu)筑起私權(quán)層面的算法風(fēng)險(xiǎn)消弭機(jī)制,在個(gè)人未能及時(shí)在事前、事中階段獲得預(yù)警和有效阻擊之時(shí)依然能夠在事后階段獲得程序性救濟(jì)從而成為緩解和降低算法風(fēng)險(xiǎn)的權(quán)利基石。〔22〕
(三)建立數(shù)據(jù)主體與數(shù)據(jù)控制者控制與分享的信任性互動(dòng)
眾所周知,在隱私保護(hù)領(lǐng)域,或因?yàn)榭萍计髽I(yè)“交叉補(bǔ)貼”政策的俘獲,或因?yàn)闀r(shí)間、知識(shí)和精力限制,數(shù)據(jù)主體與數(shù)據(jù)控制者之間力量懸殊,以新型數(shù)據(jù)和算法權(quán)利為維度的個(gè)體權(quán)益路徑屢現(xiàn)失效風(fēng)險(xiǎn)。數(shù)據(jù)主體對算法的恐慌焦慮甚囂塵上,降低了用戶的技術(shù)信任,制約了算法技術(shù)的長遠(yuǎn)發(fā)展。以機(jī)器學(xué)習(xí)為例,當(dāng)用戶主動(dòng)參與到數(shù)據(jù)生產(chǎn)和處理過程時(shí),數(shù)據(jù)的種類和樣本正向增加,機(jī)器通過自我完善提升決策準(zhǔn)確性。相反,當(dāng)用戶對技術(shù)產(chǎn)生信任危機(jī)時(shí),“困在系統(tǒng)里”的用戶通過多種方式予以反抗。例如,近期廣受年輕人追捧的“不登錄、不點(diǎn)贊、不關(guān)注、不評論”的算法反擊行動(dòng)就深刻反映了日益加劇的技術(shù)信任鴻溝。〔23〕考慮到數(shù)據(jù)主體與數(shù)據(jù)控制者博弈與較量的懸殊現(xiàn)狀,免受自動(dòng)化決策約束權(quán)默認(rèn)數(shù)據(jù)主體免于受到完全自動(dòng)化決策帶來的法律或者類似重大影響。除非數(shù)據(jù)控制者持有正當(dāng)理由才可在提供安全保障義務(wù)的基礎(chǔ)上實(shí)施完全自動(dòng)化處理和用戶畫像行為。這一權(quán)利設(shè)置方式微調(diào)了數(shù)據(jù)主體與數(shù)據(jù)控制者之間的強(qiáng)弱失衡格局,有助于實(shí)現(xiàn)自動(dòng)化決策和個(gè)人信息的效率配置,增加自動(dòng)化決策可接受性,在規(guī)則層面培育技術(shù)信任,為技術(shù)開發(fā)和應(yīng)用創(chuàng)建良好的運(yùn)行生態(tài),有助于數(shù)字社會(huì)總體福利目標(biāo)的達(dá)成。〔24〕
除此以外,免受自動(dòng)化決策約束權(quán)還在機(jī)制設(shè)計(jì)層面引發(fā)立法者對算法運(yùn)行合理邊界的必要思考,不斷調(diào)適算法決策和人類決策的平衡機(jī)制。因此,認(rèn)真審視免受自動(dòng)化決策約束權(quán)的權(quán)利構(gòu)造機(jī)理,探索完善權(quán)利設(shè)置和權(quán)利運(yùn)行機(jī)制具有重要的理論和實(shí)踐意義。
三、構(gòu)造機(jī)理與立法缺憾
GDPR 頒布后,近年來歐盟各國對免受自動(dòng)化決策約束權(quán)的關(guān)注與日俱增。例如,丹麥執(zhí)法機(jī)構(gòu)表示,就《國家教育補(bǔ)助金法》和《公共債務(wù)恢復(fù)法》中規(guī)定的行政機(jī)關(guān)僅基于自動(dòng)化處理對相對人做出的行政決策,公民可以就該自動(dòng)化決策向上級(jí)機(jī)關(guān)提出申訴,且上級(jí)機(jī)關(guān)應(yīng)當(dāng)以非自動(dòng)化形式做出復(fù)議決定。〔25〕此外,2019 年美國《在線隱私法案》第 105 條也呈異曲同工之勢。該條規(guī)定,“個(gè)人可以要求對合理預(yù)見的包含重大隱私損害的自動(dòng)化決定實(shí)施人工審查”。〔26〕可以說,以 GDPR 第 22 條為經(jīng)典樣本確立的免受自動(dòng)化決策約束權(quán)集中代表了各國立法者的算法監(jiān)管思路。該項(xiàng)權(quán)利的有效確立須攻克三項(xiàng)立法挑戰(zhàn):首先,應(yīng)采用默示禁止還是設(shè)定權(quán)利的路徑科學(xué)平衡技術(shù)創(chuàng)新與權(quán)利保護(hù);其次,如何平滑順暢地以免受自動(dòng)化決策約束權(quán)為支點(diǎn)打造全周期的聯(lián)動(dòng)保護(hù)機(jī)制,構(gòu)筑起完善的事前算法風(fēng)險(xiǎn)識(shí)別預(yù)警機(jī)制、事中算法風(fēng)險(xiǎn)抵御機(jī)制以及事后算法風(fēng)險(xiǎn)消弭機(jī)制;最后,如何科學(xué)設(shè)定對機(jī)器決策合理干預(yù)和有效問責(zé)的規(guī)則框架,探尋人類決策與機(jī)器決策協(xié)作共存的制度邊界。下文將圍繞這三項(xiàng)立法挑戰(zhàn)對免受自動(dòng)化決策約束權(quán)的構(gòu)建機(jī)理進(jìn)行剖析,甄別立法亮點(diǎn)和立法缺憾,探索制度完善的未來方向。
(一)選取嚴(yán)格禁令與積極權(quán)利路徑的中間路線但限制過多指引不明
關(guān)于 GDPR 第 22 條第 1 款設(shè)定的免受自動(dòng)化決策約束權(quán),一直存在“禁令路徑”與“權(quán)利路徑” 的爭論,在立法實(shí)踐中產(chǎn)生了復(fù)雜影響。例如,挪威政府在委托專家委員會(huì)對《挪威行政法》修訂調(diào)研時(shí),委員會(huì)就在這一問題上產(chǎn)生了分歧和爭論。〔27〕持禁令路徑的觀點(diǎn)認(rèn)為除非有合法處理基礎(chǔ),應(yīng)當(dāng)禁止對數(shù)據(jù)主體實(shí)施完全自動(dòng)化決策,以改善數(shù)據(jù)個(gè)體怠于行權(quán)或者力量薄弱的困境,提升立法對自動(dòng)化決策實(shí)踐的約束力。這一路徑在學(xué)界、數(shù)據(jù)保護(hù)機(jī)構(gòu)和司法機(jī)構(gòu)產(chǎn)生了廣泛影響。例如,荷蘭海牙地方法院近期的一項(xiàng)判決中指出,“依據(jù) GDPR 第 22 條,雖然可能存在例外情形,但針對個(gè)體的完全自動(dòng)化決策被普遍禁止,包括對數(shù)據(jù)主體有法律或者類似重大影響的用戶畫像”。〔28〕再如 2009 年德國《聯(lián)邦數(shù)據(jù)法》第 6a 節(jié)及 2017 年英國《數(shù)據(jù)保護(hù)法(草案)》第 13 條都采用了禁令路徑。按照禁令路徑理解,除非數(shù)據(jù)控制者存在 GDPR 第 22 條第 2 款中列明的三項(xiàng)例外,數(shù)據(jù)控制者禁止針對數(shù)據(jù)主體作出完全自動(dòng)化決策。禁令路徑雖然旨在保護(hù)數(shù)據(jù)主體免受算法滋擾和操控,但從行業(yè)發(fā)展和科技創(chuàng)新來看,其可能會(huì)阻礙創(chuàng)新,影響算法技術(shù)的良性發(fā)展與合理應(yīng)用。GDPR 雖然意在保護(hù)數(shù)據(jù)主體的尊嚴(yán)和基本權(quán)利,但絕不意味著扼殺行業(yè)發(fā)展。此外,禁令路徑的闡釋也與立法歷史有所沖突。作為 GDPR 第 22 條的前身,《數(shù)據(jù)保護(hù)指令》第 15 條第 1 款的立法歷史資料表明,該條立法旨在賦予數(shù)據(jù)主體免受自動(dòng)化決策約束的權(quán)利,而非一般性地禁止自動(dòng)化決策。〔29〕有關(guān) GDPR 提案的解釋性備忘錄也明確記載,第 22 條措辭參考了歐洲委員會(huì)發(fā)布的《關(guān)于用戶畫像的建議》。該文件同樣并未禁止用戶畫像,僅規(guī)定數(shù)據(jù)主體享有免受用戶畫像重大影響約束的權(quán)利。〔30〕因此,以禁令路徑理解 GDPR 第 22 條有失偏頗。
若仔細(xì)分析 GDPR 第 22 條的語義構(gòu)造可知,GDPR 第 22 條也不應(yīng)理解為與更正權(quán)、刪除權(quán)、數(shù)據(jù)可攜權(quán)等類似的積極數(shù)據(jù)權(quán)利,以單純權(quán)利路徑理解 GDPR 第 22 條亦有不妥。若將第 22 條理解為需要數(shù)據(jù)主體積極行使的權(quán)利,則表明只有在數(shù)據(jù)主體明確表示反對時(shí)才可限制針對個(gè)體的完全自動(dòng)化決策。但深究條文原意并非如此。依據(jù)條文原意,數(shù)據(jù)主體享有的是免受自動(dòng)化決策和用戶畫像結(jié)果約束的事后反對權(quán)。以公共場景為例,正常情形下個(gè)體應(yīng)有義務(wù)接受根據(jù)正當(dāng)程序做出的對其不利的行政或者司法決定。依據(jù) GDPR 第 22 條,若該不利決定完全由機(jī)器做出,數(shù)據(jù)主體有權(quán)自主決定是否接受該決定并受到相應(yīng)約束。當(dāng)數(shù)據(jù)主體提出反對時(shí),依據(jù)不同決策情形和決策依據(jù)可以獲得人為干預(yù)、表達(dá)觀點(diǎn)并提出異議的權(quán)利。因此,宜將該項(xiàng)權(quán)利理解為數(shù)據(jù)主體默示享有的一項(xiàng)權(quán)利。該項(xiàng)權(quán)利并不禁止完全自動(dòng)化決策及用戶畫像的存在和展開,但賦予數(shù)據(jù)主體反對其作出后受到約束和影響的權(quán)利。這種設(shè)定實(shí)際上選取了“禁令路徑”與“積極權(quán)利路徑”的中間道路,既能較好地保護(hù)數(shù)據(jù)主體不因怠于行使權(quán)利或者精力不足而受到算法滋擾,又能給產(chǎn)業(yè)發(fā)展預(yù)留一定的合理空間。
為了合理設(shè)定權(quán)利行使和產(chǎn)業(yè)發(fā)展的邊界,GDPR 第 22 條還擴(kuò)展了《數(shù)據(jù)保護(hù)指令》中免受自動(dòng)化決策約束權(quán)行使的除外情形并規(guī)定了適用條件。依據(jù)第 22 條第 1 款,行權(quán)條件以完全自動(dòng)化決策和用戶畫像為適用前提。完全自動(dòng)化決策是指自動(dòng)化決策過程完全由系統(tǒng)進(jìn)行,不需要任何人工干預(yù),其決策結(jié)果未受到任何人為因素影響的決策類型。這一權(quán)利行使前提不當(dāng)限縮了可適用的自動(dòng)化決策類型。在實(shí)踐中,算法與人工判斷交互參與的“人機(jī)回圈”反饋形式是非常普遍的。〔31〕就技術(shù)可靠性而言,人工參與的自動(dòng)化決策在穩(wěn)定性、準(zhǔn)確性等層面并不必然優(yōu)于純粹的機(jī)器決策。以信息過載或者認(rèn)知偏見為代表的人類認(rèn)知局限仍可使主觀判斷嵌入自動(dòng)化決策過程,導(dǎo)致不準(zhǔn)確或者不公正的決策結(jié)果。僅因人工參與就將非完全自動(dòng)化決策類型排除在權(quán)利適用范圍之外,不利于周全保護(hù)數(shù)據(jù)主體權(quán)益。
除完全自動(dòng)化決策之外,評估、分析或者預(yù)測個(gè)人經(jīng)濟(jì)、健康、偏好、信譽(yù)等用戶畫像行為也被納入第 22 條之中。用戶畫像實(shí)際上將未來視為由既定概率決定,建立在對過去行為或者特征的復(fù)雜評估之上,通過盲關(guān)聯(lián)由歷史數(shù)據(jù)推斷未來。〔32〕同樣遺憾的是,GDPR 將用戶畫像應(yīng)用的數(shù)據(jù)類型僅限定在第 4 條規(guī)定的個(gè)人數(shù)據(jù)范圍,依據(jù)衍生或者推斷數(shù)據(jù)形成的用戶畫像并不適用于第 22 條。但在實(shí)踐中,通過機(jī)器學(xué)習(xí)挖掘用戶畫像的做法早已成為慣用技術(shù),〔33〕數(shù)據(jù)類型的不當(dāng)限定使得數(shù)據(jù)主體行權(quán)基礎(chǔ)不當(dāng)受限。
此外,GDPR 第 22 條還將與數(shù)據(jù)主體有關(guān)的法律影響及近似重大影響作為前置行權(quán)條件。依據(jù)條文表述,一項(xiàng)自動(dòng)化決策或者用戶畫像是否對數(shù)據(jù)主體產(chǎn)生了“法律及近似重大影響”尚難以找到清晰的判斷依據(jù)。第 29 條工作組發(fā)布的《有關(guān) GDPR 自動(dòng)化個(gè)人決策和識(shí)別分析的準(zhǔn)則》(以下簡稱《準(zhǔn)則》)提出,“法律影響”是指對個(gè)體的法律權(quán)利、合同約定權(quán)利以及法律地位產(chǎn)生影響的處理活動(dòng)。〔34〕“近似重大影響”實(shí)際上將影響認(rèn)定標(biāo)準(zhǔn)予以實(shí)質(zhì)性擴(kuò)展。實(shí)踐中,同類型的自動(dòng)化決策可能基于不同群體、不同渠道而產(chǎn)生完全各異的影響。例如,在多數(shù)情形下,精準(zhǔn)營銷不會(huì)對個(gè)體產(chǎn)生法律或者類似重大影響,因此即使采用了完全自動(dòng)化決策,也不屬于本條的適用范圍。但實(shí)踐中可能存在精準(zhǔn)定向營銷對個(gè)體產(chǎn)生重大影響的情形。〔35〕例如,向已知或者預(yù)估面臨財(cái)政困難的個(gè)人定向推送高息貸款導(dǎo)致其進(jìn)一步負(fù)債的行為就可被認(rèn)定為對該個(gè)體產(chǎn)生了重大影響。〔36〕但實(shí)際上僅通過條文表述尚難以準(zhǔn)確界定構(gòu)成“重大影響”的標(biāo)準(zhǔn),未來需要仰賴司法實(shí)踐及新型規(guī)制工具進(jìn)一步增加條文精確性。
(二)設(shè)定橫跨公私場景下自動(dòng)化決策實(shí)施的正當(dāng)性基礎(chǔ)但規(guī)則科學(xué)性不足
個(gè)體數(shù)據(jù)不僅關(guān)涉?zhèn)€人利益,涉及個(gè)體尊嚴(yán)和自由,還具有公共性和社會(huì)性,對于商業(yè)運(yùn)營和公共治理具有重要意義。〔37〕因此,立法者在賦予數(shù)據(jù)主體免受自動(dòng)化決策約束權(quán)時(shí)還需考慮算法技術(shù)的社會(huì)價(jià)值,為合理、公平的自動(dòng)化數(shù)據(jù)處理提供必要的發(fā)展空間。循此機(jī)理,GDPR 設(shè)定的免受自動(dòng)化決策約束權(quán)并非是一項(xiàng)絕對的、完全的、排他的權(quán)利,通過在第 22 條第 2 款提出訂立或履行合同所必需、基于法律授權(quán)以及數(shù)據(jù)主體明確同意三種不予適用的情形,勾勒出數(shù)據(jù)控制者進(jìn)行自動(dòng)化數(shù)據(jù)處理的正當(dāng)性和合法性基礎(chǔ)。為確保數(shù)據(jù)主體權(quán)益在三種例外情形下受到周全保護(hù),第 22 條第 3 款規(guī)定在第 1 款和第 3 款情形下,數(shù)據(jù)控制者必須采取適當(dāng)措施,保障數(shù)據(jù)主體的權(quán)利、自由及合法利益,確保數(shù)據(jù)主體獲得人為干預(yù)、表達(dá)意見和提出異議的權(quán)利。
為避免因適用例外而流于形式,第 29 條工作組發(fā)布的《準(zhǔn)則》提出了詳細(xì)限制。其一,對于合同建立和履行中實(shí)施自動(dòng)化決策的“必要性”應(yīng)當(dāng)狹義理解。歐洲數(shù)據(jù)保護(hù)專員公署專門發(fā)布文件,提出只有數(shù)據(jù)控制者能夠客觀證明在合同建立和履行過程中明確考慮過采用更少侵犯隱私的方法后,仍然認(rèn)為實(shí)施用戶畫像和完全自動(dòng)化決策是必要的,才可視為具有合同建立和履行的正當(dāng)利益,滿足對限制個(gè)人數(shù)據(jù)權(quán)利的“必要性”認(rèn)定。〔38〕其二,只有明確獲得法律授權(quán),出于公共利益、風(fēng)險(xiǎn)防控或者確保控制者提供服務(wù)的安全性和可靠性等目的,在已經(jīng)制定了恰當(dāng)措施保證數(shù)據(jù)主體的權(quán)利、自由與正當(dāng)利益基礎(chǔ)上,免受自動(dòng)化決策約束權(quán)才會(huì)被限制適用。在此情形下,歐盟及其成員國應(yīng)當(dāng)采取適當(dāng)措施保障數(shù)據(jù)主體的基本權(quán)利,禁止不成比例地以公共利益為理由不當(dāng)減損免受自動(dòng)化決策約束權(quán)。在當(dāng)前實(shí)踐中,歐盟成員國提供的恰當(dāng)保障措施仍然以提供人工干預(yù)為主。〔39〕不可否認(rèn),人工干預(yù)可能無法改變自動(dòng)化決策的結(jié)果,卻可建立個(gè)體之間的互動(dòng)感知,維護(hù)和確認(rèn)個(gè)體尊嚴(yán)。但從算法運(yùn)行機(jī)理來看,事后人工干預(yù)權(quán)對個(gè)體的救濟(jì)效應(yīng)可能有限。一方面,人類決策多基于經(jīng)驗(yàn)信息形成,可能產(chǎn)生更高的偏誤,事后的人工干預(yù)難以提升整體判斷的準(zhǔn)確率。另一方面,事后人工干預(yù)還具有分散性,無益于判斷系統(tǒng)的完整性和公平性,并非對抗算法的最優(yōu)策略。〔40〕
由此可見,GDPR 第 22 條第 2 款規(guī)定的例外情形雖一定程度限制了權(quán)利行使范圍,但為自動(dòng)化決策實(shí)施奠定了正當(dāng)性基礎(chǔ)框架。遺憾的是,僅依靠分散化、零星化、靜態(tài)化的人工干預(yù)作為救濟(jì)方式可能并非最佳策略,立法者應(yīng)當(dāng)在救濟(jì)介入時(shí)機(jī)、介入方式以及系統(tǒng)性、完整性規(guī)制層面再行著力,探索算法規(guī)制的多元化路徑,確保免受自動(dòng)化決策約束權(quán)的賦權(quán)效果。
(三)多層次立體化構(gòu)建程序性聯(lián)動(dòng)保護(hù)機(jī)制但實(shí)效堪憂
自動(dòng)化決策和用戶畫像體現(xiàn)為一系列動(dòng)態(tài)復(fù)雜的數(shù)據(jù)處理過程,每個(gè)環(huán)節(jié)均可能對數(shù)據(jù)主體產(chǎn)生潛在風(fēng)險(xiǎn)和不利影響。與日俱增的數(shù)據(jù)流動(dòng)性又進(jìn)一步提升了立法所面臨的挑戰(zhàn),僅依靠單點(diǎn)突破的方式可能會(huì)凸顯脆弱性。因此,從體系化視角尋求構(gòu)建系統(tǒng)的行權(quán)配套機(jī)制顯得日趨必要。瞰覽整部法律,可以發(fā)現(xiàn)歐盟立法者著眼于全要素、全過程、多場景,面向數(shù)據(jù)流生命周期建立起了“知情、參與、反對、救濟(jì)”的一體化行權(quán)方案,形成了多層次、立體化的程序性聯(lián)動(dòng)保護(hù)機(jī)制,從廣度和深度兩個(gè)層面為免受自動(dòng)化決策約束權(quán)奠定了配套機(jī)制。
就廣度而言,首先,序言第 60 條、第 13 條第 2 款 f 項(xiàng)和第 14 條第 2 款 g 項(xiàng)規(guī)定了數(shù)據(jù)主體在事前階段的知情權(quán),第 21 條規(guī)定了事前階段的拒絕權(quán)。這些權(quán)利可以保障用戶在自動(dòng)化決策和用戶畫像部署的事前階段獲取必要信息,建立合理預(yù)期,提升用戶對自動(dòng)化處理的關(guān)注程度。其次,在事中階段,以第 15 條、第 16 條、第 17 條為主線打造的要求修改、刪除、限制處理和拒絕處理權(quán)可以讓數(shù)據(jù)主體實(shí)時(shí)確認(rèn)自動(dòng)化數(shù)據(jù)處理相關(guān)信息的權(quán)利,并視情況行使上述權(quán)利以對自動(dòng)化數(shù)據(jù)處理施加所欲的人為影響。最后,以第 22 條為核心的免受自動(dòng)化決策約束權(quán)則在事后階段扮演關(guān)鍵節(jié)點(diǎn),成為對抗算法操控的最后防御堡壘。就深度而言,GDPR 第 22 條第 3 款設(shè)定的人工干預(yù)權(quán)、表達(dá)權(quán)和異議權(quán)可以為數(shù)據(jù)主體在反對自動(dòng)化決策后提供復(fù)議、審核等接續(xù)性程序救濟(jì),有效彌合了權(quán)利保障體系的真空地帶,為人類決策者發(fā)揮主動(dòng)性和能動(dòng)性提供連接機(jī)制。以上三個(gè)層次以透明度和問責(zé)制為出發(fā)點(diǎn),通過為數(shù)據(jù)主體提供事前算法風(fēng)險(xiǎn)識(shí)別預(yù)警機(jī)制、事中算法風(fēng)險(xiǎn)抵御機(jī)制以及事后算法風(fēng)險(xiǎn)消弭機(jī)制將其納入自動(dòng)化數(shù)據(jù)處理的全周期決策環(huán)路中(參見表 1)。
面向數(shù)據(jù)生命周期的多層次聯(lián)動(dòng)配套行權(quán)機(jī)制體現(xiàn)了較為科學(xué)的立法理念,有助于應(yīng)對因數(shù)據(jù)流動(dòng)性加劇所形成的規(guī)制挑戰(zhàn)。僅就條文設(shè)計(jì)而言,這種聯(lián)動(dòng)化行權(quán)理念體現(xiàn)場景化關(guān)照,具有較高的規(guī)則顆粒度,為數(shù)據(jù)主體提供持續(xù)支持,起到了串聯(lián)整個(gè)防護(hù)體系的作用。但從技術(shù)運(yùn)行原理來看,上述安全保障措施的設(shè)計(jì)并非無懈可擊,這集中體現(xiàn)在人為干預(yù)、表達(dá)觀點(diǎn)及提出異議三項(xiàng)權(quán)利的設(shè)計(jì)思路上。該三項(xiàng)權(quán)利的設(shè)定實(shí)際上彰顯了技術(shù)正當(dāng)程序之立法原意。〔41〕
但就自動(dòng)化決策而言,數(shù)據(jù)主體所擁有的程序性權(quán)利可能產(chǎn)生的實(shí)質(zhì)影響相對有限,探索對自動(dòng)化決策技術(shù)產(chǎn)生實(shí)質(zhì)影響的參與途徑可能更為可取。以人為干預(yù)權(quán)為例,通過人類決策代替機(jī)器決策的方式在準(zhǔn)確性、效率性、公正性層面存疑。就準(zhǔn)確性而言,對于公私場景中常見的非因果預(yù)測型決策而言,機(jī)器決策在理論上具有比人類決策者更好的決策績效。〔42〕人類決策者即使在高質(zhì)量的決策環(huán)境中,仍然會(huì)受到隱形偏見、決策噪聲的干擾和影響。就效率性而言,機(jī)器決策顯然在高速處理復(fù)雜多維的數(shù)據(jù)層面具有人類決策者難以比擬的績效表現(xiàn)。就公正性而言,機(jī)器決策多依據(jù)歷史數(shù)據(jù)和統(tǒng)計(jì)數(shù)據(jù)做出,人類決策多依據(jù)個(gè)性化數(shù)據(jù)和資料做出。如果自動(dòng)化決策適用的個(gè)體具有普遍性和廣泛性,則一部分行權(quán)主體在事后獲得人類決策,而另一部分未行權(quán)主體卻接受機(jī)器決策,在系統(tǒng)性、完整性層面可能存在集體性決策偏差。
由此推之,GDPR 第 22 條第 3 款雖然充當(dāng)主線構(gòu)建了多層次、立體化的程序性聯(lián)動(dòng)保護(hù)機(jī)制,但主導(dǎo)邏輯仍然寄托于個(gè)案中人工審查的方式來驗(yàn)證算法的準(zhǔn)確性。當(dāng)提供程序性保護(hù)的成本和代價(jià)遠(yuǎn)超數(shù)據(jù)主體從程序保障中獲得的利益時(shí),就很難被視為一種理想方案。因此,有學(xué)者建議以技術(shù)合理邊界為客觀依據(jù),結(jié)合風(fēng)險(xiǎn)等級(jí)和公共利益相關(guān)性,分級(jí)分類地設(shè)定面向算法系統(tǒng)的動(dòng)態(tài)監(jiān)管工具。例如,在低風(fēng)險(xiǎn)場景下,可以依據(jù)風(fēng)險(xiǎn)預(yù)測算法的參數(shù)設(shè)定原理確定人工審核的閾值,在超越具體閾值之上的主體可以啟動(dòng)靜態(tài)分析、動(dòng)態(tài)測試以及必要情形下的人工審核,〔43〕輔之以算法影響評估,適時(shí)兼采系統(tǒng)化問責(zé)路徑和經(jīng)過系統(tǒng)校準(zhǔn)后的算法監(jiān)管工具打造馴服算法的有效利器。
四、權(quán)利本土化的借鑒與調(diào)適
伴隨著數(shù)字時(shí)代的來臨,平臺(tái)企業(yè)的日益強(qiáng)大和人工智能的迅猛發(fā)展使得算法權(quán)力已然形成,對人的身份、認(rèn)知、行為、傾向、情感乃至意志具有精準(zhǔn)的預(yù)測與操控力。當(dāng)算法成為人們認(rèn)知和行動(dòng)的基本工具時(shí),必須從規(guī)則上對技術(shù)的不確定性和滲透性加以治理。〔44〕為此,應(yīng)當(dāng)深入算法操控的形成機(jī)理中,通過精細(xì)化、場景化治理尋找反操控的著力點(diǎn),探索構(gòu)建一套人與算法協(xié)同演化、共同成長的治理機(jī)制。〔45〕
就我國算法應(yīng)用現(xiàn)狀而言,無論是被困在算法系統(tǒng)里無力抗?fàn)幍耐赓u騎手,還是深受“大數(shù)據(jù)殺熟”之害的消費(fèi)者,諸多焦點(diǎn)事件已經(jīng)映射出數(shù)據(jù)個(gè)體在算法權(quán)力大行其道的數(shù)字生態(tài)中盡顯疲態(tài)的緊迫現(xiàn)實(shí)。我國立法者業(yè)已清楚知曉算法規(guī)制的緊迫性和必要性,并正以多種方式嘗試構(gòu)筑數(shù)據(jù)主體擺脫算法操控、免除算法不利影響的新型權(quán)利體系。〔46〕因此,在數(shù)據(jù)驅(qū)動(dòng)、算法泛在的數(shù)字時(shí)代,科學(xué)審慎地借鑒免受自動(dòng)化決策約束權(quán)的正面構(gòu)建機(jī)理,尋求契合我國算法實(shí)踐的調(diào)適基點(diǎn),具有重要的理論與實(shí)踐意義。本節(jié)緊密圍繞《個(gè)人信息保護(hù)法》第 24 條,基于權(quán)利構(gòu)造完善的內(nèi)在邏輯和權(quán)利配套實(shí)施的外在基礎(chǔ)提出下列三點(diǎn)權(quán)利借鑒與調(diào)適的建議。
(一)擴(kuò)展免受自動(dòng)化決策約束權(quán)適用的決策類型
根據(jù)上文論述,歐盟設(shè)定的免受自動(dòng)化決策約束權(quán)存在適用決策類型和數(shù)據(jù)類型局限的雙重不足,因應(yīng)我國的自動(dòng)化決策客觀實(shí)踐,在賦予數(shù)據(jù)主體相似權(quán)利時(shí)應(yīng)首要考慮擴(kuò)展適用到所有自動(dòng)化決策類型,以期對數(shù)據(jù)主體形成周延保護(hù)。自動(dòng)化決策的運(yùn)行實(shí)踐表明,雖然以信息自感知、自決策、自執(zhí)行等功能為特征的自主化智能系統(tǒng)已被廣泛應(yīng)用,但鑒于算法決策任務(wù)的復(fù)雜性,在算法開發(fā)和運(yùn)行過程中將人類決策者納入規(guī)劃環(huán)路,通過增加數(shù)據(jù)資源、更新數(shù)據(jù)特征、修改模型架構(gòu)以及更改評估指標(biāo)等方式體現(xiàn)人類輔助或者反饋特征的“人機(jī)回圈”決策實(shí)踐同樣普遍。〔47〕歐盟立法者認(rèn)為存在人工參與的自動(dòng)化決策類型因技術(shù)合理性避免了完全機(jī)器決策對個(gè)人尊嚴(yán)的減損,故未能將其涵蓋在內(nèi)。實(shí)際上,將非完全自動(dòng)化決策排除適用實(shí)屬不妥。一方面,即使存在實(shí)質(zhì)性人為控制,但若人類決策者存在明顯偏見,仍然可能在系統(tǒng)內(nèi)嵌間接的、無意的甚至不易察覺的歧視。〔48〕另一方面,即使一項(xiàng)自動(dòng)化決策系統(tǒng)已經(jīng)被明確限定為輔助決策功能,人類決策者或出于對機(jī)器邏輯的信任,或由于缺乏時(shí)間、精力等原因,極易降低自身職業(yè)的警惕和批判分析能力,導(dǎo)致對決策輔助系統(tǒng)的盲從。〔49〕
有鑒于此,我國新近公布的《個(gè)人信息保護(hù)法》第 24 條應(yīng)當(dāng)擴(kuò)展權(quán)利適用的自動(dòng)化決策類型,不應(yīng)僅限定在“僅通過自動(dòng)化決策方式作出”這一決策類型,使其合理涵蓋完全和非完全自動(dòng)化決策,避免不合理的行權(quán)限制。與此同時(shí),立法機(jī)關(guān)還應(yīng)當(dāng)對第 73 條第 2 項(xiàng)的自動(dòng)化決策定義予以配套修改。該法第二章第三節(jié)專門規(guī)定了國家機(jī)關(guān)處理個(gè)人信息的特別規(guī)定,這意味著該部法律的適用場景并不局限于商業(yè)化場景,而是著眼并橫貫公私場景中的個(gè)人信息處理行為。相應(yīng)地對自動(dòng)化決策的定義理應(yīng)采取整全化視角,為整部法律奠定良好的概念基石。目前,第 73 條第 2 項(xiàng)的自動(dòng)化決策定義部分移植并雜糅了 GDPR 第 4 條第 4 款中對“用戶畫像”的定義。實(shí)際上,用戶畫像的核心在于對自然人特定特征或者行為的分析和預(yù)測,其可以通過完全自動(dòng)化或者非完全自動(dòng)化處理方式得出。而自動(dòng)化決策雖然經(jīng)常被應(yīng)用于用戶畫像領(lǐng)域,所涉處理行為卻更為廣泛。例如,按照第 73 條第 2 項(xiàng)的自動(dòng)化決策定義,在我國社會(huì)信用體系建設(shè)過程中,使用個(gè)人信息生成公民信用畫像對信用狀況進(jìn)行分析、評估的行為屬于《個(gè)人信息保護(hù)法》語境下的自動(dòng)化決策類型,但信用畫像形成后與之相關(guān)的自動(dòng)推送信用信息、自動(dòng)識(shí)別黑紅名單、自動(dòng)提示獎(jiǎng)懲依據(jù)、自動(dòng)實(shí)施限制處理、自動(dòng)反饋處理結(jié)果等其他信用獎(jiǎng)懲智能決策卻可能因不具有用戶畫像的特質(zhì)而被不當(dāng)排除在外。因此,應(yīng)當(dāng)擴(kuò)展第 25 條權(quán)利適用的自動(dòng)化決策類型,厘清第 73 條第 2 項(xiàng)用戶畫像與自動(dòng)化決策的異同邊界,避免免受自動(dòng)化決策約束權(quán)及相關(guān)配套權(quán)利的行權(quán)基礎(chǔ)受到不當(dāng)限制。
(二)厘清自動(dòng)化決策和用戶畫像對數(shù)據(jù)主體產(chǎn)生重大影響的判斷標(biāo)準(zhǔn)
免受自動(dòng)化決策約束權(quán)雖然賦予數(shù)據(jù)主體免受自動(dòng)化決策和用戶畫像約束的權(quán)利,但該項(xiàng)權(quán)利的適用對象不應(yīng)籠而統(tǒng)之、概不區(qū)分,應(yīng)在立法上為數(shù)據(jù)的合理利用預(yù)留發(fā)展空間。因此 GDPR 第 22 條中規(guī)定數(shù)據(jù)主體應(yīng)以自動(dòng)化決策和用戶畫像對其“產(chǎn)生法律或者類似重大影響”為行權(quán)條件。遺憾的是,該條并未明確規(guī)定構(gòu)成對數(shù)據(jù)主體產(chǎn)生法律或者類似重大影響的具體標(biāo)準(zhǔn)。此處立法的模糊性不僅不利于權(quán)利的有效實(shí)施,還增加了企業(yè)合規(guī)操作和產(chǎn)品開發(fā)的不確定成本。實(shí)踐中,主體、渠道、場景、范圍等諸多因素均可影響一項(xiàng)自動(dòng)化決策或者用戶畫像達(dá)成“類似重大影響”標(biāo)準(zhǔn)。例如,一般用戶可能認(rèn)為通過個(gè)性化推薦向好友展示閱讀動(dòng)態(tài)信息并未達(dá)到對其產(chǎn)生重大影響的程度。但在黃某訴微信讀書侵犯隱私權(quán)一案中,原告則提出在未獲授權(quán)情況下,個(gè)人讀書信息在一定程度上能夠反映用戶個(gè)人喜好及文化修養(yǎng),微信讀書自動(dòng)為用戶添加微信好友并向關(guān)注好友自動(dòng)推送原告讀書動(dòng)態(tài)的行為對其產(chǎn)生了重大影響,侵犯了其個(gè)人信息權(quán)益。〔50〕我國《個(gè)人信息保護(hù)法》第 24 條雖未提及“法律影響”,但將“重大影響”作為行權(quán)構(gòu)成要件。實(shí)踐中自動(dòng)化決策和用戶畫像對數(shù)據(jù)主體是否產(chǎn)生“法律或者類似重大影響”雖然存在主觀化和場景化差異,但在立法中明確基礎(chǔ)判斷規(guī)則和衡量基準(zhǔn)仍頗為必要,對避免權(quán)利被不當(dāng)架空具有積極功用。
GDPR 雖未能對此提供參考制度樣本,但以第 29 條工作組發(fā)布的《準(zhǔn)則》為鏡鑒,結(jié)合我國個(gè)人信息保護(hù)實(shí)踐,可以合理推斷構(gòu)成我國《個(gè)人信息保護(hù)法》第 24 條中規(guī)定的“重大影響”應(yīng)當(dāng)至少滿足以下兩項(xiàng)核心標(biāo)準(zhǔn)。第一,“重大影響”應(yīng)包含“法律影響”。此處“法律影響”應(yīng)當(dāng)視為對數(shù)據(jù)主體的法律地位和法律權(quán)利產(chǎn)生的影響。而法律地位和法律權(quán)利的認(rèn)定應(yīng)當(dāng)以制定法以及已生效合同中涉及的權(quán)利為認(rèn)定基準(zhǔn)。第二,在產(chǎn)生“法律影響”之外,若一項(xiàng)自動(dòng)化決策或者用戶畫像對數(shù)據(jù)主體產(chǎn)生了“重大”影響,也應(yīng)視為構(gòu)成行權(quán)標(biāo)準(zhǔn)。此處“重大”應(yīng)當(dāng)滿足與產(chǎn)生的“法律影響”相近似的臨界標(biāo)準(zhǔn)。〔51〕具體而言,一項(xiàng)自動(dòng)化數(shù)據(jù)處理在過程或者結(jié)果層面均可能對數(shù)據(jù)主體的境況、行為或者選擇產(chǎn)生“重大”影響。從過程視角來看,若一項(xiàng)自動(dòng)化數(shù)據(jù)處理在數(shù)據(jù)收集或者分析層面是在未經(jīng)授權(quán)情形下通過監(jiān)控?cái)?shù)據(jù)主體在不同網(wǎng)站、設(shè)備上的點(diǎn)擊瀏覽行為而展開的精準(zhǔn)營銷,即使在結(jié)果層面未對數(shù)據(jù)主體構(gòu)成重大影響,但因具有過程侵入性仍應(yīng)當(dāng)認(rèn)定為對主體產(chǎn)生重大影響。〔52〕從結(jié)果視角來看,“重大”影響不僅包括已然發(fā)生的不利影響,還應(yīng)當(dāng)審慎考慮對未來的潛在影響。對于已然發(fā)生的不利影響,應(yīng)當(dāng)采取“一般理性人”標(biāo)準(zhǔn)融合具體場景綜合考量,合理評估是否對當(dāng)事人產(chǎn)生了重大影響。但鑒于一項(xiàng)不利自動(dòng)化決策可能在未來或者其他領(lǐng)域?qū)χ黧w產(chǎn)生不利 “鎖定效應(yīng)”,〔53〕因此,對數(shù)據(jù)主體的潛在影響也應(yīng)被審慎考慮。例如,若數(shù)據(jù)主體在獲得商業(yè)信用評分后發(fā)現(xiàn)無法以免押租金的方式租借共享單車。若此現(xiàn)象僅發(fā)生一次,綜合考慮影響范圍、影響程度、持續(xù)時(shí)間等因素不應(yīng)視為對當(dāng)事人構(gòu)成“重大”影響。但若數(shù)據(jù)主體在獲取相關(guān)信息后發(fā)現(xiàn),失去免押租借共享單車資格是因?yàn)樵撋虡I(yè)信用評分模型對其信用標(biāo)簽存在不當(dāng)偏見,且該標(biāo)簽可能在銀行借貸、信用卡申請等重要場景帶來潛在不利影響,則該種情形就應(yīng)當(dāng)綜合考慮影響范圍、影響等級(jí)以及影響持續(xù)時(shí)間,審慎作出符合“重大”影響的判斷。故我國可以綜合前述兩項(xiàng)原則設(shè)計(jì)更為精細(xì)可行的影響判斷規(guī)則。
(三)以《個(gè)人信息保護(hù)法》第 24 條為基點(diǎn)建立全要素配套行權(quán)機(jī)制
GDPR 雖然存在諸多缺憾,但立法者為免受自動(dòng)化決策約束權(quán)的行使建立了全周期、多聯(lián)動(dòng)、共協(xié)同、成體系的行權(quán)配套機(jī)制。這一立法思路若配之以科學(xué)的行權(quán)條件,有助于重新喚醒塵封多年的免受自動(dòng)化決策約束權(quán),一改其式微之勢。如前文所述,歐盟立法者在 GDPR 第 22 條內(nèi)部設(shè)定了人為干預(yù)權(quán)、表達(dá)權(quán)和異議權(quán)三項(xiàng)聯(lián)動(dòng)機(jī)制,確保免受約束權(quán)的行使有固可守。在條文之外,歐盟立法者從貫穿“事前、事中、事后”的數(shù)據(jù)生命周期視角形成了數(shù)據(jù)主體對于自動(dòng)化決策“知情、參與、反對、救濟(jì)”的一體化行權(quán)方案。鑒于自動(dòng)化決策的數(shù)據(jù)處理貫穿于各個(gè)環(huán)節(jié),任一單點(diǎn)化的防御機(jī)制和行權(quán)機(jī)制都可能瀕于失效。因此圍繞 GDPR 第 22 條,立法者還構(gòu)筑了聯(lián)防聯(lián)控的全周期行權(quán)機(jī)制,彌合了各項(xiàng)權(quán)利孤軍作戰(zhàn)的缺陷,為數(shù)據(jù)主體提供了動(dòng)態(tài)閉環(huán)保護(hù)。這種聯(lián)動(dòng)化的行權(quán)建構(gòu)理念節(jié)點(diǎn)明確、邊界清晰,既賦予數(shù)據(jù)主體對抗算法的自治空間和彈性地帶,又貼合自動(dòng)化決策的運(yùn)行規(guī)律,提升了事前、事中、事后的權(quán)利保護(hù)質(zhì)效。〔54〕
因循這一視角審視我國《個(gè)人信息保護(hù)法》可以發(fā)現(xiàn),立法者以第 24 條為核心賦予了個(gè)人對抗自動(dòng)化決策的權(quán)利,但進(jìn)行立法體系化梳理后發(fā)現(xiàn),各項(xiàng)相關(guān)權(quán)利或內(nèi)容寬泛,或行權(quán)節(jié)點(diǎn)連接不清,難以構(gòu)筑起面向全數(shù)據(jù)生命周期的精細(xì)化閉環(huán)行權(quán)體系。
首先,事前知曉是源頭保護(hù),能夠有效預(yù)警從而阻斷不利自動(dòng)化決策展開。《個(gè)人信息保護(hù)法》雖在第 17 條、第 44 條賦予個(gè)人知情權(quán),在第 48 條賦予個(gè)人獲得解釋說明的權(quán)利。但通過條文內(nèi)容可知,第 44 條僅粗略規(guī)定個(gè)人對其個(gè)人信息的處理享有知情權(quán)、決定權(quán),有權(quán)限制或者拒絕他人對其個(gè)人信息進(jìn)行處理,但如何限制、如何知情,條文中語焉不詳。第 17 條雖要求個(gè)人信息處理者告知個(gè)人信息處理的目的、方式、處理個(gè)人信息的種類和保存期限,但這些信息對于自動(dòng)化決策的用戶知情需求而言,預(yù)警不足、針對性受限。即使個(gè)人依照第 48 條要求個(gè)人信息處理者對信息處理規(guī)則進(jìn)行解釋說明,也難以從條文中探析“何為處理規(guī)則”,無法為第 24 條提供充分明確的決策依據(jù)和合理預(yù)期。
其次,事中階段的各項(xiàng)權(quán)利是對不利自動(dòng)化決策展開的有效阻擊,借助刪除、限制處理等權(quán)利可在自動(dòng)化數(shù)據(jù)處理過程中施加數(shù)據(jù)主體所欲的人為影響。《個(gè)人信息保護(hù)法》第 44 條、第 45 條、第 46 條、第 47 條分別賦予個(gè)人限制處理、查閱復(fù)制、更正補(bǔ)充以及刪除權(quán)。可以說一定程度上滿足了個(gè)人在事中階段對自動(dòng)化決策施加人為影響的行權(quán)基礎(chǔ)。但比較我國條文與 GDPR 可知,GDPR 在設(shè)計(jì)數(shù)據(jù)權(quán)利時(shí)嵌入了對自動(dòng)化決策的行權(quán)關(guān)照,行權(quán)條文的精細(xì)化和針對性更高。例如,第 15 條 h 項(xiàng)專門規(guī)定了數(shù)據(jù)主體行使訪問權(quán)時(shí)獲得有關(guān)自動(dòng)化決策的邏輯程序和有意義的信息,以及此類處理對數(shù)據(jù)主體的意義和預(yù)期影響。而我國的條文設(shè)計(jì)更多針對個(gè)人信息處理一般情形,對自動(dòng)化個(gè)人信息處理的關(guān)照和精細(xì)化程度不足,還可再行完善。
最后,事后階段的免受自動(dòng)化決策約束權(quán)是重要的算法風(fēng)險(xiǎn)消弭機(jī)制。我國《個(gè)人信息保護(hù)法》并未賦予個(gè)人完整版本的免受約束權(quán),僅在第 24 條賦予個(gè)人獲得說明并拒絕僅通過自動(dòng)化決策作出決定的權(quán)利。一來?xiàng)l文中并未厘清此處的“獲得說明”與第 48 條獲得個(gè)人信息處理規(guī)則“解釋說明” 之間的關(guān)系,勢必造成行權(quán)困惑。二來第 24 條的拒絕權(quán)面向“自動(dòng)化決策”而非“自動(dòng)化決策的結(jié)果”,由于行權(quán)時(shí)機(jī)并非面向事后階段,這導(dǎo)致立法中忽略了如果一項(xiàng)自動(dòng)化決策已經(jīng)做出,個(gè)人又未能在事前、事中階段獲得預(yù)警和有效阻擊之情形下如何在事后階段提出異議、表達(dá)觀點(diǎn)、獲得救濟(jì)從而消弭風(fēng)險(xiǎn)。雖然條文第 50 條規(guī)定個(gè)人行使權(quán)利的請求被拒絕的有權(quán)獲得個(gè)人信息處理者提供的理由。但若洞悉用戶心理可知,“比起獲得理由或者解釋而言,用戶更希望不利的自動(dòng)化決策從未發(fā)生”。〔55〕至少,若一項(xiàng)不利且事關(guān)重大的自動(dòng)化決策已經(jīng)發(fā)生,立法可以在事后階段明確賦予其免受該項(xiàng)決策約束并獲得程序性救濟(jì)的權(quán)利。
綜上所述,算法風(fēng)險(xiǎn)是隱秘性、動(dòng)態(tài)性、擴(kuò)散性和系統(tǒng)性的,僅依靠賦予數(shù)據(jù)主體拒絕自動(dòng)化決策權(quán)利這一單點(diǎn)突破的立法思路勢必難以全面無虞地確保數(shù)據(jù)主體獲得逃離算法操控的基礎(chǔ)和能力。目前,我國《個(gè)人信息保護(hù)法》剛剛頒布,立法者在借鑒免受自動(dòng)化決策約束權(quán)的立法思路時(shí),還需注意為其配備事前知曉、事中參與、事后救濟(jì)的全周期閉環(huán)行權(quán)體系,注重系統(tǒng)要素、結(jié)構(gòu)功能、運(yùn)行機(jī)制、過程結(jié)果等層面的有機(jī)統(tǒng)籌,構(gòu)筑起完善的算法風(fēng)險(xiǎn)識(shí)別預(yù)警機(jī)制、抵御機(jī)制以及消弭機(jī)制,增強(qiáng)對抗算法私權(quán)體系的韌性和質(zhì)效。
五、結(jié)語
在數(shù)字經(jīng)濟(jì)全球競爭的時(shí)代,與技術(shù)和資本相比,治理規(guī)則的構(gòu)建已經(jīng)成為數(shù)字時(shí)代的新型“權(quán)力語言”,實(shí)質(zhì)性地發(fā)揮核心戰(zhàn)略功用。〔56〕GDPR 不僅在個(gè)人隱私保護(hù)領(lǐng)域深耕細(xì)作,在自動(dòng)化決策規(guī)制方面也快速迭代,提供了可資借鑒的規(guī)制經(jīng)驗(yàn)。在我國,近年來一系列數(shù)據(jù)安全和個(gè)人信息保護(hù)相關(guān)的法律漸次出臺(tái),彰顯了我國立法者在技術(shù)治理領(lǐng)域的決心和智慧,可以預(yù)見我國的數(shù)據(jù)和算法治理體系會(huì)日臻完善。在所有治理工具中,賦予數(shù)據(jù)主體妥善應(yīng)對算法風(fēng)險(xiǎn)的免受約束權(quán),完善權(quán)利內(nèi)部構(gòu)造和外部實(shí)施的制度環(huán)境,對于適度調(diào)控和防范算法技術(shù)風(fēng)險(xiǎn),對抗算法滋擾和算法操控的數(shù)字化生存困境具有重要而深遠(yuǎn)的意義。正如有學(xué)者所言,“每一項(xiàng)數(shù)據(jù)主體的權(quán)利都值得被認(rèn)真對待”。〔57〕本文探究的免受自動(dòng)化決策約束權(quán)只是新型算法權(quán)利研究的起點(diǎn),未來還需要對拒絕權(quán)、反對權(quán)、獲得人工干預(yù)權(quán)等相關(guān)權(quán)利進(jìn)行深入挖掘,系統(tǒng)繪制數(shù)字時(shí)代新型算法權(quán)利的理論圖譜。
論文指導(dǎo) >
SCI期刊推薦 >
論文常見問題 >
SCI常見問題 >