日韩欧美视频一区-日韩欧美三区-日韩欧美群交P内射捆绑-日韩欧美精品有码在线播放免费-成人免费一区二区无码视频-成人免费一级毛片在线播放视频

樹人論文網一個專業的學術咨詢網站!!!
樹人論文網

論個人信息保護立法中的平等原則

來源: 樹人論文網發表時間:2021-12-07
簡要:摘 要 個人信息保護立法應基于個人和信息處理者之間的資源及能力不平等狀況,針對自動化決策的平等盲區,設置一系列體現實質平等化的權利義務分配方案,即強化對個人信息主體的賦權并

  摘 要 個人信息保護立法應基于個人和信息處理者之間的資源及能力不平等狀況,針對自動化決策的平等盲區,設置一系列體現實質平等化的權利義務分配方案,即強化對個人信息主體的賦權并嚴格化信息處理者的義務,最終在二者之間促成一種制度性均勢。《個人信息保護法》遵循了公平信息實踐的基本框架,構建了以權益保護為核心的個人信息保護框架和算法糾偏機制,但仍存在若干不足之處。盡管制度設計和算法規制水平很重要,但平等原則在個人信息保護領域的生根落地和實現算法公正,從根本上取決于運行法律制度和自動化決策的社會本身平等與否。

  關鍵詞 個人信息立法 平等 自動化決策 公平信息實踐

論個人信息保護立法中的平等原則

  陳林林; 嚴書元, 華東政法大學學報 發表時間:2021-09-20

  一、引言

  平等既是一條基礎性的法律原則,也是社會主義核心價值觀的重要內容之一。現代社會的立法皆是在不同原則或價值目標之間進行平衡的產物,盡管《中華人民共和國個人信息保護法》(以下簡稱《個人信息保護法》)未將平等明示為立法原則或目標,但文本第 1 條將“保護個人信息權益”和“促進個人信息合理利用”同時列為立法目標,體現了立法者在權益和效率之間尋求平衡,進而在資源分配上實現平等對待公民個人和信息處理者的立法理念。但這只是初階的平等,旨在消除或降低人與人之間、不同法律主體之間在人格資源上的差異,更深層次的平等應當是促進他們以特定方式行動或達到目標的能力平等。〔1〕就個人信息的立法保護而言,促進能力平等尤為重要,因為在由互聯網、大數據和自動化決策建構起的數字社會中,技術已然成為一種隱性權力。缺乏信息采集、保護和處理技術的普通公眾和各種信息處理者之間存在明顯的能力不平等乃至“數據鴻溝”。〔2〕公民個人的數據形象不僅被“老大哥”盡收眼底,還被眾多擁有數據處理技術的“小老弟”——通信公司、互聯網平臺、企業和醫院等——看在眼中、算在心里。〔3〕與此相應,個人信息收集、使用規則不透明以及個人信息被過度收集、使用等現象,成了個人信息保護立法進程中社會公眾反映最強烈的問題。

  個人信息收集、使用規則不透明以及個人信息被過度收集、使用等問題,和數字社會中大規模采用的自動化決策存在直接的相關關系。自動化決策一般包括三個階段:數據收集階段、使用機器學習算法建模階段和最終決策階段。以機器學習算法為基礎的自動化決策,需要收集、分析、擇取并應用海量的個人信息,〔4〕這不僅與保護隱私權以及個人信息權益之間存在張力,還會對公民其他權利(尤其是程序性權利)和社會平等產生影響。機器學習能夠在海量數據中發掘出潛藏的相關性,對這些相關性的發掘利用,使得人們的社會認知和行為方式不斷得到更新,并最終促成社會結構的重組。已有研究表明,盡管機器學習和自動化決策提高了效率,但也帶來一定的副作用——歧視效應或曰算法歧視。〔5〕有關個人信息的大數據應用不僅會通過各種方式侵擾人們的私生活,還會加劇現有的社會不平等并創造新的不平等。〔6〕由于機器學習和自動化決策的專業性、保密性和黑箱化特征,法律很難對涉嫌歧視的算法本身進行事后審查或事先預防,因此在個人信息保護立法進程中,有必要在能力不平等的普通公民和信息處理者之間進行一些糾偏性的權利義務分配,以達至實質性的地位平等并真正實現對個人信息的法律保護。

  二、自動化決策的平等盲區

  依據《個人信息保護法》第 73 條的界定,自動化決策是指通過計算機程序自動分析、評估個人的行為習慣、興趣愛好或者經濟、健康、信用狀況等,并進行決策的活動。自動化決策的輸入端是個人信息數據,輸出端是對自然人的行為習慣、興趣愛好或者經濟、健康、信用狀況等作出的分析和預測。它所應用的工具是計算機程序即算法,核心特征是自動化。與自動化決策緊密相關的一個概念是“畫像”。畫像是快速分類處理信息的一種活動,類似于“貼標簽”,即通過外表、興趣愛好、職業、地區等個人信息,將其劃分到某個類別當中并賦予相應的個人特征,最后據此來決定后續的處理或對待方式。〔7〕歐盟《通用數據保護條例》(以下簡稱“GDPR”)第 4 條對其的概括是:為評估與自然人相關的某些個人情況,特別是為了分析或預測該自然人的工作表現、經濟狀況、健康狀況、個人偏好、興趣、可信度、行為、位置或行蹤,而對個人數據進行的任何形式的自動化處理和利用。顯然,“畫像”展示的是一個“被給定的量化身份”,〔8〕它和真實世界的公民個人狀況必定存在或多或少的偏差,并導致后續的機器學習和自動化決策出現偏差和歧視。

  以機器學習算法為基礎的自動化決策天然地存在平等盲區。首先,它對個人信息的處理方式不可能做到完全平等。其一,輸入算法的數據在質和量兩個方面決定了機器學習自動化決策的可靠性。在量的方面,被用來訓練機器學習的數據越少,所得結果與實際情況的偏離度越大。在質的方面,數據來源以及數據所附標簽本身存在偏差。當被輸入算法的數據本身存在偏見和歧視時,很難預期能獲得公平公正的決策。以就業領域的性別平等為例,若以往招聘案例中受雇傭女性比男性更少,那么關于女性員工的數據就不如男性員工的數據可靠。〔9〕其二,算法設計者在編程時,不可避免地會嵌入特定的價值目標。算法為解決問題而生,因而提出問題或設定目標是一個更具決定性的步驟。當算法設計者擬定的特定問題或算法運行標準存在平等性偏差時,自動化決策必然會造成不平等問題。極端例子就是在缺乏正當理由的前提下,設計者使用機器學習算法開發出一個按種族、性別或宗教過濾用戶的差別對待模型。當然,這種事例在商業和公共領域并不常見,更常見的是另一種容易被忽視的算法,即將各種更微妙的、看似無關的因素與種族、性別、宗教、政治觀點等相勾連,替代后者這些敏感因素成為新的過濾條件,從而將歧視性篩選機制隱蔽其中。例如,通過分析郵政編碼來評估少數族裔,或者以“訂閱特定雜志”來替代性別。〔10〕其三,機器學習所運行的算法邏輯不同于演繹推理邏輯,因而容易忽略因果性并夸大相關性。通過分析大量數據,機器學習能夠發現不同數據之間的某種相關性,但無法解釋為什么會產生這種相關性。即便開發者在開發過程中沒有代入偏見,機器學習自身也會產生“偏見”。在招聘的應用場景中,機器學習基于既有數據會得出一名女性求職者不大適合擔任首席執行官的結論,因為在現實職場中女性比男性更少有機會在大企業中升到主管級別,但它并不考慮也無法解釋為什么會出現這種現象。因果性分析超出了機器學習的能力范圍,而這種忽略因果關系的算法黑箱過程,令看似客觀的機器學習結果隱藏了偏見和不平等,同時還阻斷了追責路徑。

  其次,以機器學習算法為基礎的自動化決策會產生“馬太效應”或“滾雪球效應”。差別對待是機器學習算法的內在邏輯,其發掘出的模式和相關性被用于區分、排序和過濾用戶群體。無論是在算法建模階段還是自動決策階段,這種差別對待都是貫穿始終的。〔11〕機器學習處理個人信息的第一道工序就是分類。當一家互聯網企業招聘“優秀”員工時,機器首先在現有數據基礎上學習哪些員工特征與“優秀”表現相關。一旦機器學習捕捉到“男性”“身體健康”“35 歲以下”“研究生以上學歷”等特征或編碼,那么在自動化決策階段,這些特征所構成的差別對待將被放大:具備這些特征的應聘者得到了較多工作機會或較好待遇,不具備這些特征的應聘者即便在其他方面表現優異,仍將被淘汰出局。換言之,機器學習算法很容易受到程序員、已有前置決策、用戶及 / 或社會偏見的影響,從而生成歧視性結果。〔12〕隨著機器學習和自動化決策滲入社會生活的方方面面,“強者恒強,弱者愈弱”的局面將越發難以避免,因為機器學習會反映并強化社會中持續存在的不平等。

  最后,機器學習算法處理個人信息時經常出現“信息溢出效應”。算法通過對群體偏好的分析,推測屬于該群體的個體之特征,這一過程實際就是對個體進行脫離語境的畫像或貼標簽,會伴生信息的過度解讀現象或“溢出效應”。例如,某網購平臺對一名搖滾唱片購買者貼上了搖滾音樂愛好者的標簽,但實際上該消費者購買這張唱片只是當作禮物送人。類似地,一旦你在亞馬遜網站為他人代購了一本關于強迫癥的書,那么此后無論你何時登錄亞馬遜購物網站,它就可能向你推送有關強迫癥的書籍,并將相關信息置于網頁的顯著位置,或者向你的郵箱發送關于強迫癥書籍的廣告。顯然,亞馬遜網站認為你患有強迫癥,追蹤你郵件信息的算法也會得出類似結論。〔13〕這種過度解讀或錯誤標簽也許不會即刻對現實生活產生影響,但其長期效應可能會很明顯。以信用評級或貸款評價體系為例,假設古典音樂愛好者在貸款人數據庫中表現出更好的還貸能力,該群體就會因此被賦予更高信用評級或貸款優先性。在自動化決策法律規制闕如的情況下,那名古典音樂愛好者可能因為標簽失真而錯過貸款機會,進而影響未來的生活。他對哪些信息被用于評價信用和相關信息的獲取渠道等問題,很可能一無所知。這就好比匿名人員用未知數據對他進行了指控,而被指控人卻無法做出回應。〔14〕

  顯然,自動化決策過程中的畫像會賦予特定群體刻板印象甚至是污名,而刻板印象和污名化恰恰是社會不平等的開始,因為它們反過來會對特定群體中的個體產生負面影響。自動化決策帶來的顯性或隱性差別對待、直接或間接歧視,被冠名為一種新的不平等或歧視形式——“數字歧視”(Digital Discrimination)。〔15〕它根據一些難以解釋的,甚至是偶然的相關性,包括歷史性、代表性偏差、加總偏差、習得性偏差、評估偏差、運用偏差等原因,將特定群體中的所有個體貼上同一標簽,這實際是對個人平等權的減損。承認并維護個人之間的平等地位,是對個人尊嚴和人道主義的捍衛,因此它既是一條法律原則,也是道德實踐領域的一種規范性要求。對人的分門別類,諸如“人上人”和“人下人”的劃分,在道德上被認為是殘忍的。因為某人的弱點而消除其追求個人全面發展的可能性,還被認為是錯誤且有害的。〔16〕

  在應用自動化決策的數字社會中,大部分民眾將被算法視為某個社會群體的成員,而不再是某個公民個人。較之社會中的主流或優勢群體,有色人種、移民、不受歡迎的宗教團體、窮人和其他被壓榨的邊緣化人群,會受到更多的數據監控及信息追蹤。倘若被算法歸入“人下人”或“邊緣化群體”,公民在獲取公共福利、穿行高安防街區、登入醫保系統、進行保險理賠或跨越國境時,就不得不接受更高級別的個人信息采集。一旦他們成為算法設置的懷疑對象并接受額外審查時,數據還會進一步強化他們的邊緣性。以美國中部地區福利資格自動化處理系統、洛杉磯無家可歸者住房協調系統和阿勒格尼縣虐童家庭篩選系統為例,研究者認為隨著數據跟蹤和自動化決策系統在治安管理、政治預測、市場營銷、信用報告、刑事審判、企業管理、金融及福利項目管理中的常態化,疊加這些系統的全覆蓋、精細化和復雜化趨勢,盡管表面上提高了效率,實際卻營造了一所“鎖定窮人、管制窮人甚至懲罰窮人”的“數字濟貧院”,以及一種“自動不平等”(automating inequality)的決策背景和信息反饋循環。〔17〕

  三、能力平等、公平信息實踐與個人信息保護

  在既有的政治—法律理論及實踐中,平等包含了兩種形態和三個維度:形式平等和實質平等,以及福利、資源和能力的平等。〔18〕形式平等要求對相同的個體給予相同的待遇,即無差別的一致對待。形式平等會導致“間接歧視”,例如工作薪水高,但要求全職工作,實際上就間接歧視了受困于家庭責任的女性。鑒于形式平等無法實現“實踐中的全面平等”或“合理的差別對待”,采取有利于特定弱勢群體之特別措施的實質平等,逐漸為現代政治法律制度所采納、推廣。美國《民權法》中的“平權行動” (affirmative action)就是旨在提升女性和少數族群的就業機會和工作優待的行動,歐洲法中的“積極行動”(positive action)政策,更是包括了五種消除間接歧視、提高邊緣群體就業機會的行動。〔19〕通過資源(此處是就業機會和工作條件)的差別化分配實現實質平等,既出于“全面平等”、提高社會整體福利水平的后果考量,也立足于事實層面的依據——每個人利用資源的能力水平是不平等的。

  資源不僅包括收入和財富,而且包括自由、權利和機會。如果人們利用資源的能力存在差異,那么即便人人都擁有平等的資源,每個人實際的生活質量仍將是不平等的。例如,與健康者相比,一位殘障者即便擁有同樣多的資源,其生活仍將處于較低的水平,因為他不僅要把相關一部分資源用于治療疾病,也缺乏用相關資源獲取更多資源的便利和技能。阿瑪蒂亞 ? 森進一步指出,自然環境和社會制度的差別,也會賦予人們不同的能力空間或行動力,并導致類似的不平等結果。〔20〕因此,資源平等只是實現平等的起點或必要條件,實現平等的關鍵在于保障人們“基本能力平等”——具備滿足基本需要、去做重要事情的能力,包括滿足吃穿住行需要的能力、自由行動的能力、參與社會政治生活的能力等。〔21〕在法治國語境中,國家負有保障個體維護其基本自由和法律權利的能力,否則無法實現法治并保障人權。因此,以能力平等為要旨的平等原則,既是法律平等權的題中之義,也是國家扶貧政策、法律援助制度和其他一系列特殊群體優待措施的理論基礎和制度理念。

  從能力平等的視角觀之,數字時代個人信息保護需要克服兩重障礙:一是公民個人和信息處理者之間的資源不平等,主要是信息或數據獲取和支配的不對等性;二是公民個人和信息處理者之間的能力不平等。在法律理論中,不同主體之間的法律平等權由兩個層次構成:第一個層次是平等對待的權利,指向機會、資源或義務的平等分配;第二個層次是作為一個平等的主體受到同等尊重和關照的權利。〔22〕在個人信息保護領域,倘若立法者無視公民個人和信息處理者之間的能力不平等,就會在上述兩個層面放任實質不平等的狀況,也無從解決個人信息收集、使用規則不透明以及個人信息被過度收集、使用等問題。

  信息資源分配和信息處理能力的平等化可以概括地稱為信息平等,它是信息時代社會公正的一項基礎內涵。從形式上看,信息平等是指信息主體——公民個人之間、公民和信息處理者之間以及信息處理者之間——在信息利益關系上的平等或均勢狀態。〔23〕公民個人與信息處理者之間的利益或權利義務關系,因為各自能力不平等而必然會導致一種失衡狀態,所以歷來是各國個人信息保護立法的調整對象。例如歐盟 GDPR 申明“本條例保護自然人的基本權利和自由,尤其是自然人的個人數據保護權”,并將條例的適用范圍限定在“部分或全部以自動化方式對個人數據的處理”;德國《聯邦數據保護法》也規定“本法的目的是保護個人”,適用范圍是聯邦公共機構、各州公共機構和私人機構 “對個人資料的收集、處理和使用”。在信息資源和能力領域的實質平等化舉措,可歸入數字時代的一場社會公正運動——公平信息實踐(fair information practices)。

  “公平信息實踐”濫觴于美國法上的隱私權保護,目標是為公民隱私保護提供一系列公認的、跨國界的做法。公平信息實踐最早的版本,是美國衛生教育福利部遞交的一份立法建議報告——《公平信息處理條例》。這份報告被譽為信息時代的“權利法案”,它為個人隱私和個人信息保護設立了五條準則:(1)任何收集個人數據的自動化系統,都不得秘密存在;(2)對個人數據的收集以及使用情況,必須能為相關個人所知曉;(3)個人有渠道阻止用于特定用途的個人信息,未經自己同意被移作他用;(4)個人有渠道修正或增訂與自身信息相關的數據記錄;(5)任何機構在生成、保存、使用、傳播可識別的個人數據時,必須確保數據的可靠性,以及確保數據用于原定的目的,同時對數據的誤用或濫用負有合理的注意義務。〔24〕直至2008年,美國國土安全部隱私辦公室又提出了八條“公平信息實踐原則”:(1)透明性原則:對個人身份信息的收集、使用、傳播和維護過程,國安部皆向相關個人公開或知會;(2)個人參與原則:國安部應當盡可能讓個人參與對其身份信息的使用過程,并征得個人同意對其身份信息的收集、使用、傳播和維護;(3)目的明確性原則:具體且明確地說明國安部收集個人信息的權限范圍,以及為了哪個或哪幾個目標使用個人身份信息;(4)數據最小化原則:國安部只能收集為了實現目的所必須的、直接相關的個人身份信息,一旦目標實現就不得繼續保存個人身份信息;(5)使用限定原則:個人身份信息只能用于公開告知的目的,和外部主體共享信息的理由必須符合個人身份信息收集時的目的;(6)數據質量和整全性原則:在盡可能的范圍內,確保個人身份信息的準確性、相關性、及時性和完整性;(7)安全性原則:國安部應當采取恰當的安全保障措施,保護個人身份信息免遭以下風險——滅失,未經授權的訪問或適用,遭破壞,被篡改,意外或不當泄露;(8)責任與審計原則:國安部就以下事項負有責任——遵守相關原則,培訓使用個人身份信息的內部工作人員和外包工作人員,審計個人身份信息的實際使用情況是否遵守了相關原則和各項隱私保護要求。〔25〕

  概括而言,公平信息實踐的要義有二:一是通過法律賦權的方式,授予能力和信息弱勢地位的個人以制約、抗衡信息處理者及算法權力的權利或手段;二是對借由“技術賦權”獲得信息優勢地位的個人信息處理者,設置一些針對性的、嚴格化的注意義務和法律責任。以 GDPR 為例,其賦予數據主體的法律權利包括知情權、數據訪問權、糾正權、刪除權、限制處理權、移植權、拒絕權和自主決定權等。在普通公民與個人信息處理者之間這場不平等的博弈中,個人最重要的籌碼莫過于指間的同意或拒絕按鍵(決定權),這是一種形成或否決信息處理法律關系的控制力。〔26〕但行使決定權的前提是知情權,即個人應當明確獲知自己的信息正在被處理,特別是那些對自身權益會造成重大影響的自動化決策,除非是在犯罪偵查等涉及公共安全而需要保密的領域。

  如果說知情權和決定權的行使能夠限制或拒絕個人信息處理者對其個人信息的處理,屬于一種被動防御,那么算法解釋權、數據修正權和自動化決策拒絕權皆可算作積極防御。以算法解釋權為例,盡管學界普遍認為其面臨技術層面不可行、數據主體知識鴻溝、侵害知識產權或商業秘密等問題,但仍得到了立法者的認可。GDPR 序言部分第 71 條指出,數據控制者應明確告知數據主體具有獲得人為干預、表達觀點、對決定要求作出解釋、提出質疑的權利,這被認為是創設了個人的算法解釋權。〔27〕算法解釋權有助于個人免于直接被含有偏見的機器學習算法宰制。為防止數據錯誤導致的算法歧視溢出,損害個體平等權利,立法者必須在知情同意的基礎上再賦予個人對信息的修正權。而要行使修正權,個人還必須具有查閱、復制等數據訪問權。訪問權和修正權旨在增強個人對自身信息的控制力,在犧牲一定經濟效率的條件下,提高自動化決策的準確性,避免個人被錯誤標簽化。此外,由于算法黑箱的存在,算法不公的威脅始終難解,特別是機器學習算法可能從毫不起眼的個人信息中挖掘出鮮為人知的相關性,而這種相關性有時關乎個人隱私與人格尊嚴。為了從源頭上杜絕平臺、企業利用機器學習算法不當或過度開發個人信息,立法者還應當賦予個人自動化決策拒絕權和數據刪除權(被遺忘權)。以上個人權利的實現有賴于信息處理者的積極配合,因此每一項個人信息權利都對應個人信息處理者的相應義務,如決定權對應征得個人同意的義務。但個人信息處理者與普通公民在信息技術領域內地位顯著不平等,且信息處理者往往缺乏動力保護數據安全、維護個人隱私,因此還需要通過立法對技術優勢方課以專門的數據安保義務,通過監管手段對違法行為進行問責,加重信息處理者違法成本,形成一整套約束個人信息處理者的“義務—監管—問責”體系,使其不敢跨越紅線。

  自動化決策算法涉及對公民資源、機會、風險、權利、義務等的分配,內含了一種“權力—支配”關系,具有準公權力的性質或者公權力的一些屬性。〔28〕為避免權力濫用,適用于公權力的約束在數字社會時代同樣可以施加給算法權力主體。例如,公開(透明性)原則是程序正義對權力運行的要求。 GDPR 第 13 條第 2 款規定:“控制者在獲取個人數據時出于證實處理過程的公正和透明的需要,在必要的情況下應當向數據主體提供如下信息……(f)控制者對個人信息的自動決策機制,包括第 22 條第 1 款以及第 4 款所述的數據畫像,在該種情況下控制者至少應向數據主體提供數據畫像過程中運用的邏輯,以及該種數據處理對數據主體的重要性和可能產生的后果。”〔29〕使數據控制者負有公開、透明義務,向數據主體告知數據處理的目的與方式,接受政府、社會的監督,這有助于防止數據控制者開發、利用歧視性算法。從 GDPR 第 22 條在歐盟的執行情況看,目前極少數國家(如意大利和羅馬尼亞)將其視為禁令,不允許自動化決策的使用,大多數歐盟成員國則認可其權利性質,但是在某些應用場景中(如司法和行政)依然禁止自動化決策的使用。

  信息泄露、數據錯誤導致的現實溢出效應,對互聯網平臺企業自身的影響不大,其缺乏動力去完善個人信息安保措施。因此需要法律介入,給個人信息處理者施加數據安全保障義務。安全保障義務以原則的形式被提出最早可追溯到 1980 年 OECD 版本的公平信息實踐。此后各版本的公平信息實踐越發重視個人信息處理者的風險防范義務。〔30〕GDPR 第 35 條第 1 款規定:“處理,尤其是運用新技術進行處理,考慮到處理的性質范圍、背景和目的,可能對自然人的權利和自由產生較高風險,因此在進行數據處理前,控制者應對擬進行的處理操作進行個人數據保護影響評估。”〔31〕該條第7款指出,數據保護影響評估應當至少包含對數據主體權利和自由風險的評估。個人信息處理者的風險評估義務有助于促使其更廣泛地考慮機器學習自動化決策的負面影響,并積極采取數據保護措施。

  四、《個人信息保護法》中的實質平等化及其限度

  新頒布的《個人信息保護法》同樣遵循了公平信息實踐的基本框架,構建了以權益保護為核心的個人信息保護框架和算法歧視糾偏機制。首先,該法總則部分借鑒國外立法,規定了個人信息權益保障原則(第 1、2 條)、目的明確及使用限定原則(第 6、7 條)、數據最小化原則(第 6 條)、公開(透明性)原則(第 7 條)、數據質量和整全性原則(第 8 條)、安全性原則(第 9 條)。

  其次,《個人信息保護法》第 24 條以法律賦權方式對自動化決策進行了規制:涉及個人重大權益的決定,個人有權要求信息處理者予以說明(算法解釋權),并有權拒絕個人信息處理者僅通過自動化決策的方式作出決定(自動化決策拒絕權);與此同時,還規定運用自動化決策的信息處理者有義務保證決策的透明度和結果公平、公正。最后,《個人信息保護法》規定了個人信息處理者必須承擔的一系列呼應性義務和責任,包括信息安全保障義務(第 51 條)、合規審計義務(第 54 條)、個人信息保護影響評估義務(第 55、56 條)、安全事件通知義務(第 57 條)、平臺特殊義務(第 58 條)等。

  從《個人信息保護法》的內容來看,立法者注意到了公民個人和信息處理者之間的資源不平等和能力不平等,并嘗試用一些糾偏性的權利義務分配措施,不斷達致二者的實質化平等并實現對個人信息權益的法律保障,解決個人信息收集、使用規則不透明以及個人信息被過度收集、使用等問題。但這很可能只是一種愿景,或者說只提供了一種可能性,因為該法實際只提供了一個框架性規定。由于信息時代權利侵害和維權方式皆不同于傳統社會,那些權益條款如何在現實中真正發揮實效,仍是存有疑問的。例如,《個人信息保護法》第 47 條規定了個人信息刪除權及信息處理者的刪除義務,符合五種情形之一時,“個人信息處理者應當主動刪除個人信息;個人信息處理者未刪除的,個人有權請求刪除”。在個人信息權益遭受侵害時,第 69 條還明確規定了過錯推定原則,即“個人信息處理者不能證明自己沒有過錯的,應當承擔損害賠償等侵權責任”。但在現實世界中的普通公民,實際并不清楚信息處理者是否收集、刪除、保存或不當使用了自己的個人信息。就像前面提及的那名古典音樂愛好者,他對哪些信息被用于評價信用以及相關信息收取渠道和使用等問題,可能是一無所知的。即便信息處理者有時的確侵害了《個人信息保護法》所保護的個人信息權益,被侵害人卻往往無從知曉,也無法做出回應。

  機器學習能夠發現零散性數據之后的關聯性,一條微不足道的數據或信息也有可能引出關鍵情節或人物,這讓個人生活的“可隱性”或隱私岌岌可危。信息、關聯性和隱私之間的關系,可用以下軼事作一說明:人們在聚會時詢問一位神父,問他在懺悔室里是否聽到過什么非同尋常的故事。神父說:我的第一位懺悔者就是一個很好的例子,他因殺人而懺悔。幾分鐘后,一位優雅的紳士也來參加聚會,他看到神父后熱情地打了個招呼。有人問紳士如何認識神父的,他回答說:因為我很榮幸地成了他的第一個懺悔者。〔32〕基于信息能力不平等和身份信息流動對個人的負面影響,主流法律理論皆將個人信息歸入人格權或隱私權模型進行保護。但站在個人信息處理者的立場上,個人信息數據最突出的屬性卻可能是商業或治理價值,而這種立場也是持之有據的,因為《個人信息保護法》第 1 條將“保護個人信息權益”和“促進個人信息合理利用”同時列為立法目標。如本文開篇所述,該條初看之下體現了立法者在權利和效率之間尋求平衡,進而在資源分配上實現平等對待公民個人和信息處理者的立法理念,實際卻可能引入了一匹“特洛伊木馬”。因為個人信息權益保護和個人信息利用經常是一對矛盾,至于特定事例中的個人信息利用“合理”與否,往往取決于不同利益主體的實力和博弈。結合信息能力不平等的現狀,尤其是個人信息處理者的技術賦權、管理地位優勢和組織化優勢,可以預見該法基于公平信息實踐采取的一些實質平等化措施——無論是個人信息隱私權還是信息自主權設置——最后都很難落地生根。

  當然,《個人信息保護法》也有一些在規范層面對信息處理者“不公”的實質平等化措施,主要涉及對自動化決策或算法規制的條款。該法不僅將公開性或透明性原則列為處理個人信息時應當遵循的基本原則,還對個人信息處理者設置了告知義務以及說明信息處理規則、方式的義務。根據該法第 24 條的字面表達,個人只要主觀上認為該自動化決策會對其利益造成重大影響,就可以要求個人信息處理者向其解釋、說明該決策的作出方式。從文義解釋的角度看,“個人權益”“重大影響”等具有強人身相關性的措辭,表明個人信息處理者的義務不僅是公開算法所依據的抽象原理,還要說明個案層面的決策過程。這會導致個人信息處理者陷入“履行不能”的境地。〔33〕因為若要向用戶詳細解釋自動化決策的過程,信息處理者就必須對算法運行的記錄予以保存。但機器學習技術在本質上是個“黑箱”,而且機器學習算法做出每個決策后,會根據這一新的結果更新已有的模型,將每個新的觀察數據作為訓練數據的一部分。因此,算法本身處于動態更新當中,類似于南美熱帶雨林中一只扇動翅膀的蝴蝶,即使知道源代碼和最初數據也難以精確把握機器學習最終的結果。〔34〕此外,算法解釋還面臨商業秘密抗辯和算法可視化障礙,〔35〕因此可行的履行解釋、說明義務的方式,只能限于向個人較宏觀地描述算法系統的構建方式,以及說明處理者如何選擇數據,訓練、測試算法和評估輸出結果。

  另一個是自動化決策的拒絕權。在 GDPR 中,針對單獨自動化決策,數據主體適用拒絕權存在例外情形,即單獨自動化決策是達成和履行合同的必要條件;或者法律另有規定;或者數據主體明示同意該決定。滿足三種豁免事由之一,數據主體就不能行使拒絕權,當然數據控制者仍然應當采取適當的措施保護數據主體的合法權益。同時,即便在例外情形下,對種族、民族、政治觀點、宗教、基因、健康、性取向等敏感信息的自動化決策依然受到嚴格限制。但根據《個人信息保護法》第 24 條,拒絕權的行使并無例外情形的限制。只要權利人主觀上認為單獨自動化決策會對個人權益造成重大影響,就能行使拒絕權。但在單獨自動化決策是履行合同所必需或個人曾明示表達過同意的情況下,不恰當地行使拒絕權將極大地增加交易成本,阻礙技術創新和行業發展。而《個人信息保護法》對例外情形未留余地,在實踐中可能會難以執行,建議遵從國際慣例,補充規定拒絕權的豁免事由。

  與自動化決策相關的,還有《個人信息保護法》第 47 條規定的個人信息刪除權,因為刪除權的行使會對自動化決策產生復雜的連鎖影響。當某人知悉自己的個人信息已被納入機器學習算法模型之中,如果他撤回同意,那么個人信息處理者只能刪除該數據,或者停止除存儲和采取必要的安全保護措施之外的處理。這有可能意味著既有的自動化決策模型將不得不被棄用。這一規定倘若真的落到實處,對大數據開發、使用會產生釜底抽薪的效果,也讓平等化蒙上了矯枉過正的色彩。筆者認為,不宜將“撤回同意”作為信息處理者必須刪除個人信息的事由,除非是應個人的請求,否則就混淆了“撤回同意”與“行使刪除權”這兩個法律行為。此外,應當根據個人信息處理的不同階段限制刪除權的溯及效果,允許經過匿名化處理的個人信息保留在自動化決策模型中,也允許個人信息處理者提出非商業性的抗辯理由或豁免事由。〔36〕

  五、余論

  個人信息保護領域的規范設置和權益保護是一項前沿性的交叉法學課題,需要結合憲法、民法、網絡安全法、數據安全法和電子商務法等領域的規范和法理展開,也需要在公民個人和信息處理者、權利與效率、法律與科技創新之間促成一種制度性均勢或平衡。因為從歷史和社會的視角看,法治與共享共治互為因果:沒有哪個利益群體強大到足以支配其他群體,作為正式制度的法律,代言的是多數群體而非某一群體的利益;一旦實現了制度性均勢,公權力機關、社會機構和公民個人的行為就會變得可預測、可理解和穩定,并且是受到約束或遵循規則的。〔37〕因此,助推均勢、代言信息公平的平等原則,既是可持續法律制度的一條基本原則,也是良法善治的基礎。在個人信息保護的立法進程中,立法者應當著眼于不同主體在信息資源、信息能力方面的不平等事實,在數字弱勢群體、普通公民和信息處理者之間設置一套實質平等化且可操作的權利義務分配方案,既強化對個人信息主體的法律賦權,又嚴格化個人信息處理者的法律義務。否則難以維護信息時代的公民基本自由權,也不可能從根本上抑制個人信息收集、使用規則不透明以及個人信息被過度收集、使用等現象。

  當然,平等并未涵蓋、也不可能解決個人信息保護領域的所有問題,而且平等自身在具體事案中的標準或要求,還要結合問題和語境才能得以展開或明確化。就個人信息保護立法中的熱點議題——自動化決策或算法規制而言,防控歧視效應當然屬于平等所關切的問題,但最大的問題卻可能是數據驅動型決策之際的法律程序缺位或程序性權利喪失,以及由此導致的信息不對稱和權力不對稱,至于歧視效應實際可以歸為這一狀況的副產品。〔38〕因為在人工或非自動化決策的場景中,法律程序缺位或程序性權利喪失,同樣會導致信息不對稱和權力不對稱,并產生歧視性或不平等的決策結果。隨之而來的一個關鍵性問題是,較之人工或非自動化決策,已有大規模應用的自動化決策或算法在公平性尺度上的統計平均值或中位數,是更低還是更高?算法歧視效應的根源,是技術不成熟、規制不到位還是另有原因?自動化決策的反對者認為,自動化決策系統提高了效率卻導致不平等,營造了一所“鎖定窮人、管制窮人甚至懲罰窮人”的“數字濟貧院”。這種觀點是缺乏大樣本統計數據支撐的,而且只要簡單回顧一下人類歷史,就能發現在每一個階段、每一種社會以及每一個國家中,窮人或其他任何弱勢群體遭受更多不平等或不公正的對待,乃是一種普遍現象。“窮人”或“弱勢群體”這個種屬概念,本身經常和遭遇不公乃至苦難聯系在一起的,所以他們遭受歧視的現象和自動化決策之間實際并不存在因果關系,有時連相關性都不存在。

  由此可以推論,盡管制度設計和算法規制水平很重要,但個人信息保護立法中實質平等化措施的生根落地和實現算法公正,在根本上取決于法律制度和自動化決策的運行環境平等與否——特定國家的社會平等狀況究竟如何。瑞典學者大衛 ? 薩普特運用臉書廣告的一項算法推送實驗,也證明了這一點。該實驗預設每千名男性中對程序員職位感興趣的人數是每千名女性中感興趣人數的兩倍,并借助臉書推送招聘廣告。在編輯招聘廣告時,實驗者未注明性別要求,但勾選了若干和程序員有較強關聯的算法選項——角色扮演游戲、科幻電影和漫畫。廣告推送后,數據統計顯示,對收到這份廣告的樣本人群而言,算法不存在性別歧視。但收到這份廣告的男性數量是女性的四倍,因此在直觀上結果有失平等。第二次實驗者隨機勾選了更多的算法選項,結果是男女兩性收到廣告且對職位感興趣的數量比和每千人中實際感興趣的數量比相一致,而且與男女兩性對職位感興趣卻沒收到廣告的數量比也一致,因此修改后的算法顯得更為平等。但是收到廣告的女性中只有三分之一的人對職位感興趣,而收到廣告的男性中有一半的人感興趣,那么這是否意味著對男性存在歧視?該實驗說明,不平等現象就如打地鼠游戲:將地鼠從一個地方敲下去,它就會從另一地方又冒出來;在群體之間進行校準和得到相同的招聘誤報率及漏報率,對算法來說是不可兼得的。〔39〕實際上,只有當學習、掌握計算機編程的男性和女性一樣多時,才有可能設計出完全沒有偏見的算法招聘廣告,而這恰恰取決于特定社會中性別平等的實現狀況。

主站蜘蛛池模板: 亚洲AV无码乱码国产麻豆穿越 | 最近中文字幕MV免费看 | 国产精品久久久久久影院 | 99久久综合 | 大桥未久电影在线观看 | 99视频免视看| 国产人妻人伦精品1国产 | 美国一级黄色 | 暖暖视频免费高清在线观看 视频 | 亚洲在线成色综合网站 | 国产人成无码视频在线观看 | 国家产午夜精品无人区 | 亚洲色图在线播放 | 嫩草欧美曰韩国产大片 | a级毛片高清免费视频 | 成年私人影院网站在线看 | 在线 无码 中文 强 乱 | 99热成人精品国产免男男 | 天美传媒在线观看完整高清 | 国内精品伊人久久久影院 | 九九大香尹人视频免费 | 999国产高清在线精品 | 日本无码人妻丰满熟妇5G影院 | 国产精品免费久久久久影院 | 亚洲精品AV中文字幕在线 | 国内精自品线一区91 | 人妻夜夜爽天天爽三区麻豆AV网站 | 国产XXXXXX农村野外 | 一个人HD高清在线观看免费视频 | 国内精品久久久久久久999下 | 激情欧美日韩一区二区 | 亚洲视频一区 | 最好看中文字幕国语 | 免费国产成人手机在线观看 | 亚洲一区电影在线观看 | 久久欧洲视频 | 国产精品亚洲AV毛片一区二区三区 | 欧洲video60| 一边摸一边桶一边脱免费 | 国产色婷亚洲99精品AV在线 | 久久AV亚洲精品一区无码网 |