摘 要: 算法監控在海量數據與強大算力的加持下已經成為一種解放力量,但任何事物都是矛盾體,算法監控在 “座架”與 “巨機器”的支配下也會帶來 “信息繭房”與算法歧視等倫理風險。這些倫理風險與 “圓形監獄”中規訓與懲罰的核心要義存在 “邏輯共契”。針對算法監控倫理風險的社會治理,要從個體層面、技術設計層面、制度層面著手,這樣才能確保該技術成為 “大規模為人類造福的工具”而不是 “大規模數學殺傷性武器”。
關鍵詞: 算法監控; 圓形監獄; 信息繭房; 算法歧視; 數字化
郝喜 昆明理工大學學報(社會科學版) 2021-12-28
隨著信息技術、網絡技術的發展與融合,算法監控作為一種認識與改造世界的重要工具以一種 “潤物無聲”的方式滲透到人類社會各個領域,并對人類生產生活方式產生顛覆性影響。正如麥克盧漢所言, “我們塑造了工具,但工具反過來又會塑造我們”。算法監控在海量數據與強大算力的加持下雖然實現了工具理性的 “勝利”,但也孕育了價值理性自我異化的基因, “數據控制”成為算法監控社會濫用的基本依據, 《數據安全法》的頒布為算法監控的社會治理提供具體指南。
一、數字化 “圓形監獄”釋義
在計算機科學界,算法常常被認為 “是按照設計程 序 運 營 以 期 獲 得 理 想 結 果 的 一 系 列 指令。”[1]算法語境中的監控,作為一個學術詞,對象是 “人” 而非 “物”,旨在通過形成 “數 據人”,實現對人的算法籌劃。在資本邏輯占統治地位的現代社會,算法通過整合分析監控所得數據展現出的巨大利潤圖景受到資本推崇。在資本擴張邏輯的支配下,算法監控如毛細血管式遍布社會各個角落,使得社會變成了一個數字化 “圓形監獄”。“圓形監獄”作為一個利用特殊物理空間來顯現權力的理想建筑由英國思想家邊沁首次提出,它是由中心瞭望塔和四周被分割成許多小囚室的環形建筑構成。在這種結構設計中,站在中心瞭望塔的監視者可以清晰窺視被監視者的一舉一動,而被監視者只能窺視中心瞭望塔的高大輪廓,在任何時候都不知道自己是否被窺視, “這種清楚和模糊的對立———或者說,就是可見性 ( 確定性) 與不可見性 ( 不確定性) 之間的對立———保證的權力與服從間關系的穩定不變。”[2]224 也就是說,被監視者無法看到瞭望塔上面是否有監視者,這種不可見性保證了規訓權力的自動實施,使得被監視者始終保持自我規訓。福柯意識到 “圓形監獄”的規訓意義,并在此基礎上提出全景敞視主義,并認為 “全景敞視主義是一種新的 ‘政治解剖學’的基本原則,其對象和目標不是軍權的各種關系,而是規訓的各種關系。”[2]234 福柯認為,整個社會就是一個 “監獄群島”,工廠、學校、醫院、收容所等都遍布 “圓形監獄”的身影,社會通過 “權力的眼睛” 對人們進行監視與規范化訓練,迫使個體產生被監視的狀態,造成個體 “精神對精神的壓力”,個體逐漸放棄反抗,最終達到自我規訓的狀態。也就是說,監視與規范化訓練無處不在,每個人被編織在關于力量與肉體的權力技術中,無時無刻都受到其權力效應的干預。
數字化 “圓形監獄”是隨著算法監控技術的發展而產生的一個數字式虛擬監獄,而非建筑學意義上的物理式圓形監獄。由此,在本體論上就形成了一個不同于 “物理式監獄”的一個 “新監獄”。相較于傳統建筑學意義上的圓形監獄,其隱蔽性大大提高、滲透范圍越來越廣、監控程度越來越深,它帶來的不僅是人們主動接受規訓,還有人們被動接受懲罰。一方面,由抽象數字代碼組成的算法具有不可見性,這種不可見性隱匿了時空結構對監控機制的限制,迫使人們自身產生一種有意識的 “自我約束”狀態,人們不知不覺就參與到算法監控對其自身的規訓之中; 另一方面,技術化存在的人時刻處于算法監控可見范圍之內,人們在互聯網上貢獻的數據反過來會成為統涉人們自身物質生活、精神生活的 “原罪”,成為數字化 “圓形監獄”中的 “數字難民”。可以說, “現代電子技術的發展已經使社會變成了一個數字化 ‘圓形監獄’,看似自由的現代社會密布著各種監視技術與力量。”[3]
二、算法監控的本質
如上所述,算法監控構造的數字化 “圓形監獄”以不可見的方式自動實施規訓權力,以超時空控制的方式實現對人的算法謀劃。算法監控具有追求權力與控制內在本質,使其與海德格爾所說的 “座架”與芒福德所說的 “巨機器”的分析聯系到一起。
( 一) 算法監控與 “座架”的關系
算法監控在 “座架”的支配下演進為算法霸權。“‘座架’是一種解蔽方式,這種解蔽方式在現代技術之本質中起著支配作用,而其本身不是什么技術因素。”[4]根據對海德格爾 “座架” 的分析可知,作為技術本質的 “座架” 不是一種 “人類行為”,而是與柏拉圖的 “理念”與黑格爾的 “絕對精神”相類似但又有不同的一種 “非人的意志”。在海德格爾看來,在這種意志的統治下,不管人們是有意還是無意,都無法逃脫被 “座架” 支配的命運,人與物的本性 都 被 “遮蔽”了,變成了一種特定的資源,被用于服務預先設定的目的。算法監控在 “座架”的支配下,以一種霸權姿態與人們相互 “交道”。通過超越人本身能動性的方式 “促逼”著人們必須按照算法要求 “解蔽”自身,進而形塑人們的行動與知覺。算法監控要求將人 “解釋”為數據資源,通過分析整合數據資源來提取人們愛好的 “DNA”,為人們進行 “個性化定制”信息,從而潛移默化地影響人們行動與知覺。
( 二) 算法監控與 “巨機器”的關系
算法監控是一個 “新的巨機器”。美國技術哲學家劉易斯·芒福德在其 《技術與文明》等著作中提出巨機器這一概念。這一概念最早起源于古埃及,一開始指的不是有形的機器,而是一個由人力組成的,為了追求絕對控制的社會組織形式。最早的巨機器由經過嚴格組織化的人力組成,受制于當時生產力的發展水平,它的效率很低。隨著生產力的快速發展,“新的巨機器”( 計算機、算法、大數據、人工智能等) 被確立起來,傳統巨機器逐漸脫離人們的視野。雖然新型巨機器與傳統巨機器在形式上發生了巨大變化,但二者本質特征并沒有發生改變,即追求權力與對他人的控制。芒福德用 “巨機器”來表征現代社會技術的本質特征。所謂 “巨機器”,“就是與生活技術、適用性技術、多元技術相反的一元化專制技術,其目標是權力和控制,其表現是制造整齊劃一的秩序。”[5]從這個定義來看,算法監控就是一個巨機器的典范。 “外賣平臺系統通過潛移默化地收集、分析騎手數據并將數據結果反作用于騎手而使勞動秩序成為可能,進而實現對騎手的 ‘數字控制’。”[6]外賣平臺借助算法巨機器維護自身持續增值,要求進一步控制社會關系,將算法監控內蘊的經濟力量轉化為政治權力,主要表現在規定勞動秩序上。騎手為了生存需要不得不迎合算法巨機器追求權力與控制的內在偏好,時刻受到技術權力效應的規制,最終 “陷入”整齊劃一的勞動統治秩序之中無法抽身。
在 “座架”與 “巨機器” 的支配下,算法通過監控數據預測人們未來行為,并在此基礎上對人們進行規訓與懲罰,主要表現在 “信息繭房”與算法歧視等倫理風險。這些倫理風險與 “圓形監獄”規訓與懲罰的核心要義存在 “邏輯共契”。這是因為,從一般意義上來講,科學知識來源于對數據的分析與解釋,算法憑借著強大的分析整合能力能夠將海量數據轉化為預測知識,在此意義上,算法監控構造的數字化 “圓形監獄”,通過數據———權力相互作用來實現規訓與懲罰的運行機制,與福柯眼中的 “圓形監獄” 通過知識———權力相互作用來實現規訓與懲罰的運行機制相一致。
三、數字化 “圓形監獄”對人的規訓: 信息繭房
凱斯·桑斯坦在 《信息烏托邦》中詳細闡述了 “信息繭房”這一概念: “在當今網上環境中,人們可以自由地分析和獲取大量的信息,但同時也使自己陷入了一個 ‘回音室’當中。因為公眾自身的信息需求并非全方位的,人們習慣性地將自己包裹在由興趣引導的信息中,從而將自身桎梏在一個 ‘繭房’中,這種現象被稱為 ‘信息繭房’。”[7]正如福柯所言,在 “圓形監獄”中,規訓權力是依靠特殊物理空間造成不可見性的自動實施。“信息繭房”作為一種由虛擬網絡空間建構的一個虛構舒適世界也可被視為實施規訓權力的一種途徑。在大數據時代中,人們技術化的生活方式使得每個人都會 “沉浸”在 “信息繭房” 之中,受到技術空間權力的監視與規訓,每個人信息權力都有可能受到嚴重沖擊,人們讀書、寫作、科研都將受到 “個性化”推薦算法邏輯的控制。就此而言,文化本身成了 “編碼空間”,文化空間與網絡空間在算法監控中的聯合使得文化被算法壟斷,算法監控通過強大算力與海量數據不僅塑造與框定了文化,更以不被公眾意識到的方式成為文化本身。此時 “文化的意義在于操控”。正如尼爾·波斯曼所說,在信息化時代,技術壟斷文化,文化已經向技術投降,而信息化技術在其中扮演著至關重要的作用。
“信息繭房”產生的主要原因有兩個方面: 一是自身原因。人自身的思維惰性熱衷于最熟悉的信息來源,這種思維習慣自然而然地會把自身困在 “繭房”中; 二是技術原因。數字平臺為了能夠在激烈的競爭中留住用戶,就要依靠 “投其所好”原則,放大與強化對用戶社會需求的滿足,不斷地推送用戶感興趣的信息,提高用戶滿意度。數字平臺利用算法來監控用戶的數據足跡,并在此基礎上進行 “個性化推薦”,使得用戶陷入它們編制的 “小世界”中。 “信息繭房”是隨著個性化推薦算法的產生而誕生的,而個性化推薦算法是通過分析整合海量監控數據實現的。具體而言: 一是基于內容的協同過濾算法下的 “信息繭房”。算法通過對用戶的數據瀏覽足跡進行跟蹤與記錄來發現用戶的內在偏好,從而將與用戶興趣愛好相類似的新聞推送給用戶。以 “今日頭條”為例,算法通過監控用戶在使用 “今日頭條”過程中留下的數據足跡,分析與提取用戶 “愛好 DNA”,然后精準推送用戶感興趣的新聞; 二是基于用戶的協同過濾算法下的 “信息繭房”。對于感興趣的商品或內容,用戶一般都會產生點擊、購買、收藏等行為,算法通過監控用戶的此類行為來衡量用戶之間的相似度。這類算法背后隱藏的邏輯前提為 “人以類聚,物以群分”。它一方面是根據內容尋找用戶之間的關系,當用戶在某個平臺上填寫個人喜好的內容時,算法就能根據用戶所填寫的個人資料分析與其他用戶之間的相關性,如果相關性較高,就會向用戶推送與他具有相同愛好的用戶所偏好的信息; 另一方面是根據日常生活中的人際關系來建立用戶之間的關系,算法通過監控用戶在現實生活中所存在的人際關系網絡來推薦關注對象。舉例來說,算法通過分析微博上的點贊數和關系網來衡量用戶之間的 “友誼”。如果某個人發出的微博,另外一個人經常點贊,算法就會認為這兩人 “情比金堅”,就會給目標客戶推薦關注對象。毫無疑問,無論是基于內容的協同過濾算法,還是基于用戶的協同過濾算法都不約而同地把人們困在 “繭房” 之中,給人們造成不可估量的隱性危害,損害了人們的判斷能力。
從技術層面分析 “信息繭房”產生的原因具有深刻的哲學反思意蘊。算法通過監控所得數據將人們包裹在 “信息繭房”之中,在此意義上,數即是術,具有籌劃性與主宰性。算法通過監控數據實現對 “人之所是”的 “先行領會”,達到算法籌劃目的。也就是說,算法利用監控數據先行規定關于人的抽象存在,以 “個性化推薦”的方式踐行對人之規定的 “先行領會”,深刻地改變了人的思維方式與生存環境。一方面,算法通過監控數據為個人定制 “畫像”,每個人都身處 “信息繭房”之內,同質化數據撲面而來,使得人們始終追求自我以為正確的邏輯自洽,其思維方式必然將自己的偏見認為是真理; 另一方面,算法監控傾向于將一切 “理解”為數據,人與物被同化為二進制數據,成為算法整合分析的對象。數據關系成為數據時代最重要的社會關系之一。數據關系擴張的直接后果就是將人的一切行為舉止轉換為可以計算的數據,這使得人們的生存環境就像桎梏在蠶繭一般的 “繭房”之中。當下階段,算法監控塑造的 “信息繭房”強調利用用戶數據進行資本謀劃,進而獲取資本積累的目的性,而忽視了作為主體的人的豐富性,這表現出工具理性與價值理性的矛盾日益突出。可以說,算法監控的數據生產是影響其 “價值理性” 的重要因素。
在大數據時代中, “信息繭房”以 “個性日報”的形式產生影響。 “個性日報”實際掩飾了數據企業深度數據挖掘的卑劣行徑。算法通過個性化推送信息,看似迎合了不同用戶的需求,實則確切斷了我們與外界的交流。隨著算法個性化推薦日益滲透在我們的日常生活,各大網絡社交平臺表面上看是信息自由交流的地方,卻不知已經成了 “信息繭房”成長的溫床。看似自由的交流場域卻在算法監控 “數據壟斷”的規訓下內蘊對人們自由的禁錮。人們表面上可以自由地交流且自由做出選擇,但本質上早已被數據———權力失衡的運行機制強加了種種不自由的選擇。算法監控以推送的方式針對性地強化了用戶閱讀體驗,讓用戶對某個感興趣的信息得到幾何倍數的增加,但那些對于用戶不感興趣的信息則被悄無聲息地 “遮蔽”了,用戶只能接收到某一范圍內的信息,進而減少用戶信息相遇的概率,在人與人之間建構出一座座 “信息孤島”。在 “個性日報”的助推下,算法操作信息供給,人們可能因此失去了解外界的權力,個人獲取信息的渠道趨于窄化,從而影響個人全面的發展。“信息繭房” 對人們的自主權也極具威脅。 “信息多樣性是人進行自主決策的前提條件,而個性化所造成的信息繭房則會排除主體不感興趣的信息而只推送相關信息,進而阻礙主體進行自主決策。”[8] 可以說,算法監控的蔓延使得人由主體性存在轉化成工具性存在,人的自主性在算法監控的邏輯控制下煙消云散。束縛在 “信息繭房”中的個人被異化為數據 “資源”,變得物質化、功能化,作為一種 “遺忘的存在”消融在 “信息繭房”之中。這本質上是在 “數字經濟”與 “數字社會”轉型嬗變過程中出現的新 “異化”形式。
四、數字化 “圓形監獄”對人的懲罰: 算法歧視
福柯將 “圓形監獄”隱喻為現代的懲罰式社會。算法與監控的結合塑造的數字化 “圓形監獄”以新的實踐與形式延伸與強化了傳統 “圓形監獄”的懲罰功能,數據企業如同 “上帝之眼” 時刻審視目標客體,進而塑造目標客體的思維方式與預測目標客體的行為軌跡,其帶來的這種懲罰會更 加 殘 酷,主要表現之一就是算法歧視。 “算法歧視是指數據驅動的算法決策會導致歧視的做法和后果,換言之,算法決策可以再現已有的社會歧視模式,繼承先前決策者的偏見從而加深流行的不平等。”[9]算法歧視主要分為兩類: 第一,身份性歧視。在某種程度上,被算法監控所定義的數據人就是數字化 “圓形監獄”中的 “囚犯”,被烙上了歧視的印記。“算法系統會賦予現實主體一種新的身份——— ‘算法身份’ ( algorithmic identity) ”[10],我們被一些秘密算法歸類分組,其自動確定了個體的性別、階級、種族等身份特征。可以說, “我們不是被當作個體,而是被當作某個群體的一員,被迫扣上了某類有色帽子,進而施以不平等對待。”[11]第二,無關身份性的算法歧視。這類歧視主要是指 “算法決策中個體雖不受身份影響,仍遭到不平等對待,例如大數據殺熟與算法歧視。”[12]無論是關涉身份性算法歧視,還是無關身份性算法歧視都能對人們產生難以估量的隱性危害。這就需要深入分析算法監控的運行機制,發現算法歧視產生的根源。
( 一) 編程人員在 “撰寫劇本” 時 導 致 的歧視
算法模型作為一種數學殺傷性武器可以被看成用“數學的方式表達的意見”,算法的運行需要一定的變量,而變量的賦值、分類都是由設計者人為設定的。算法編程人員可以通過道德物化的方式將人們撰寫 “劇本” 中存在的偏見 “嵌入”算法中。這主要表現在以下兩個方面: 一是價格歧視。算法設計者建立的算法模型能夠通過監控消費者的消費記錄、行動軌跡等行為數據,將同樣的商品對不同的用戶顯示不同的價格, “大數據殺熟”就是典型的歧視性定價行為。二是結果偏袒。算法設計者根據其內在的偏好,使得算法模型對某些結果產生一定的偏袒,從而可能造成歧視行為的出現。進一步而言,就算編程人員沒有故意將偏見嵌入算法模型中,但他們作為日常社會中生活的人,思想與行動都會受到當今社會意識形態和個人知識儲備水平的影響,從而也很難保證無意識的偏見不被 “嵌入”。
( 二) 數據樣本偏差帶來的歧視
數據作為算法 “活的靈魂”,數據的質量影響算法決策的質量,然而數據具有無邊界性、碎片化、滯后性特征,這些特征會導致出現算法歧視現象: 一是數據具有無邊界性特征。眾所周知,數據源于人類的記錄,蘇軾在 《赤壁賦》中說道, “耳得之為聲,目遇之成色”,這些聲色 “取之不盡用之不竭”。這說明我們聽到的、看到的一切對象都是沒有邊界、無窮無盡。換言之,可記錄的現象是無窮無盡的,算法監控的數據也難免有遺漏,從而可能導致出乎意料的歧視。二是數據具有碎片化特征。 “數據一經產生,就是碎片化的,數據就像玻璃,它從來都是斷片的、不連續的,數據只能記錄事實的一個或數個側面,無論怎么記錄,它從來都沒有、有不可能形成一個完全記錄的事實。”[13]也就是說,數據會逼近事實,但數據再多,終究不是事實,海量數據也不能徹底看清萬事萬物的全貌。因此,算法也不可能完全通過監控看清事實的全貌,從而可能在具體應用中導致歧視行為的發生。三是數據具有滯后性特征。數據是對社會事實的記錄,但事實一被記錄,就成了過去。事實不斷變化,因此記錄也肯定滯后于現實。人們猶如刻舟求 劍 的 楚 人,僅能記錄某一節點的事實,雖然記錄的數據越來越多,但我們離現實仍然很遠。因此雖然算法監控擁有越來越來的數據之后會發揮更大的威力,但也很有可能做出與事實相悖的預測。
( 三) 算法設計重視相關性,忽視因果性帶來的歧視
例如,貸款公司在訓練其貸款算法時,把 “郵政編碼”等數據納入其中,從表面上看并沒有什么不妥,但從本質上來看, “郵政編碼”表達了這么一種觀點: 某個落后地區的人貸款額度可以適當減少,其中就暗含了歧視。另外,有相關統計表明,美國黑人的犯罪率比白人更高,這個統計結果影響了美國司法部門幾十年,讓黑人很難得到與白人一樣的司法權力。從本質上來看,這個統計結果掩蓋了兩者的因果關系。在現實社會中,黑人難以享受到跟白人一樣的上學待遇,難以找到與白人一樣的工作等,在某種程度上說,黑人的高犯罪率正是這種現實不平等帶來的后果。算法歧視具有以下兩個特征:
1. 算法歧視是自我實現的。例 如,ZestFinance 公司開發的一款算法把一些不尋常的觀測值設置了較高的權重,比如申請者的貸款申請是否正確地使用了標點符號與拼寫語法。標點符號和拼寫錯誤表明了教育水平的高低,低教育水平又與階級相關。當窮人不符合標準的語言水平時,算法會抬高他們的貸款利率,如果他們后來因為貸款利率高而導致還款困難,這反過來又會證實他們是高風險群體的假設。
2. 算法歧視會自我鞏固與加強。用有偏見的數據訓練出來的算法模型,其輸出的結果必然也帶來偏見,然后這一輸出結果通過對系統進行反饋,就會使偏見得到鞏固與加強。例如,犯罪預測算法的訓練數據是關于大量黑人的犯罪歷史記錄,通過對黑人進行身體歧視導致黑人無法得到與白人一樣的公平待遇,黑人的犯罪率更高了。黑人居高不下的犯罪率又反過來又正好印證了算法的預言,故很難對算法進行質疑,算法對黑人的歧視進一步加強。
五、數字化 “圓形監獄”的社會治理
算法與監控的秘密合謀塑造的數字化 “圓形監獄”迫使人們接受數字化分析與預測,并在此基礎上對人們進行規訓與懲罰,使人們面臨 “信息繭房”與算法歧視的倫理風險。算法監控倫理風險的社會治理要以算法監控技術為反思、規范的對象,不僅要考慮算法監控技術本身的特性與結構,而且還要考慮算法監控與人和社會之間的關系———算法監控與設計者以及使用者的關系、其所帶來的社會影響等,為此,我們要注意以下應對策略:
( 一) 個體層面
目前,大多數人對語言功能的理解主要停留在 “認識世界”,而非 “改造世界” 這一層面,把這習以為常的理解搬用到互聯網上就會產生這樣一種認識,認為只要在網上 “君子動口不動手”就不會產生實際影響,從而在網絡中隨意發表言論。由于只需要賦予算法幾條基本的指令,它就能最大限度地挖掘我們在網絡上發布的信息,這些信息能帶來 “信息繭房”與算法歧視。我們必須改變對語言的功能僅為 “知”的狹隘理解,要看到語言也能行駛 “行”的作用。也就是說,我們要意識到數據能夠決定我們做什么,從而在網上 “謹言慎行”。而且,伴隨著算法監控的塑造作用日益凸顯,我們需要反思算法監控技術的社會角色,將人與機器的對立思維轉換為協作思維,從人———機交織的框架下認識到算法監控的規范意蘊。
( 二) 技術設計層面
面對算法監控技術產生的倫理問題,最直接的辦法就是揮舞著倫理大棒進行技術批判,隨時對該技術的 “越界”行為吹口哨,我們可稱之為技術倫理研究的 “外在主義”進路。 “外在主義”進路試圖將算法監控的社會應用限定在倫理規定的范圍內,這一努力是正當的,因為人要為其創造的技術負責,但也有一定的局限性。算法監控并非是完全被動的 “客體”,伴隨著算法監控規范意蘊的日益凸顯,不斷塑形人類思維、行為方式。基于笛卡爾二元本體論的 “外在主義” 進路已不再適應當前技術實踐的需要。拉圖爾提出的 “行動者網絡理論”隱匿了 “人”與 “非人”的界限,將技術物視為與人地位相平等的 “行動者”。鑒于技術物的 “行動者” 地位,在具體的技術實踐中,技術設計者要與倫理學專家共同交流協作,促進 “外在進路” 與 “內在進路”協調共進。通過具體的技術設計將公平、正義、法制等倫理觀念 “嵌入” 算法監控技術之中,使之在使用情境發揮善的作用。“讓科技的 ‘智能’與人的 ‘智慧’ 相結合”[14],將算法巨機器轉變為受人掌控與為人服務的 “有機技術”。
( 三) 制度層面
算法通過整合分析監控數據預測人們未來行為,“數據控制”成為算法監控社會濫用的基本依據。因此,制定相關制度與政策是引導算法監控遵循 “以人為中心”發展方向的基本前提。基于此發展方向制定的相關政策制度應該遵循: 一是引導算法監控朝著為提升人類福祉服務,破除 “以資本為中心”的發展邏輯; 二是引導數據企業加強算法倫理建設,算法監控發展要兼顧 “效率”與 “公平”的有機結合,不能以 “便利化” 為名,行 “控制” 之實,算法監控并非客觀中立,應賦予更多的倫理考量。我國近期頒布的《中華人民共和國數據安全法》指出: “開展數據處理活動,應當遵循法律、法規,尊重社會公德和倫理,遵守商業道德和職業道德,誠實守信,履行數據安全保護義務,承擔社會責任,不得危害國家安全、公共利益、不得損害個人、組織的合法權益。”[15]該法律的頒布為算法監控社會治理奠定了基本遵循,能夠有效規制算法監控社會應用中 “越軌”行為,幫助人們逃離算法監控塑造的數字化 “圓形監獄”。
六、結語
算法與監控的結合構造出數字化 “圓形監獄”,為了實現精準預測結果,算法監控范圍已然從虛擬世界過渡到人們現實生活之中,以新的技術實踐形式延伸了邊沁眼中的 “圓形監獄”。算法監控以不可見的方式自動實施誘導規訓權力,以超時空控制的方式實現懲罰謀劃。追求權力與控制的算法監控以 “座架” “巨機器”為本質特征,秉承 “圓形監獄”中規訓與懲罰的核心理念。通過對人們日常生活數據的全方位隱蔽監控,導致 “工具理性”膨脹, “價值理性”式微,“信息繭房”與算法歧視倫理風險隨之產生。對算法監控社會應用的倫理風險不能聽之任之、任憑發展,需要在利用與管控算法監控之間保持必要的張力。算法監控在賦能社會道德建設方面的合理效用還有很大的提升空間,但這有賴于對算法監控的合理規范與社會治理。
論文指導 >
SCI期刊推薦 >
論文常見問題 >
SCI常見問題 >