首页
/
每日頭條
/
圖文
/
王佳偉論文
王佳偉論文
更新时间:2024-10-20 10:49:33

  劉穎

  同濟大學法學院

  王佳偉

  上海大學法學院

  要目

  一、問題的提出

  二、規制的前提:算法的工具屬性

  三、規制的框架:信義義務的賦予

  四、規制的工具:私法權利的證立

  五、結語

  王佳偉論文(劉穎王佳偉算法規制的私法道路)(1)

  算法的黑箱狀态掩藏并固化了原有不平等的社會權力結構,産生了諸如算法歧視等失控問題。算法規制的私法進路在于明确算法控制者與數據主體的權利義務關系,以保障個人免受算法的規訓。私法規制的前提是,算法應當被認定為工具,背後的控制者(開發者)應對算法失控的後果承擔責任。算法決策離不開數據,算法失控問題的根源在于算法控制者收集的數據存在問題。個人作為數據主體對個人信息(數據)享有人格權,算法控制者提供服務以獲得使用權,兩者之間的法律關系應解釋為信托關系,在信義義務的框架下算法控制者負有勤勉、忠實和信息披露義務。明确算法控制者的義務後,更應在私法權利譜系中尋找規制算法的工具,包括數據主體的個人信息權确立與隐私權夯實兩條進路。

  王佳偉論文(劉穎王佳偉算法規制的私法道路)(2)

  一、問題的提出

  我們已經步入了一個圍繞由算法、機器人和人工智能體所作出的社會和經濟決策而構建起來的算法社會(Algorithmic Society),在這個社會中,算法、機器人和人工智能體不僅作出決策,而且在某些情況下執行這些決策。算法被用來幫助雇主識别、招聘、留住和獎勵最有前途的雇員,被用來對罪犯的危險性和可改造性進行風險評估和管理,在合同場域下,算法被用來決定合同交易的時間和價格。随着線上線下界限的不斷模糊,依托深度學習、大數據、物聯網等科學技術的發展,算法已經成為各個領域的技術基礎架構,使得原有的社會關系與權力結構不斷固化與發展。

  本文所讨論的算法指的是機器學習(Machine Learning)算法,它不同于傳統意義上按照給定的邏輯推理規則将輸入轉變為期望輸出的知識庫(knowledge base)的方法。相反,算法的設計者隻負責設計機器學習的過程,由機器通過接受大量數據從而被“訓練”,并根據觀察到的模型來推斷規則。計算機科學中,對于某類任務T和性能度量P,如果一個程序在T上以P衡量的性能随着經驗E而自我完善,那麼就稱這個計算機程序在從經驗E中學習。近年來,深度學習作為機器學習的特殊類型,使得計算機系統能夠從數據自動提取特征表示,被認為是通往人工智能的途徑之一。機器學習算法的強大算力和自主學習能力把人類從龐雜的數據中解放出來,促進智識水平的提高。然而,從擺脫設計者控制的角度來看,機器學習算法一定程度上又體現出操作過程中的黑箱性質。

  黑箱并不可怕,它是價值中立的概念,在社會分工的背景下,人們基于信任把與切身利益相關的事務交由職業專家(律師、醫生等)決定,由于職業專家和受決策影響人之間存在着知識上的不對稱,專家作出決策的過程也是一種黑箱狀态。但問題在于,算法真的是專家嗎?或者,算法的決策就是權威和準确的嗎?事實上,私人企業利用算法獲得更高的利潤,政府機關利用算法更好地進行治理,這些做出決策的主體不再過問初始參數與輸出結果之間的因果關系,但精準數字外衣下可能隐藏着許多有害的假設。由于在最感興趣的行為方面缺乏相應的數據,他們将本應通過調查獲得的數據替換成間接變量,而間接變量與行為之間的聯系往往具有歧視性。例如,僅僅通過在線購買書籍的記錄來判斷一個求職者是否具有學習知識的能力。科技的發展本應為人類帶來福祉,然而算法的負面作用已然廣泛存在于生活中,包括購物平台的差别定價(大數據殺熟)、行業内的壟斷共謀、違規收集個人信息及隐私侵權事件頻發等等。産生這些問題的根源不在于算法的黑箱狀态,而在于黑箱算法掩藏并加深了原有的社會權力不對等。

  不少文獻已經指出了算法的大規模應用将會産生新興的技術力量,加劇社會權力結構的不平等。例如,周輝指出:“在權威的代表者以及資本的代理人面前,算法在對權利的保障與補充上實現的增幅遠遠無法達到在權力擴張上實現的增幅。這種差異會使在民衆與政府、企業之間原本就存在的信息不對稱以及知識不對稱現象愈發嚴重。”張淩寒指出:“由于缺乏有效規制,算法權力在商業領域形成與消費者的不公平交易,催生了監視資本主義;在公權力領域嵌入公權力運行的各個環節,甚至成為獨立的決策者,嚴重挑戰正當程序制度和權力專屬原則。”由于力量的嚴重不對稱,普通公衆根本無法對算法決策提出質疑并要求更正,隻能成為福柯筆下被“規訓”的對象。在國家大力支持人工智能産業發展的政策背景下,法律需要做的,是改變算法應用帶來的權力與權利賦能不平等,規制算法背後的權力主體,給予個人權利以救濟。

  算法的運行是一個動态的過程,它需要數據的“喂養”學習規則并通過新數據的反饋而不斷糾正模型。法律規制的對象應當是在現實世界的數據中運作的算法,而不是靜态的、不變的模型。本文将首先結合具體場景下意思表示的結構來分析算法在法律體系中的定位,并認為目前仍應被定性為工具(客體),而背後的控制者(開發者)應當承擔算法決策的法律後果。其次,本文将論證數據主體與算法控制者之間的私法權利義務關系,應當是信息信義關系,同時算法的控制者還負有公共責任。最後,本文将通過賦予數據主體個人信息權以及夯實隐私權來完善私法規制的進路。

  二、規制的前提:算法的工具屬性

  意思形成階段的工具

  對算法的私法規制首先要解決的問題就是如何看待算法在法律關系中的定位,對于算法的法律地位定性不同,将導緻權利義務構造、侵權責任承擔等發生顯著的不同。有學者認為,人工智能機器人已經逐步具有一定程度的自我意識和自我表達能力,可以與人類進行一定的情感交流。也有學者認為可運用拟制的法律技術,将特定情形下的人工智能認定為法律主體。更有學者基于2017年歐洲議會法律事務委員會表決通過的決議認為,應當設立新的法律主體類型“電子人”,指向那些擁有人類智能特征,具有自主性,以電子及電子化技術構建的機器設備或系統。筆者認為,在法律框架下讨論算法在内的人工智能是否具有主體屬性,不能脫離現實的技術背景,僅僅因為算法的運行在表面看起來沒有人工的參與就認定其産生了自主意識,進而認定其主體性是不可取的。

  人工智能技術的發展方向,是開發出圖靈(Alan Turing)所設想的能夠模拟人腦思維、實現人類全部認知能力的強人工智能體,而目前的人工智能仍處于弱人工智能階段,隻能處理人類給定的單一任務。AI主流技術包括符号主義範式、聯接主義範式、行為主義範式及貝葉斯網絡、類腦計算等,可以肯定的是,這些技術路徑均未令AI産生類人的自主性、意識或者說“智能”,并且在相當長的時間内可能也無法實現這一點。因此,算法主體論的讨論基礎一開始就存在誤區,也無法适用于對現實世界的規制。實際上,算法隻是服務于其控制者(開發者)以達到特定目的的工具:在利用算法篩選簡曆時,算法回答的是“誰是優秀的求職者”這一問題;在利用算法判斷貸款風險時,算法回答的是“誰是守信用且及時還款的借款人”這一問題。下文筆者将在特定場景下通過探讨意思表示的結構來論證算法的工具屬性。

  為便于讨論,本部分限定的場景為借款人在線向貸款人申請貸款,貸款人則将借款人提供的個人信息輸入評分算法,由算法判斷該借款人是否是一個“守信用及時還款的借款人”(表現為信用的評分),并根據結果向借款人發送要約,包括貸款的數額、期限及利息等,借款人決定是否承諾。貸款人使用的算法是機器學習算法,具備一定的自主性,如果使用的是上文提到的知識庫算法則沒有讨論的必要,因為其僅僅是一種計算複雜的公式。

  王佳偉論文(劉穎王佳偉算法規制的私法道路)(3)

  申請貸款時借款人往往要提供很多個人信息,貸款人基于這些個人信息來判斷借款人的信用,龐大的經營規模和複雜的經驗數據集群決定了利用算法來完成此項任務能夠節省成本,提高效率。機器學習算法的訓練過程中,人工參與的場景僅限于選擇訓練數據的特征并将标簽附加到輸出數據上,由數據科學家在輸出結果令人不滿意時進行幹預。因此,在後續應用的過程中算法将一直提取由人工選定的特征來自主得出結果,在貸款的情形下,可能包括了借款人的職業、過往的貸款還款記錄、現有的貸款數額等。機器學習算法從這些特征中映射出相應的輸出,即該借款人的信用等級如何,具體表現為信用評分。貸款人在得到了算法給出的信用風險評分以後,如果達到放貸的标準,即向借款人作出包含各項内容的放貸的要約。在高度自動化而無需人工介入的線上貸款場景下,似乎發放貸款的意思表示是由平台的算法自動作出的。而作為一項“行為”或與“行為”相類似的有意識的行為,意思表示首先是以一種可受意志控制的作為或不作為為存在前提的,按照這一邏輯,進而認定算法已經超越了工具屬性,能夠成為法律上的主體也就順理成章了。但是,我們仔細分析意思表示的結構就會發現,事實并非如此。

  在這一場景下,從輸出結果到給出放貸的意思表示之間的過程并沒有機器學習算法的參與,完成這一步驟的技術并不複雜,隻是已經得到廣泛應用的自動信息系統。投币式自動售貨機就是一種簡易的自動信息系統,特定人設置自動售貨機的行為被視為一種要約;消費者不必了解何人為真正要約人,但隻要按指示投币入機,完成承諾行為,合同便可成立,履行行為由機器自動完成。自動信息系統在電子商務合同場合中也得到廣泛引用,它指的是按照事先設定的算法、程序指令、運行參數與條件,在無自然人确認或者幹預的情況下,為交易雙方訂立或者履行合同進行信息互動的計算機系統。《電子商務法》第48條第1款明确規定:“電子商務當事人使用自動信息系統訂立或者履行合同的行為對使用該系統的當事人具有法律效力。”據此,消費者在電商平台上提交訂單後,收到的由經營者所使用的系統自動發出的确定訂單(載明将盡快發貨等),盡管沒有包含經營者明确接受這一特定要約的具體的内心意思,但基于經營者的概括意思(generelle Wille)以及概括表示意識(allgemeines Erklärungsbewusstsein),訂單應被認定為一項具備有效内心要素的意思表示。因為電子商務經營者事先認可采用該系統生成并發送意思表示,從風險控制的角度來看,經營者完全可以事先設定數量上的限額來避免遭受損失,認定經營者具有受到自動信息系統發出的訂單的拘束的意思是完全合理的。前文提到的線上放貸場景也是如此,盡管貸款人不知道具體的借款人是誰,合同的條款具體是什麼樣的,但由于貸款人事先選擇了自動信息系統,且有關的風險範圍都是在理性貸款人的商業考量之内,因而具備一種概括的行為意思和表示意識。而機器學習算法的運行,包括從輸入數據到輸出數據的步驟(圖例中的虛線部分),并不是意思表示構造中的要素,充其量隻能作為貸款人意思形成階段的來源。算法隻是根據貸款人給定的特征,向貸款人回答了“借款人信用等級如何”這一個問題,再由自動信息系統将借款人的信用分數數值與貸款人事先設定的标準進行對應,發送具體的要約。

  從上述分析可知,在由算法做出自動決策的場景中,實際上包含了兩項程序,或者說兩項步驟,算法的自主性體現在解答人類給出的特定任務,而自動信息系統的表示行為背後是算法控制者(開發者)的意思表示。在任何訓練或未訓練的算法模型中都有人通過數據收集、特征選擇和目标變量的選擇等方式參與其中。因此,算法應當被認定為意思形成階段的工具。

  失控算法責任的歸屬

  有學者指出:“在算法社會中,規則的核心問題不是算法,而是使用算法的人,以及允許自己受算法控制的人。”在商業領域中,算法的應用是為了對消費者産生的大量數據進行分析,利用信息/知識的不對等最大可能地攫取消費者剩餘;在公權力領域,算法被用來對公民進行全方位、深層次的治理。算法的編程、輸入的訓練數據、數據的特征、輸出樣本的标簽等均是背後的控制者(開發者)意志領域範圍内的事項。風險社會下需要法律締造一種行為機制模式,以風險行為為核心進行風險的分配,使風險行為與責任承擔之間産生一種直接聯系,使風險的承擔達到一種平衡狀态。在算法的應用過程中,算法的失控會給原本就處于弱勢的一方更大的傷害,通過分析各類算法失控的情形可以得出:由算法背後的控制者來承擔風險責任是正當的。

  首先,算法歧視的類型可分為三種:第一種是過程中的偏差,第二種是輸入樣本的偏差,第三種是代表性數據中捕獲的社會偏差。過程中的偏差主要體現為特征選擇上的歧視,是傳統歧視模式在網絡社會的一種反映,是固有的刻闆印象在數據挖掘中的再現。在這種類型下,因為機器學習的數據特征是由控制者(開發者)選擇的,因此他可以将自身對于某個群體的偏見轉化到算法的代碼中去,對不同的群體采取不同的标準。這樣的歧視性做法無疑要受到法律的制裁,算法的控制者(開發者)不能因為使用了算法的自動化決策而獲得任何的優勢對待。輸入樣本的偏差表現為用于訓練算法的樣本數據是不具有代表性或者根本就是錯誤的。既然訓練數據完全是由算法的控制者(開發者)選擇的,那麼賦予其合理注意樣本的代表性和正确性的義務并不過分,而因樣本數據導緻的算法歧視亦應由其負責。

  代表性數據中捕獲的社會偏差,其與輸入樣本的偏差,區别在于,這裡的數據已經很好地代表了數據主體所在的人群。但未經仔細考慮就根據過去有偏見的數據訓練的算法系統,從本質上有可能重現甚至加劇過去決策中出現的歧視。在這種歧視類型下,算法控制者并沒有進行歧視的主觀意圖,但算法在分析以往數據集的過程中,固化和放大了社會實踐中原本存在的歧視性結果。例如,亞馬遜的招聘算法通過觀察十年内公司根據簡曆招聘的模式來進行訓練,以審查申請人。由于這一數據集中被招聘的都是男性,該算法系統更偏向于男性申請人,并把帶有“女性”字樣的簡曆置于不利地位。即使亞馬遜事後對這一算法程序進行了編輯,使其不受這一特定術語的影響,但并不能保證這些機器不會設計出其他可能被證明具有歧視性的候選人分類方法。算法控制者的無過錯主觀狀态并不影響其責任的承擔,從“行為—責任”的框架來看,是控制者設計、啟用了這一算法來降低成本、提高效率,将風險分配給啟用算法的人,符合正義觀念。對于該算法失控帶來的負外部效應,法律應當制定規則使其成本内部化,防止其為了自身利益侵害整個社會的總體價值。而在法律明确要求其内部化成本的時候,算法控制者也會采取措施減輕算法可能帶來的歧視性後果,例如作出決策時不完全依賴算法而僅僅作為一個參考,修改數據樣本使其符合理想化的情景等。

  在其他算法失控的場景下,上述要求算法控制者(開發者)負責的邏輯仍然可以得到應用。例如,在大數據殺熟情形下,平台企業收集大量客戶在線浏覽、收藏、下單及評價等記錄,通過算法為每個消費者建立“用戶畫像”,預測其所能承受的最高價格,進行差别定價以獲取更多的消費者剩餘。平台企業對算法的應用加劇了與消費者之間知識/信息的不對等,“看人下菜碟”的行為已然違反了《消費者權益保護法》中規定的消費者知情權和公平交易權,因此,從法理上說,平台企業應當為其使用算法的行為負責。再如,微軟開發的Tay聊天機器人,僅僅試用24小時就采取了同情納粹、歧視女性的談話模式。若Tay在線上聊天的過程中實施了侵犯名譽權、隐私權等對具體人格權利的侵權行為,那麼侵權責任也應由開發、使用這一聊天機器人的微軟公司負責。因為盡管微軟并沒有編程這一輸出結果,但它應該知道,把一個機器人暴露在一個因對騷擾和仇恨言論缺乏節制而臭名昭著的平台是危險的。微軟完全可以通過事先彙報、人工審核等措施來防止侵害後果的發生。

  算法作為一項科學技術能夠通過強大的算力解決人類所力所不能及的事情,但算法控制者(開發者)在設計、使用算法時不能僅追求擴張自身利益而罔顧社會利益,科學技術承載着人們對美好生活的期待,技術的控制者應該密切關注其可能帶來的社會影響。《理想國》中著名的牧羊人的金戒指隐喻已經告訴我們,正義的人和不正義的人擁有了強大的力量(隐身術)後都會做出不義之事,沒有一個人能堅定不移,繼續做正義的事。事實上,蘭登·溫納的信息技術政治理論指出,信息技術本身無法帶來社會平等和促進民主,反而會因加強對社會的監控而對人民的隐私造成威脅、導緻權力失衡狀态的出現以及社會政治關系的重構等問題。技術中立從來都不能成為掌握技術力量的主體的抗辯事由,都要受到法律對它的規制。在快播案的二審裁定書中,法院認為其審判的不應是技術,而應是行為的辯護意見。快播公司作為一家以P2P技術為依托的網絡視頻服務企業,不僅應當承擔法定的網絡安全管理義務,而且應當自覺承擔起與其技術特點所造成的法益侵害風險程度相當的更高的注意義務。在侵權法上存在着将責任轉移給最有能力對此事采取行動的個人或實體的原理。法律應當在技術發展與個體保護之間做好平衡,避免技術的膨脹反噬個人的權利空間。對于算法背後的控制者采取更加嚴格的責任,将促使他們采取合理的預防措施,避免損害的發生。明确了算法的工具屬性和人的主體性,因而須由算法控制者(開發者)承擔責任後,如何落實對算法的私法規制進路呢?本文認為應當明确算法控制者的義務以及數據主體的權利,以消解算法權力帶來的力量不對等。下文将圍繞這兩點展開。

  三、規制的框架:信義義務的賦予

  算法時代的數據權利

  算法應用的背後是原有社會關系的固化。在公權力領域,為了将原有的政治權力轉化為能适應互聯網時代碎片化、場景化的趨勢,政府通過收集公衆的數據,利用算法建立起社會信用體系,以此來實現規範行為、懲罰違規的作用。在商業領域,平台企業通過形同虛設的“知情—同意”和冗長的用戶協議肆無忌憚地抓取用戶的在線記錄,建立個性畫像以攫取更多的消費者剩餘。算法賦予平台企業以更廣的權力,而對于普通公衆的權利賦能卻遠遠不夠,這更進一步加劇了原先存在的信息/知識上的不對等。因此,算法規制的核心表現在兩個方面:算法權力掌控者義務的賦予和數據主體權利的賦予。

  在算法的動态運行過程中,數據的重要性不言而喻。數據使新的、有趣的、日益強大的算法計算形式成為可能,這些計算形式産生了關于人類行為的新見解,增加了預測、風險管理和控制的機會。同樣重要的是,關于人的數據是管理和控制大量人口、決定其機會和命運的核心方法。實踐中,掌控算法的主體往往也實施了一項或多項個人信息的處理行為,因而在算法适用場景下,算法控制者與個人信息處理者的身份發生了重合。算法控制者與算法相對的權利義務關系,可轉化為個人信息處理者與數據主體之間的權利義務關系,而最終的落腳點即為數據。闡述這一問題之前,須厘清數據與個人信息的關系。數據與個人信息同屬信息這一上位概念,而信息共有三種形态,分别為語義、句法以及結構。個人信息屬于語義信息,強調的是信息的内容層面,與獲悉該信息的認知主體不可分離。數據則屬于句法信息,是編碼層面,以語言、文字、線條等符号以及符号之間的關聯關系而呈現的客觀形态的信息。而結構信息則是以一定物理載體形态體現的,例如書籍、硬盤等自身的信息。數據是個人信息的載體,在網絡空間中表現為“0”“1”的二進制符号以及比特流。以商業領域為例,消費者在線浏覽、收藏、點贊、評論等活動産生的個人痕迹信息被商業企業通過cookie等技術收集後,轉化為比特流形式的數據,但這種簡單的轉化不需要企業付出多大的成本。數據收集到一定數量以後,企業還需将其編排、加工處理成能夠應用于算法的(訓練)數據集,這一過程不同于之前單純的數字化記錄,企業投入了勞動力,數據已經不再是原先個人信息(數據)的集合,而被添附上了新的價值。這樣,算法才能通過分析大量類似數據的集合,實現對消費者的分類、預測喜好等。

  因此,本文認為,不能簡單地認為句法層面的數據就應當歸屬于數據控制者(個人信息處理者),而要考慮其在數據加工中是否付出了足夠的勞動力。經過編排和加工後的數據集,企業應當享有一定的“排他使用權”,至于具體是什麼權利,不是本文關注的重點。而以文字、圖片、比特等形式記錄的個人信息數據,則是一種兼具“人身”與“财産”屬性的新型社會資源,個人對其享有一種具體人格權。盡管規範層面的“個人信息權”仍未确立,但《中華人民共和國民法典》(以下簡稱《民法典》)将“個人信息保護”置于人格權編予以規制,且随着《中華人民共和國個人信息保護法(草案二次審議稿)》(以下簡稱《個人信息保護法(二審稿)》)的公布,規範層面上即将确立個人在個人信息處理活動中享有的知情權、決定權、查閱權、複制權、更正權、删除權、解釋說明權等保護性權利。在數據産業飛速發展的當下,個人借此獲得了掌握與自身有關的信息(數據)的能力,保障人格尊嚴、自由以及内含的經濟利益不受肆意的侵犯。因此,數據主體是個人信息(數據)的權利主體,企業隻有在符合處理個人信息的合法性基礎時,方能将個人信息用于算法等自動化決策。而企業合法利用形成的信息數據集群,将受到競争法、知識産權法等法律的保護,任何其他實體不得進行爬取、破壞。實踐中亦有判決支持上述的權利義務安排,在“安徽美景信息科技有限公司、淘寶(中國)軟件有限公司商業賄賂不正當競争糾紛”一案中,法院認為:“原始網絡數據隻是對網絡用戶信息進行了數字化記錄的轉換,網絡運營者雖然在此轉換過程中付出了一定勞動,但原始網絡數據的内容仍未脫離原網絡用戶信息範圍,故網絡運營者對于原始網絡數據不能享有獨立的權利,隻能依其與用戶的約定享有使用權”,而“網絡大數據産品提供的數據内容雖然同樣源于網絡用戶信息,但經過網絡運營者大量的智力勞動成果投入,經過深度開發與系統整合,最終呈現給消費者的數據内容,已不同于網絡用戶信息、原始網絡數據,是與網絡用戶信息、原始網絡數據無直接對應關系的衍生數據。網絡運營者對于其開發的大數據産品,應當享有自己獨立的财産性權益”。

  算法控制者的信義義務

  鑒于個人信息具有的财産屬性,有學者認為消費者與經營者之間存在着互負具有目的關聯性的給付義務,從而形成雙務合同,經營者為此類雙務有償合同披上單務無償的外衣,實際情況卻是消費者以同意經營者利用其個人信息作為接受服務的對價,促使個人信息發生對價性轉化。這一觀點深刻地揭露了平台等算法控制者肆意攫取消費者個人信息,利用算法進行分類、誘導消費的真相,但通過合同法路徑進行規制存在以下幾個問題:首先,以雙務合同來定性商業領域下消費者與平台經營者之間的關系不利于保護消費者,對于消解算法的應用導緻的權力與權利的不對稱并沒有幫助。合同法追求合同自由,經營者負擔的是對待給付義務,而實際上消費者作出的是一種“被扭曲的決策”(skewed decision-making),受到人的有限理性、外部的可得性啟發(認為熟悉的風險比不熟悉的風險更危險)以及企業、政客和他人的影響。因此,消費者與平台經營者簽訂的格式條款受到雙方懸殊力量差的制約,往往在權利義務設定方面偏向于平台自身。其次,正是由于把消費者與經營者之間的關系認定為平等的基于合意的合同關系,才會有觀點認為盡管人們在調查中對隐私表示深切關注,反對日益增長的監控、數據收集、在線跟蹤和行為廣告,但當涉及實際選擇時,人們對于自己的隐私并沒有那麼在意,所以對收集和使用個人信息的監管不必過于嚴格。這樣的樂觀主義會導緻算法失控的加劇,造成監管套利、信息尋租等問題的出現。最後,合同關系下的義務并不适用于如今大規模使用算法的政府,在政府與公衆之間并沒有基于合意産生的合同。

  本文認為,算法控制者,包括商業企業和政府,是個人的信息受托人。大數據時代,個人信息(數據)具有财産利益,在同意處理個人信息的情形下,算法控制者将個人信息用于自動化決策,從而為數據主體提供服務(包括政府公共管理的服務),算法控制者享有能夠對受益人利益狀态産生影響的信托權力(fiduciary power),這被認為是信托關系的本質形式屬性。因此,數據主體與算法控制者的關系完全可以被解釋為信托關系:權利明确(數據主體享有個人信息的控制權)、基于同意、(受托人具有)信托權力。算法控制者作為信息受托人,應當對受益人承擔信托法上的受信義務。

  基于控制算法背後的人的目的,巴爾金(Jack Balkin)對應阿西莫夫(Isaac Asimov)著名的機器人三大定律,提出了算法社會中規制的三條定律,其中第一條是:“對于客戶、顧客和最終端用戶來說,算法使用者是信息受托人。”就我國而言,《公司法》第一百四十七條規定了董事、監事、高級管理人員對公司的受信義務(忠實義務和勤勉義務),實際上是對公司股東負擔的受信義務。公司股東由于信賴這些管理人員而将公司交由他們管理,法律也要求他們承擔相應的義務。盡管我國法上對于律師、醫生、投資顧問服務機構、基金管理人等所承擔義務的性質語焉不詳,但從法理上來說應當也定性為信托關系。使一個人成為受托人的原因是人們依賴于其所提供的服務,但受托人和客戶之間在知識和能力上存在着明顯的不對稱,客戶不能輕易地監督受托人為他們做什麼。

  之所以将數據主體與算法控制者之間的權利義務關系解釋為信托關系而不是合同關系,理由在于:第一,信托關系的設計是為了解決受益人與作為專家的受托人相比,囿于信息、技術、時間等的不足,處于談判力量不對等的地位,而合同若是自願達成的,即根據合同條款來判斷雙方的權利義務,隻不過法律會基于消費者保護等社會利益作出相應的限制性安排,例如格式條款的無效等。相較而言,前者更符合算法控制者與數據主體之間的現實關系。第二,在合同關系裡,交易雙方遵照約定履行彼此的權利義務(事前模式),而在信托關系裡,由于受托人履行職責的期限長,内容複雜,受托人對自身如何履行職責及是否違反義務的判斷是以職責履行的後果對受益人利益的影響為依據(事後模式)。實踐中平台企業拟定的格式合同往往要求用戶同意其個人信息被全面收集、使用或就某些事項适用自動化決策,但并不能就此認定平台其後的行為是正當的,仍要考察其是否履行了一個理性的受托人應盡的義務,包括不超過必要限度收集個人信息,确保數據主體對于決策的知情權、申訴權等。采用信托關系的事後模式也能夠确保算法在合理限度内獲得數據“燃料”,在不損害個人主體權利的同時促進數據産業的發展。第三,在基于信賴而形成的信托關系中,受托人天然地要比在合同法律關系中承擔更多的義務。考慮到規制算法控制者的必要,更應選擇将其解釋為信托關系。

  信義義務的具體内涵

  首先,信義義務包含了勤勉義務,我國《信托法》第二十五條第二款規定:“受托人管理信托财産,必須恪盡職守,履行誠實、信用、謹慎、有效管理的義務。”勤勉義務沒有一個統一明确的标準,應當根據具體場景予以綜合認定。勤勉義務的主體是将個人信息應用于算法決策的組織、個人,即算法控制者。在算法應用場景下判斷自動決策是否符合勤勉義務的要求,要從兩個階段分别來看。在算法的設計、使用階段,控制者(開發者)應當恪盡職守,遵守相應的行業道德标準,不違反法律,不存在有意借助算法進行歧視、逃避責任的行為;而在算法自動運行的情形下,也要判斷是否是“合理”“勤勉”的,這裡的“合理”“勤勉”應當從客觀理性人的角度來看待,對于第二階段産生的義務違反行為也應歸責于算法控制者。在英美法上,判斷個案中的侵權人是否違反合理謹慎的注意義務,有兩個标準:規範标準(a normative standard)和積極标準(a positive standard)。規範标準反映了社會對于算法技術造成影響的不同考慮,例如對加快創新的價值追求可能會降低決策合理所需的預防水平;而積極标準考慮的是比較同一标準的算法的做法來确定是否合理。若要采用積極标準,由于各平台企業将自己的算法作為商業秘密予以保護,法院可能缺少比較數據進行實質判斷,未來可通過具備資信的第三方數據仲裁者介入算法的決策過程進行判斷。而規範标準下決策行為是否勤勉合理的判斷,涉及利益衡量的問題,不同的法律制度下存在不同的制度利益,而制度利益又需要與具體情境相聯系。因此,算法的決策仍應當符合當事人的具體利益、群體利益和制度利益。例如,智能投顧的使用仍是為了使投資者的利益最大化這一目的,因此,金融機構須監督算法模型的運作,在出現錯誤時及時予以糾正,對此,2018年中國人民銀行、銀保監會、證監會、外彙局聯合發布的《關于規範金融機構資産管理業務的指導意見》明确強調:“金融機構應當根據不同産品投資策略研發對應的人工智能算法或者程序化交易,避免算法同質化加劇投資行為的順周期性,并針對由此可能引發的市場波動風險制定應對預案。因算法同質化、編程設計錯誤、對數據利用深度不夠等人工智能算法模型缺陷或者系統異常,導緻羊群效應,影響金融市場穩定運行的,金融機構應當及時采取人工幹預措施,強制調整或者終止人工智能業務。”

  其次,信義義務的核心是忠實義務。法律要求受托人以可信賴的方式,真誠地行事,避免與客戶或患者産生利益沖突。有學者将忠實義務總結為兩個方面:一方面要求信托人為委托人的唯一利益行事,另一方面要求禁止信托人與委托人的利益相沖突,包括為他人的利益。我國《信托法》第二十五條第一款被認為是忠實義務的一般條款,“為受益人的最大利益處理信托事務”可以賦予其寬廣的内涵。就第一方面“不得牟利”而言,應該嚴格審查算法控制者處理個人信息的合法性基礎,不得擅自處理用戶的個人信息以謀取利益,例如商業銀行為了向個人提供短信通知服務而收集我們的手機号碼,屬于《個人信息保護法(二審稿)》第十三條第(二)款規定的“訂立或履行個人作為一方當事人的合同所必需”,但銀行若是收集我們的個人身份信息、通訊錄信息用于營銷的,則應被認為違反了忠實義務的“不得牟利”要求。就第二方面“禁止利益沖突”而言,由于政府是由人民選舉産生的,因此要求其将人民的利益放在首位,自不待言;然而要求私人企業承擔将數據主體利益放在首位的忠實義務可能存在疑慮。公司與股東之間是投資關系,公司法上要求董事、監事和高級管理人員向公司股東承擔勤勉義務和忠實義務。數據蘊藏着巨大的經濟價值,而重視數據主體的個人權利保護無疑會阻礙數據的獲取和商業開發,那些處理用戶數據進行定向廣告推送的行為必然會引起争議。有美國學者即認為,就股東和用戶的利益分歧而言,這些公司的管理人員和董事可能會被置于一種站不住腳的境地,他們必須違反特拉華州法律規定的(對股東的)受托責任,以履行巴爾金提議的新定律規定的(對最終用戶的)受托責任,至少要阻止某種“嚴厲的政府幹預”而明确優先考慮後一套職責。實際上,用戶和股東的利益在本質上是一緻的,人們普遍都關注自己的隐私和個人信息保護,資本市場也注重企業的隐私政策,隐私保護完善勢必會吸引更多的用戶,而企業被爆出隐私問題後往往會引起股票價格的下跌。企業完全可以在滿足合法性基礎上對個人信息進行綜合利用,在用戶同意的目的範圍内對數據進行商業開發,那些隻關注短期利益而不保護消費者個人信息的企業勢必會被抛棄。

  最後,信義義務還包括信息披露義務。受托人有義務向委托人披露其在受托交易中的利益沖突情況,而無論委托人是否提出相關要求。算法控制者收集、分析用戶的個人信息數據,用于對用戶進行分類,做出影響其法律行為行使自由、合同權利等重大事項的算法決策。通過算法決策系統的應用,算法控制者能夠顯著減少成本,為防止算法控制者濫用算法決策以實現利潤的最大化,有必要要求算法控制者承擔起傳統信義義務中的信息披露義務,以保障受算法決策影響之人(數據主體)維護其正當利益。《個人信息保護法(二審稿)》第七條規定了“處理個人信息應當遵循公開、透明的原則,公開個人信息處理規則,明示處理的目的、方式和範圍”;第十八條規定了處理個人信息事前告知義務的有關事項;第二十五條規定:“利用個人信息進行自動化決策,應當保證決策的透明度和處理結果的公平合理。”據此,在将個人信息應用于算法決策時,算法控制者的信息披露義務将具備實定法的基礎。關于信息披露義務的範圍,可參照歐盟《通用數據保護條例》(以下簡稱GDPR)的規定,其第13條第2款(f)項、第14條第2款(g)項規定在必要的情況下,控制者應向數據主體披露自動化決策之信息,包括決策系統适用的邏輯以及此類自動化處理對于相對人的意義及可能後果等“有意義的信息”。工作組的指南第29條同時指出:“有意義的信息并不意味着提供一個關于算法或機器學習如何工作的複雜的數學性解釋,控制者應考慮使用清晰和全面的方法向數據主體傳遞信息。例如:已經或将要用于分析或決策過程的數據的類别;為什麼這些類别是相關的;如何建立自動配對決策過程中使用的配置文件,包括分析中使用的統計數據;為什麼這個配置文件與自動決策過程相關;以及如何将其用于有關數據主體的決策。”算法控制者的信息披露義務是數據主體行使對僅通過自動化決策方式作出決定的拒絕權、撤回同意的權利、更正權以及删除權的基礎。

  對算法控制者課以信息披露義務,即主張算法透明度原則可能存在如下的困難:首先,算法被當作商業秘密加以保護,追求透明度可能會損害商業企業的利益和創新積極性;其次,歧視性的算法決策很難被硬編碼,并且可能是機器學習過程中出現的特性,無法從代碼的評審中識别出來;最後,即使有了完全透明的代碼,算法的内部工作對人類來說可能仍然是難以理解的,這使得事前的審查變得困難。但是我們并不能僅僅因為存在這些困難就否認信息披露義務的功能,它對于預防利益沖突行為、促使信息受托人内部化算法失控的外溢成本有着重要的作用。披露決策中使用的配置文件和程序往往有可能通過促進問責制,提高決策準确性,阻止或暴露偏見、任意性和不公平性,允許決策主體對錯誤決策的事實依據或其他依據提出質疑,采取有益于社會的戰略行為來賦予顯著的社會利益。根據歐盟法的規定,算法控制者無須披露複雜的代碼,就維護數據主體個人權利的角度出發,僅需以“簡潔明了、清晰可視、曉暢易讀”的方式提供有關算法決策的信息。因此,算法作為商業秘密并不會因為向某個個人披露邏輯和數據分類等信息而受到威脅。不過,需要注意的是,應防止算法控制者從事誘導性和欺詐性的信息披露,将算法透明從中立的信息公開成為現有權力的幹擾性披露,成為算法控制者使其違法、違規行為正當化的工具。

  算法控制者的公共責任

  算法失控的危害具有鮮明的公共性質,對那些既不是算法系統的終端用戶,也沒有與算法控制者締約合同關系的人來說,算法仍可能在法律行為的行使自由、個人的法律地位和合同權利等重大事項上對其産生不利影響。政府、企業通過收集數據為每個個體建立數字身份,并根據相應的算法為其生成決策或評分,這些決策和評分又進一步被納入更多自動化決策系統的考量範圍,重新塑造數字身份。在這個循環往複的過程中,個體的弱點會愈發凸顯,歧視也會更加固化。随着個體數字身份因算法決策的“過度消費”而每況愈下,整個公共數據體系都面臨嚴重污染的現狀。

  信托義務無法對那些沒有進入信義關系或合同關系的人提供幫助,例如被算法系統過濾的面試者、拒絕的借款人等。對此,巴爾金通過讓算法使用者承擔公共責任的方式來解決。他設計的第二條、第三條定律分别為:對于那些不是客戶、顧客和最終端用戶的人來說,算法使用者負有公共責任;算法使用者公共職責的中心是避免将其操作的成本(危害)外部化。對算法決策危害的最佳類比不是有意的歧視,而是社會上不合理的污染。算法的黑箱固化了原有的權力結構,産生了新形式的不公,使得傷害變得隐蔽而廣泛,社會公衆因為算法失控問題而付出了高昂的成本,算法決策造成的負外部性對于社會整體利益造成了不利影響。典型的算法使用者成本外部化的例子是,算法出現了特征選擇上的偏差、輸入樣本的偏差或體現了社會上的偏差,對于那些信息未被收集但受到歧視的人群,乃至整個社會來說,都蒙受了不公平對待。

  将算法活動可能對公衆造成的妨害類比為環境污染等公共妨害(Public Nuisance)這一行為能夠起到促使企業将成本内部化的作用。美國法上的公共妨害指的是對一般大衆公共權利的不合理幹擾。當外部化成本遠遠超過外部化收益或遠遠超過背景外部成本時,公共妨害法通過強制責任促使行為人選擇社會最優活動水平。由于公共妨害侵擾的是公衆的共同權益或社會的普遍利益,因此,由公共官員或檢察官代表政府提起刑事訴訟來消除公共妨害;在私主體能夠證明其已經因公共妨害遭受了“特殊的”(Special)或“特定的”(Particular)損害時,亦可提起侵權之訴。《個人信息保護法(二審稿)》規定了個人信息處理者的多項義務,以确保其遵守自身的公共責任,包括指定個人信息保護負責人、定期履行審計義務等。更重要的是,該草案第六十九條規定了個人信息公益訴訟制度,針對受損害群體較廣的,可由人民檢察院、履行個人信息保護職責的部門和國家網信部門确定的組織向法院提起訴訟。算法失控造成的妨害具有全面而分散的特點,單個數據主體勢單力薄,難以制衡算法控制者,公益訴訟的模式可有效确保受算法決策損害之人維護其利益,起到監督算法決策人的作用。實踐中,人民檢察院針對侵犯公民個人信息罪提起公益訴訟較為普遍,一旦《個人信息保護法(二審稿)》落地,将擴大個人信息公益訴訟的适用範圍,更好地保護公衆的合法權益。

  四、規制的工具:私法權利的證立

  智能互聯網時代的法律規制,需要放棄傳統習慣上的強行幹預方式,而更多地采取技術主義路線和策略,把法律規制轉換成與之對應的法律技術化規制。這意味着,僅僅在法律上明确算法控制者(開發者)負有某些義務而促使其算法失控的外溢成本是不夠的,法律對于算法的規制還需要打開算法代碼的黑箱,從技術角度賦予數據主體新型、多層次的權利,平衡算法決策中蘊含的權利和權力不對等局面。智能終端、物聯網、大數據等技術的發展使得線上線下的數據都能夠被記錄、轉化、集中,算法為每一個數據主體建立個性畫像,在算法面前每一個個體都是數據的集合。但我們并不擁有這些數據,也無法控制這些數據,數據屬于為我們提供各種服務的“大數據掌控者”。對算法的規制體現為對數據主體博弈算法權利的認可,博弈算法是私人自治與人格尊嚴的體現,能夠促進創新發展和分配正義。因此,在私法規制算法的進路上,賦予并充實數據主體的權利至關重要,主要包括個人信息(數據)權和隐私權。其中個人信息(數據)權是數據主體自主決定承載自己信息的數據如何處理、被誰處理的主動性權利,隐私權則是數據主體享有的免受他人幹擾、利用的防禦性權利。在讨論算法時代中的這兩項權利之前,須對個人信息與信息隐私進行區分。

  個人信息與信息隐私的區分

  《民法典》第一百一十和第一百一十一條分别規定了自然人的隐私權和個人信息利益。有學者在承認隐私權與個人信息采取區分保護的“二元論”模式下,認為個人隐私與個人信息之間存在着交叉。亦有學者認為個人信息與隐私之間并不是簡單的交叉關系,兩者實為彼此獨立的兩個法律概念。本文贊同前一種觀點。從個人信息與隐私的定義與分類來看:首先,個人信息按照《民法典》第一千零三十四條第二款的規定,指的是“能夠單獨或者與其他信息結合識别特定自然人的各種信息”,采取了“識别”的路徑,而《個人信息保護法(二審稿)》第四條與歐盟GDPR的規定類似,指的是“與以識别或可識别的自然人有關的各種信息”,即采取了“識别”和“關聯”的路徑。而隐私指僅與特定人的利益或者人身發生聯系且權利人不願為他人所知曉的私人生活、私人信息、私人空間及個人生活安甯。從定義中可知,網絡空間中的個人信息包含了隐私權所保護的信息性隐私,隐私權與個人信息權可能存在适用上的重疊。其次,《中華人民共和國民法典草案》(2019年12月16日稿)第一千零三十四條第三款規定“個人信息中的私密信息,同時适用隐私權保護的有關規定”,而《民法典草案》(2020年5月22日稿)以及最終出台的《民法典》第一千零三十四條第三款增加了“沒有規定的,适用有關個人信息保護的規定”之表述,可見個人私密信息也不等同于個人隐私。

  筆者認為,在算法時代下,基于維護數據主體的人格利益和财産利益,應對個人信息予以賦權,權利的客體是數字化的包含着個人信息的電子數據。因此,隐私權與個人信息權屬于不同的人格權,雖然在适用上可能存在重疊,但兩者的制度價值不同。普羅瑟對于隐私侵權行為的分類,包括公開披露令他人尴尬的私事,即公開披露的私事要達到使一個理性的普通人感到受冒犯并反感的程度。概言之,隐私權保護的是個人不被打擾的權利,是對信息(數據)自由流動的限制。而個人信息因蘊藏着巨大的商業價值,其制度價值體現為在保護個人信息的同時促進非個人信息或經過匿名化處理的個人信息的自由流動。隐私權更多的是消極防禦性的權能,而個人信息權則兼具積極權能與消極權能。

  算法時代的隐私保障

  數據是算法的燃料,算法的高效運轉離不開數據的喂養。算法控制者為确保算法決策的精确,往往捕捉公衆的地理位置、行動軌迹、在線浏覽痕迹、收藏喜好等信息數據,生成數字化身份,并作出重大決策。隐私的本質是不願為他人所知曉,算法所使用的個人信息數據極有可能包含着用戶的信息性隐私,一旦被收集、處理、洩露、公開便會侵擾私人生活安甯,構成隐私權的侵犯。隐私權作為被動的防禦性權利,要求算法控制者采取措施保護用戶的隐私,不得利用隐私信息進行牟利。算法妨害隐蔽而普遍,若沒有有效的制度規制算法控制者的行為,将導緻數據主體(算法決策相對人)愈發不信任算法決策,最終選擇“用腳投票”,在影響重大的事務上反對自動化決策系統的應用,最終對算法科技和數字産業的進一步發展造成不利影響。因此,法律技術化規制應當确保算法所使用的數據之上不存在特定主體的隐私信息。

  對于信息隐私權而言,我國《民法典》第一千零三十三條第(五)項規定了:“除法律另有規定或者權利人明确同意外,任何組織或者個人不得實施下列行為:處理他人的私密信息。”而根據第一千零三十五條第二款,處理包括“收集、存儲、使用、加工、傳輸、提供、公開等”。因此,算法控制者不得僅通過合同安排的形式對數據主體的私密信息做出處理,而必須符合“法律明文規定”或“權利人明确同意”的要件。在一些專門的行業和領域,也提出了保護隐私權的規定,例如《中華人民共和國人類遺傳資源管理條例》第十二條第一款規定:“采集我國人類遺傳資源,應當事先告知人類遺傳資源提供者采集目的、采集用途、對健康可能産生的影響、個人隐私保護措施及其享有的自願參與和随時無條件退出的權利,征得人類遺傳資源提供者書面同意。”然而,縱觀我國目前各個領域的相關規定,均是要求保護隐私的宣示性條款,欠缺根據專業領域的特殊性進行細化的規定。對此,可借鑒其他國家的一些做法,針對那些隐私極易被侵犯的領域,通過立法逐一加以具體規定,如美國各級政府頒布的《正當信用報告法》《家庭教育權利與隐私法》《電子通信隐私權法》《兒童網上隐私權保護法》等,并以行業自治自律為中心推進對于公衆的信息性隐私保護。

  隐私權的主體依附性決定了其主要是消極的防禦請求權,适用《民法典·侵權責任編》的相關規定。考察一般侵權行為的構成要件,應遵循從客觀要件到主觀要件的過程,首先考察客觀要件:(1)是否存在加害行為;(2)受害人的何種民事權益遭受侵害;(3)加害行為與民事權益被侵害之間有無因果關系,再考察主觀要件,即(4)過錯的有無。在算法時代,人的隐私極其脆弱和碎片化,個案判斷中的第(1)(2)項取決于特定的場景,在這一場景下構成侵犯隐私權的加害行為可能在另一場景下是不構成侵權的。采用主觀判斷标準還是客觀理性人的标準便成為了一個問題。這一點,由Helen Nissenbaum提出的情境脈絡完整性理論(Contextual Integrity Theory)或許能夠作出解答。這一語境因素規範主張由三個要素構成信息流——參與者(發送方、主體、接收方)、信息類型和傳輸原則。不同的情境脈絡下具有不同的資訊流動規範,不同的資訊流動規範又規制着信息的使用方式與适當性标準。如果能夠證明某一信息流動的模式并沒有違反客觀理性人對于該場景下資訊流動規範的期望,那麼這一模式就沒有侵犯隐私。具體判斷時,參與者、信息類型以及傳輸原則這三個要素都必須綜合考量。例如患者将自己的醫療信息告訴醫生,醫生不能違反該情形下客觀理性人對其妥善保管義務的合理期待,而将信息數據販賣給第三方,但該醫生會同其他富有經驗的醫生進行探讨,則信息的流動符合該情境脈絡下的适當性标準。情境脈絡完整性理論的重要意義,在于揭示了“放棄”隐私和“放棄”個人信息之間的巨大差異。在那些數據主體點擊同意自動交出信息的場景中,他們并沒有把自己的隐私利益也同時拱手讓出去。因此,那些收集、利用個人信息進行商業活動的算法控制者仍然承擔着保護消費者隐私的義務。基于消費者的單獨同意而将其個人數據用于自動化決策,為他們提供個性化服務的場景下,企業的信息處理行為是正當的,但當信息用于單獨同意以外的目的時,企業的行為就存在侵犯公民隐私的可能。認定了算法控制者(開發者)的加害行為後,對于(3)因果關系的考察實際上也不成為問題,往往行為與後果之間存在較強的聯系性,而應由在技術、知識上占優勢的算法控制者舉證證明因果關系的不存在。對于(4)過錯,由于個人相較于算法控制者(個人信息處理者)處于絕對的弱勢,依據一般侵權适用過錯原則将導緻個人承擔過重的舉證責任。《個人信息保護法(二審稿)》第六十八條明确了個人信息侵權行為适用過錯推定原則,①隐私權侵害案件亦可參照适用過錯推定責任。算法控制者為免除責任,可以舉證證明已獲得數據主體或其監護人的同意,或處理的信息已合法公開且數據主體并未明确拒絕,或是為了公共利益或該數據主體的合法權益合理實施的。

  從法經濟學的視角分析,即使算法控制者主觀上并不存在操縱、歧視的故意,但因控制者采用了智能算法而節省了大量成本,因而令其承擔嚴苛的過錯推定責任,促使其謹慎使用自動化的決策系統是完全合理的。

  為了平衡科技發展與主體權利保護之間的矛盾,确保算法控制者在不損害個人隐私的前提下充分利用信息數據,法律允許經過脫敏或匿名化處理的信息自由流動。《中華人民共和國網絡安全法》(以下簡稱《網絡安全法》)第四十二條規定:“未經被收集者同意,不得向他人提供個人信息。但是,經過處理無法識别特定個人且不能複原的除外。”據此,隻要算法控制者将含有用戶隐私的信息經過脫敏處理,即可無需征得用戶單獨同意而用于自動化決策或向第三方轉讓。然而,這一邏輯面臨着技術手段的挑戰。機器學習算法能夠僅僅依靠出生日期、性别、居住地、子女數量這四個人口統計學屬性,就能從公開匿名信息數據庫中查詢到特定個人。因此,匿名化并不是隐私保護的萬能鑰匙。應該綜合考慮特定領域和場景,制定符合行業技術标準的細化隐私保護規則,結合不同的算法控制者的技術水平、盈利模式課以不同程度的注意義務,确保數據主體的隐私權不受侵犯。《個人信息保護法(二審稿)》第五十五條借鑒了GDPR第三十五條的數據保護影響評估機制,明确規定“利用個人信息進行自動化決策”的,應當進行事前的風險評估,就隐私保障方面而言,其評估的内容應當包括對個人隐私的影響及風險程度,所采取的安全措施是否能夠切實有效地保障個人的隐私權益。在規範層面上要求企業履行事前風險評估義務以及定期的審計義務,有助于加強隐私風險責任管理意識,能夠有效彌補個人權利路徑的局限性。

  算法應用中的個人信息權

  算法時代的數據正義觀要求數據的公平占有與合理使用。随着物聯網、機器學習等技術的發展,信息已然具有對價屬性,平台企業等算法控制者(開發者)并非像看上去那樣無償地提供服務,實際上平台通過收集用戶個人信息,為他們建立數字畫像并判斷喜好,通過收取第三方的廣告推介費或誘導消費者消費來謀取利益,智能算法的存在能夠讓算法控制者精确定位到個人并進行個性化營銷。同時應當注意到,信息數據具有非排他性和非競争性,數據的自由流動和共享是挖掘數據資源、促進算法發展的基礎,因而算法應用中的個人信息賦權須實現個人信息保護和利用的平衡,在保護個人主體權利的基礎上實現個人信息的合理利用。

  《個人信息保護法(二審稿)》盡管并未确定“個人信息權”,但作為個人信息保護領域的基本法,其已經構建了個人在信息處理過程中享有的框架性權利。首先,如前所述,該《個人信息保護法(二審稿)》不同于《網絡安全法》和《民法典》的識别路徑,采用的是識别和關聯路徑,在一定程度上拓寬了個人信息的範圍。其次,《個人信息保護法(二審稿)》對個人信息進行了細分,第二十九條提出了敏感信息的概念,指的是“一旦洩露或者非法使用,可能導緻個人受到歧視或者人身、财産安全受到嚴重危害的個人信息”。敏感信息不同于《民法典》中的私密信息,類似概念僅在《信息安全技術個人信息安全規範》出現過,後者作為個人信息安全規範标準,其處理原則不具有強制效力,而《個人信息保護法(二審稿)》則明确規定:隻有在符合特定目的和充分的必要性的情形下,方可處理敏感個人信息,并且應當取得個人的單獨同意或書面同意。這意味着算法控制者對自己所持有的數據進行分級、分類并适用不同的保障措施愈發重要。最後,在個人信息權利方面,《個人信息保護法(二審稿)》延續了《民法典》的查閱權、複制權、更正權、删除權的規定并進行了細化,還設立了知情權、決定權、解釋說明權等權利,更加接近GDPR等國際主流數據保護法的權利配置。算法控制者運用個人信息進行決策的場景下,數據主體若認為自動化決策對其權益造成重大影響的,有權要求個人信息處理者予以說明,此項權利乃《個人信息保護法(二審稿)》第四十八條解釋說明權的特殊規定,因而算法控制者須按照“具體算法相對人”标準予以解釋,不得僅以提供标準化的文本為由主張其已履行說明義務;此外,數據主體若認為算法決策有誤的,可選擇行使更正權更正、補充不準确或者不完整的個人信息,或直接拒絕算法控制者僅通過自動化決策的方式作出決定。

  任何完備的數據保護法律體系都面臨着落地實現的難題。《網絡安全法》第四十一條明确了收集使用個人信息的合法性基礎為“被收集者同意”,《民法典》第一千零三十五條第一款第一項沿用“同意”作為合法性基礎,但預留了“法律、行政法規另有規定的除外”的政策空間。《個人信息保護法(二審稿)》第十三條彌補了這一空白,擴大了個人信息處理的合法性基礎,然而适用其他合法基礎的條件均較為嚴苛,縱觀整部個人信息保護基本法,同意仍貫穿其中。“告知—同意”原則盡管在一定程度上體現了個人享有的對自己信息的處分權能,但實踐中各類網絡平台和程序的使用協議、隐私政策往往冗長且難以閱讀,公衆難以在短時間内理解并作出有意義的同意。由于數據主體與算法控制者力量上的顯著不對等,這樣的結構變成平台企業無限制攫取商業利益的“自由通行證”,當個人點擊并接受某些條款和條件并同意某個平台的隐私政策時,他們實際上同意了許多隐藏形式的入侵和操縱性數據收集、使用和存儲的做法,幹擾和不透明處理,這可能導緻對數據主體的各種傷害,包括失去尊重和尊嚴、歧視性影響和其他與商品化、自我空間侵蝕的系統性影響。實踐中法院、監管機構往往根據隐私協議的簽訂就認定平台企業享有正當獲取、處理信息的權利,但這隻是一種形式上的審查,并未考慮到實踐中用戶的“無選擇餘地”。此外,按照法律的要求,每一次數據收集行為,每一次處理目的、處理方式或處理的信息種類發生變更,每一次将個人信息用于自動化決策都須獲得數據主體的用意,即使讓通知更短,更具可讀性,用戶仍然會因為密集的通知導緻無法完全理解每個同意請求并感到厭煩和疲勞。

  在面對算法針對個人進行個性化規訓,且無法尋找到有效替代機制的當下,數據主體的同意仍然有其規範上的意義。解決上述實踐難題的一個方案是,基于個人的數字身份建立受信任虛拟代理,個人可一次性設定自己的隐私偏好,由代理在不同的場景中傳達給處理個人信息并進行自動化決策的實體。随着個人信息處理目的或服務條款的不斷變化,虛拟代理亦可實時代理個人進行同意,從而滿足算法控制者合法利用個人信息的目的。

  在賦予個人信息自決權後,法律更應構建多主體共同參與的算法規制體系。法院、監管機構可以采取更加嚴格的實質審查,限制平台企業、公權力機構的收集、儲存、處理、應用行為。在德國,其反壟斷機構Bundeskartellamt即禁止了Facebook從其他平台收集用戶數據的行為,根據Facebook的條款,用戶想要使用社交網絡服務,必須同意Facebook通過互聯網或智能手機應用程序收集Facebook網站以外的用戶數據。管理局的決定涉及不同的數據來源:(1)對于Facebook旗下的公司,可以繼續收集數據。然而,隻有在用戶自願同意的情況下,才能将數據分配給Facebook用戶賬戶。如果沒有得到同意,數據必須保留在各自的服務中,不能與Facebook數據一起處理。(2)從第三方網站收集數據并将其分配給Facebook用戶賬戶也隻有在用戶自願同意的情況下才可能。由此,上述第(1)(2)項收集的權限也須分别征得用戶的實質同意,而不得作為使用軟件的條件。我國的平台經濟發展迅速,同樣存在着很多違法違規的行為,同樣需要監管機構做出具有示範作用的處理。《個人信息保護法(二審稿)》第六章規定了履行個人信息保護職責部門的職責、可采取的措施等,有助于完善全社會各層次算法控制者監管體系。

  五、結語

  算法的規制不僅僅是一個私法上的問題,更需要多個部門法共同作出回應。但以意思自治為核心的私法強調人的主體性,從而在保障人的權利、促進市場經濟的發展方面發揮了巨大的作用。算法這一新興技術的應用在權力與權利方面的賦能不平等,固化了原有的權力結構,加劇了算法掌控者與個人之間在知識、力量上的不對等。因此,算法規制的私法進路,也是對新社會格局下權力主體與個人之間權利義務的安排。考慮到信息(數據)集合的巨大财産價值,以及實踐中算法控制者肆意收集、獲取個人信息(數據)的現狀,應明确數據主體的個人信息權,算法控制者僅享有相應的使用權。考慮到算法時代保護個人隐私的迫切社會需求,應當落實隐私權的權能和救濟路徑。算法控制者與數據主體之間的關系,體現為數據主體用信息(數據)換取服務,應當解釋為信義法律關系,以信義義務的标準檢視算法控制者的行為。

  原文編輯:孫希睿

  原文校對:周哲雨

  原文審核:李孝弟

  原文鍊接

  中國問題||算法規制的私法道路

  《上海大學學報》(社會科學版)簡介

  《上海大學學報》(社會科學版)是社會科學的綜合性學術理論期刊,設有哲學、美學、法學、文學、語言學、曆史學、社會學、經濟學、管理學、影視學、傳播學、教育學等欄目。本刊的宗旨是立足上海大學,放眼全國高校和科研單位,關注國内外哲學社會科學的最新動态,把辦刊與祖國的社會主義現代化建設緊密結合,為中華民族全面振興的偉大事業作出貢獻。《上海大學學報》(社會科學版)先後進入“中國人文社會科學核心期刊”、“中國人文社會科學學報核心期刊”和“全國中文核心期刊”的行列,繼被評為“首屆全國百強社科學報”後,又獲“全國百強社科學報”二連冠、三連冠,獲中國學術期刊光盤版CAJ規範執行優秀獎等榮譽。

  王佳偉論文(劉穎王佳偉算法規制的私法道路)(4)

  ,

Comments
Welcome to tft每日頭條 comments! Please keep conversations courteous and on-topic. To fosterproductive and respectful conversations, you may see comments from our Community Managers.
Sign up to post
Sort by
Show More Comments
推荐阅读
家電維修售後一般處理需要多久
家電維修售後一般處理需要多久
如今城裡鄉村幾乎家家都有洗衣機,那麼遇到洗衣機出故障,該怎麼辦呢?比如門打不開,洗衣機不脫水,按鍵失靈等,我想大部分都會選擇找官方維修,那麼你們知道這水多深嗎?我作為家電維修小白,家裡榮事達洗衣機早上突然門打不開了,就打電話給官方客服,她指...
2024-10-20
為什麼叫無上菩提心
為什麼叫無上菩提心
菩提心,是什麼心,相信很多朋友都有這樣的疑惑很多人認為,這個菩提心是宗教上的,是玄學但是呢,人們應該了解到,宗教其實來自于人類生活,同樣屬于人類文明,能夠流傳至今的宗教都有一個共性就是教導人類修善,其實正因為善,人類才一步一步走向了今天的繁...
2024-10-20
面孔樂隊陳輝簡曆
面孔樂隊陳輝簡曆
新京報訊(記者劉玮)7月29日,新浪娛樂“新浪潮”論壇在京舉行,《樂隊的夏天》總制片人牟頔、《創造101》《明日之子》制片人邱越、面孔樂隊主唱陳輝、摩登天空創始人沈黎晖等嘉賓到場,就音樂綜藝節目和音樂圈之間的相互關聯展開讨論。陳輝坦言,面孔...
2024-10-20
怎麼給無聊的生活增添樂趣
怎麼給無聊的生活增添樂趣
怎麼給無聊的生活增添樂趣?垂釣者無論早晨,傍晚,或是漆黑的夜裡,總有他們的身影活躍在自然的懷抱裡簡單的工具,簡單的等待,簡單的收獲盡管有時隻是一個空筐,但滿載而歸的,更是一種生活之樂啊他們的哲學是簡單的,閑暇之餘,順手背起一套釣具,來到江河...
2024-10-20
教學吹葫蘆絲童年
教學吹葫蘆絲童年
新安晚報安徽網大皖新聞訊60歲,音樂零基礎。沒有樂理基礎,看不懂五線譜,更沒有接受過任何專業訓練。憑借對音樂的喜愛,她從較容易的葫蘆絲開始,自己反複嘗試、摸索……如今已經能夠完整地演奏出《萬疆》《月光下的鳳尾竹》等曲子。她叫張桂平,宿州泗縣...
2024-10-20
Copyright 2023-2024 - www.tftnews.com All Rights Reserved