中國政法大學副校長兼數據法治研究院院長、國務院反壟斷委員會專家咨詢組成員時建中教授在10月10日舉行的“數據治理與隱私保護”高端研討會暨網絡空間治理與數字經濟法治(長三角)研究基地啟動儀式上發(fā)表主旨演講。演講內容整理修改如下:
從功能的角度來講,算法是發(fā)現數據之間相關性從而配置數據資源并實現數據價值的機制。作為數據資源價值的發(fā)現機制、配置機制和實現機制,算法在數字經濟運行過程中扮演著非常重要的作用。數據治理就是通過政府監(jiān)管、平臺自治和社會共治等機制綜合施策,規(guī)范數據的收集、存儲、使用、加工、傳輸、提供、公開、刪除等行為。在數字化時代,任何一種數據行為都須借助算法。因此,數據治理的核心是治理算法和算法治理。算法或許具有工具屬性,但是,算法黑箱、歧視、失范等問題,則反映了算法研發(fā)和運用的倫理觀和價值觀取向。只有作為治理對象的算法被納入了法治軌道,公平、透明、非歧視的算法才能作為治理工具實現數據治理的目標,提升數據治理的能力。
我國數據安全法第三條第一款規(guī)定,“本法所稱數據,是指任何以電子或者其他方式對信息的記錄”?;谶@一定義,可以得出如下兩個結論:第一,數據是對信息的記錄,也即數據是信息的載體;第二,數據有兩種表現方式:電子方式與非電子方式。我國個人信息保護法第四條第一款規(guī)定,“個人信息是以電子或者其他方式記錄的與已識別或者可識別的自然人有關的各種信息,不包括匿名化處理后的信息”。基于這一定義,個人信息有兩種記錄方式,電子方式和非電子方式。所以,個人信息保護法所保護的個人信息,同時受到數據安全法的保護。隨著數字技術的不斷進步和廣泛運用,個人信息主要以電子方式記錄,以電子方式記錄信息的數據將成為最主要的方式。在數字化背景下,“數據治理”語境下所討論的數據主要限于電子方式記錄信息的數據。因此,有必要區(qū)分電子方式的數據、信息和非電子方式的數據、信息,提高數據監(jiān)管治理的針對性和有效性。無論如何,數據安全法和個人信息保護法都將成為數據治理的重要法律依據。
就隱私、私密信息和隱私權而言,我國民法典也有相應的規(guī)定。例如,民法典第一千零三十二條規(guī)定,“自然人享有隱私權。任何組織或者個人不得以刺探、侵擾、泄露、公開等方式侵害他人的隱私權”。同時,該條第二款規(guī)定,私密信息屬于隱私。根據民法典第一千零三十三條規(guī)定,除法律另有規(guī)定或者權利人明確同意外,任何組織或者個人不得處理他人的私密信息。我們可以小結如下:自然人享有隱私權,他人不得侵害。私密信息屬于個人信息,是隱私。除法律另有規(guī)定或者權利人明確同意外,處理他人的私密信息,構成侵害他人隱私權。此外,根據民法典第一千零三十四條第三款規(guī)定,個人信息中的私密信息,適用有關隱私權的規(guī)定;沒有規(guī)定的,適用有關個人信息保護的規(guī)定。綜上,規(guī)范收集、存儲、使用、加工、傳輸、提供、公開、刪除個人信息的數據處理行為,涉及私密信息的,須遵守民法典有關自然人隱私以及隱私權保護的相應規(guī)定。個人信息保護法也是自然人隱私保護法,數據安全法也是隱私安全法。加強算法治理,規(guī)范數據處理行為,有助于自然人隱私和隱私權的保護。
數據安全法第三條第二款規(guī)定,“數據處理,包括數據的收集、存儲、使用、加工、傳輸、提供、公開等”。個人信息保護法第四條第二款規(guī)定,“個人信息的處理包括個人信息的收集、存儲、使用、加工、傳輸、提供、公開、刪除等”。比較前述規(guī)定,數據處理行為與個人信息的處理行為的典型樣態(tài)呈現為“七同一異”:均包括“收集、存儲、使用、加工、傳輸、提供、公開”,個人信息處理行為在這七種行為的基礎上,還有“刪除”行為。在數字化時代,包括私密信息在內的個人信息主要是電子方式記錄,侵害自然人隱私和隱私權的行為,可以發(fā)生在數據處理的任一環(huán)節(jié)的任一行為。因此,僅僅預防和制止過度采集個人信息的行為還不足以保護個人信息,數據治理不應止于數據的收集環(huán)節(jié)和行為,無疑應該延伸到存儲、使用、加工、傳輸、提供、公開以及刪除等各個環(huán)節(jié)。如果數據治理不能形成閉環(huán),一樣會導致數據治理失效、數據處理行為失序,包括私密信息在內的個人信息就不會得到有效保護,就會受到侵害,甚至不能得到有效救濟。數據治理延伸到哪里,算法治理就應延伸到哪里。
數據以及個人信息的處理離不開算法。換言之,算法是數據處理的核心機制。例如,在數據的收集環(huán)節(jié),收集什么數據、在多大范圍收集數據、收集多少數據,這是基于算法通過計算機軟件來實現的。目前,在面向消費的互聯網經濟活動中,商家信奉“數據為王”,數據收集傾向于范圍越大越好,數量越多越好,甚至大量頻繁地訪問用戶手機等終端設備,收集與平臺現階段主營業(yè)務并無關聯的個人信息數據。在收集數據的同時,平臺需要通過算法確定存儲數據的范圍和方式,以實現數據數量、質量與存儲成本之間的均衡。數據的收集和存儲,解決了有沒有數據的基礎問題;數據的使用、加工才是實現數據價值的關鍵環(huán)節(jié),解決為什么用數據、用什么數據、用給誰以及怎么用等關鍵問題,可以這樣講,離開了算法就無法實現數據的價值;數據的傳輸、提供、公開,涉及數據的對內和對外分享,在數據成為競爭力基礎的背景下,算法成為了數據分享決策的必要機制。甚至,在數據行為監(jiān)管不斷加強的法治背景下,算法成為了探索法治邊界、嘗試規(guī)避法治的機制。
從商業(yè)運用的角度,用戶數據可以分為三類:身份數據、行為數據和關系數據。這三類數據可以反映出該用戶或者消費者有無商業(yè)價值以及商業(yè)價值的大小。APP是消費互聯網的實現形式,也是用戶進入消費互聯網的通道。用戶登錄數字技術支撐的各種APP的過程是程式化的,對于APP預設的程序性要求,即使不合理也只能無奈地點擊同意,除非放棄使用。每個用戶的身份都已經被以電子形式記錄并數字化;每個用戶的線上行為都已經數字化,線下行為也反映在線上并被數字化;進而,用戶與商家及其提供產品或者服務之間的關系、與其他用戶之間的關系都已經被數字化??梢赃@樣講,收集海量的用戶身份數據、行為數據身份和關系數據是搭建商業(yè)模式實現商業(yè)目的的基礎;高能的算法黑箱是實現商業(yè)目的的利器,例如,大數據殺熟、二選一等行為均需要算法予以實現;強大的算力技術和基礎設施是實現商業(yè)目的的支撐條件;雄厚的資本加持是實現商業(yè)目的的經濟保障。
目前,算法存在三大問題:一是算法透明度不夠,像黑箱一樣。二是算法歧視,表現為算法不公平、不正義。三是算法違法,例如,通過算法實施一些違法的數據處理行為。這三個問題有兩大根源。一是價值層面,算法運用者的商業(yè)倫理出了問題;二是算法監(jiān)管制度供給不夠、不優(yōu)、不力。與實體經濟相比較,數字經濟更具有開放性。如果說區(qū)域性是某些實體經濟的固有特點,開放性則是所有類型數字經濟的共同特征。地方立法效力的區(qū)域性與數字經濟的開放性有可能是沖突的,如果地方保護在數字經濟領域抬頭,則會傷及全國的數字經濟。
只有算法得到有效治理,才能成為數據治理的強大武器,才能更好地推動產業(yè)數字化、數字產業(yè)化,才能賦能實體經濟,才能更好地維護消費者利益。只有把算法關進法治的籠子,用法治化的算法發(fā)現數據之間相關性從而配置數據資源并實現數據價值的機制,數字經濟才能夠更加健康發(fā)展。(時建中)
編輯:邢國涵
審核: