個人信息保護規(guī)則與人工智能技術(shù)的法律沖突_第1頁
個人信息保護規(guī)則與人工智能技術(shù)的法律沖突_第2頁
個人信息保護規(guī)則與人工智能技術(shù)的法律沖突_第3頁
個人信息保護規(guī)則與人工智能技術(shù)的法律沖突_第4頁
個人信息保護規(guī)則與人工智能技術(shù)的法律沖突_第5頁
免費預(yù)覽已結(jié)束,剩余1頁可下載查看

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

1、    個人信息保護規(guī)則與人工智能技術(shù)的法律沖突    高伊然摘要:數(shù)據(jù)、云計算、人工智能等技術(shù)的應(yīng)用一方面便利了人們的生活,另一方面也對個人信息、隱私等提出了新的挑戰(zhàn)。筆者以人工智能技術(shù)與個人信息保護之間的關(guān)系為視角討論目前存在的理論爭議以及實踐中的難點。本文主要歸納了學(xué)界的共識和爭議,并在結(jié)合實踐的基礎(chǔ)上指出了個人信息權(quán)在規(guī)制人工智能方面的現(xiàn)實問題;最終總結(jié)出在個人信息權(quán)制度構(gòu)建中應(yīng)當(dāng)堅持注重個人信息權(quán)內(nèi)部人格權(quán)屬性與財產(chǎn)權(quán)屬性,個人信息資源保護與利用之間的平衡。關(guān)鍵詞:人工智能 個人信息保護:d912 :a :1009-5349(2019)07-0

2、053-02人工智能快速發(fā)展并日趨成熟,并正在成為影響未來社會最重要的技術(shù)。我國也于2017年出臺新一代人工智能發(fā)展規(guī)劃,把人工智能上升為國家戰(zhàn)略,并預(yù)計到2025年初步建立人工智能法律法規(guī)、倫理規(guī)范和政策體系。具體到引起社會普遍擔(dān)憂的個人信息保護上,理論界爭議不斷,操作中也會面臨很多現(xiàn)實問題。一、價值沖突與平衡立法就是一個價值衡量與選擇的過程。在個人信息保護制度構(gòu)建中,如何在合理保護個人信息與促進信息資源合理利用、保護人工智能等產(chǎn)業(yè)的發(fā)展之間尋找平衡點是一個基礎(chǔ)性問題。從學(xué)界關(guān)于“個人信息性質(zhì)”的討論之中,我們不難看出,個人信息作為一種新興的權(quán)利客體,兼具人格權(quán)與財產(chǎn)權(quán)兩種屬性。一方面,其人

3、格權(quán)屬性強調(diào)個人信息保護的必要性?!皞€人信息”與個體密不可分,具有很強的人身專屬性和依賴性,其他組織和個人能夠通過“個人信息”追蹤到某個特定個體;現(xiàn)代化信息技術(shù)也可以實現(xiàn)對個人碎片化信息的整合,隨著信息質(zhì)和量的累積,碎片化的個人信息逐漸形成個人的“人格剖面圖”。另一方面,我們也必須認識到,現(xiàn)代信息技術(shù)的發(fā)展,大數(shù)據(jù)、云計算、人工智能技術(shù)的發(fā)展和應(yīng)用又必須以數(shù)量眾多的信息和數(shù)據(jù)為基礎(chǔ)。同時,通過對數(shù)據(jù)的分析和處理,商家可以通過“個性化推送”“價格歧視”等方式獲取商業(yè)利益。這些都體現(xiàn)了個人信息的財產(chǎn)價值,強調(diào)了個人信息在一定程度上是可以流通、使用并獲得收益的。個人信息這種兼具兩種權(quán)利屬性的特征使得

4、其既可以成為促進信息技術(shù)發(fā)展的重要資源,又可能為侵犯個人信息、隱私等不法活動提供便利。從民眾角度來看,近年來的“徐玉玉案”等個人信息泄露事件引起了社會大眾的普遍恐慌,普通民眾渴望國家著重對于個人信息進行保護。而對于人工智能等行業(yè)來說,個人信息過度保護不可避免會阻礙行業(yè)發(fā)展。海量的數(shù)據(jù)與信息是人工智能技術(shù)發(fā)展和應(yīng)用的前提。而在“知情同意原則”“目的限制原則”等的要求下,人工智能技術(shù)的應(yīng)用將會大大折扣。對于人工智能技術(shù)來說,其數(shù)據(jù)收集和自動化決策算法使得其可以一瞬間完成對個人信息的分析和利用,如果每次都需要經(jīng)過信息主體的授權(quán)或同意,人工智能技術(shù)就失去了價值和意義。同時,算法的動態(tài)性也要求基于信息主

5、體在收集時同意使用的基礎(chǔ)上對于個人信息進行更加靈活和復(fù)雜的使用。關(guān)于個人信息保護與利用之間的沖突,我國民法學(xué)界目前主張通過對個人信息進行區(qū)分來實現(xiàn)利益平衡,但就如何區(qū)分主要存在兩種觀點:第一,“兩重區(qū)分”規(guī)則。該觀點主要以張新寶教授為代表,主張“建立個人敏感隱私信息的概念,在個人敏感隱私信息與個人一般信息區(qū)分的基礎(chǔ)之上,通過強化個人敏感隱私信息的保護和強化個人一般信息的利用,調(diào)和個人信息保護與利用的需求沖突,實現(xiàn)利益平衡”。第二,“三重區(qū)分”規(guī)則,該觀點以張平教授為代表,主張將個人信息區(qū)分為三個層次:與自然人人格屬性密切相關(guān)的“隱私信息”、經(jīng)過加工分析后可以定位到個人的“間接個人信息”,經(jīng)加工

6、后難以識別出個人的“加工信息”,強調(diào)“我國個人信息保護應(yīng)當(dāng)以信息處理匿名化為基點重新構(gòu)造,以數(shù)據(jù)的不可追溯為核心”,對于不同層次的信息區(qū)別保護,區(qū)分其不同的價值。二、對于人工智能技術(shù)進行法律規(guī)制的難點除去人工智能是否應(yīng)當(dāng)具有法律主體資格,進而獨立承擔(dān)責(zé)任之外,目前來看對于人工智能侵犯個人信息權(quán)的法律規(guī)制還存在以下問題。首先,對于人工智能實際操作階段的透明度要求與商業(yè)秘密、知識產(chǎn)權(quán)等保護可能存在沖突。針對算法“黑箱”、算法暴政等問題,gdpr提出了“合法性、合理性和透明性”原則:對涉及數(shù)據(jù)主體的個人數(shù)據(jù),應(yīng)當(dāng)以合法的、公平的和透明的方式來進行處理,其中“透明性”的要求是對于“滲透著價值和利益的數(shù)

7、據(jù)收集方式具有較高的的隱蔽性,加上算法的黑箱使得這一決策自動化過程并非公開進行,不接受質(zhì)詢,提供解釋,不進行救濟,相對人無從知曉數(shù)據(jù)收集的程度、決策作出的原因”這一問題的回應(yīng)。但是“決策自動化過程”應(yīng)當(dāng)如何公開?且不說復(fù)雜精密的算法難以理解,真正使得信息主體對其知情需要很高成本;這種決策過程實際上就是算法的運行過程,一旦要求將其公開,接受質(zhì)詢、提供解釋,那么勢必涉及對于開發(fā)者、使用者等主體商業(yè)秘密、知識產(chǎn)權(quán)等的侵犯。其次,人工智能干預(yù)個人決策是否構(gòu)成侵權(quán)的標準難以判斷。人工智能干擾個人決策最典型的例子就是網(wǎng)絡(luò)精準廣告。基于對個人身份、愛好、年齡等信息,人工智能技術(shù)可以分析個人的消費習(xí)慣、消費能

8、力等,進而主動對其進行個性化的廣告推介。在此情況下,“侵權(quán)結(jié)果”就較為難以判斷,也即網(wǎng)絡(luò)精準廣告推介的侵權(quán)結(jié)果,是出現(xiàn)了個性化的廣告,還是這些個性化的廣告打擾了個人的生活安寧、信息決策自主。基于多數(shù)人正在接受甚至依賴這些個性化信息推介服務(wù)的現(xiàn)實狀況,將“出現(xiàn)個性化廣告”作為侵權(quán)結(jié)果,懲罰范圍過寬,甚至?xí)绊懙饺藗兊谋憷?。而若以后一種判斷標準,“個人生活安寧”“信息決策自主”又帶有濃重的個人主觀主義色彩,判斷標準過于模糊,一定程度上來講并不利于個人信息的保護。三、結(jié)語人工智能技術(shù)飛速發(fā)展,正在以不可逆轉(zhuǎn)的趨勢改變著人們的生產(chǎn)和生活,對于法律也提出了更高的要求。本文通過分析人工智能技術(shù)與個人信

9、息保護之間的價值沖突,認為應(yīng)當(dāng)通過對個人信息進行區(qū)分、對不同性質(zhì)的信息給予不同程度的保護的途徑來實現(xiàn)“保護”與“利用”二者之間的平衡。同時著眼于人工智能技術(shù)的特征,從實踐的角度出發(fā),分析現(xiàn)有個人信息保護的理論與實踐,在高度精密復(fù)雜的人工智能技術(shù)中實現(xiàn)個人信息保護的難點。通過以上兩個方面的分析,旨在探討在人工智能背景下,個人信息相關(guān)立法應(yīng)當(dāng)關(guān)注的問題,為個人信息保護制度的構(gòu)建提供思路。參考文獻:1張新寶.從隱私到個人信息:利益再衡量的理論與制度安排j.中國法學(xué),2015(3).2張平.大數(shù)據(jù)時代個人信息保護的立法選擇j.北京大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2017(3).3齊強軍.論我國個人信息保護立法的權(quán)利基礎(chǔ)j.青海社會科學(xué),2010(1).4齊愛民.論利益平衡視野下的個人信息權(quán)制度在人格利益與個人自由之間j.法學(xué)評論,2011(3).5張新寶.我國個人信息保護立法主要矛盾研討j.吉林大學(xué)社會科學(xué)學(xué)報,2018(9).6lepri b,staiano j,sangokoya d,et al.the tyranny of data? the bright and dark sides of da

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論