人工智能的數(shù)據(jù)合規(guī)與法律責任_第1頁
人工智能的數(shù)據(jù)合規(guī)與法律責任_第2頁
人工智能的數(shù)據(jù)合規(guī)與法律責任_第3頁
人工智能的數(shù)據(jù)合規(guī)與法律責任_第4頁
人工智能的數(shù)據(jù)合規(guī)與法律責任_第5頁
已閱讀5頁,還剩23頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

人工智能的數(shù)據(jù)合規(guī)與法律責任

當今社會,人工智能在社會方方面面發(fā)揮著日益重要的作用,全

球產(chǎn)業(yè)界充分認識到人工智能技術(shù)引領(lǐng)新一輪產(chǎn)業(yè)變革的重大意義,

世界主要發(fā)達國家均把發(fā)展人工智能技術(shù)作為國家重大戰(zhàn)略。

然而隨著人工智能越益深入人們的日常生活,人工智能產(chǎn)生的法

律問題、引起的法律風險也越來越多。人工智能甥居如何采集?采集

的數(shù)據(jù)如何利用?自動駕駛技術(shù)發(fā)生事故時,該如何判斷責任?這些

具體問題的浮現(xiàn),急切地呼叫法律工作者對人工智能數(shù)據(jù)和產(chǎn)品涉及

的法律問題做進一步研究。

一、人工智能的基礎(chǔ)理論

(一)人工智能的概念

人工智能(artificialintelligence,

AI)自1956年在Dartmouth會議上被提出至今,學(xué)界

尚沒有統(tǒng)一概念。理論界普遍認為:人工智能作為研究、開辟用于延

伸、摹擬和拓展人類智能的理論、技術(shù)及應(yīng)用系統(tǒng)的一門新技術(shù)科學(xué),

本質(zhì)上是計算機科學(xué)的一個分支,是試圖創(chuàng)造與人類智能相似的智能

機器,讓機器完成曾經(jīng)惟獨人類才干完成的工作,包括:機器學(xué)習(xí)、

語言處理、邏輯推理、意識規(guī)劃、語音識別、社交行為等??冢?/p>

嚴格意義上,人工智能可以分為弱人工智能和強人工智能。弱人

工智能是指人類設(shè)計并創(chuàng)造的人類智能的某些方面,其不能徹底脫離

人類的控制運行。[2]比如Siri就是依賴在手機軟件中復(fù)雜的

弱人工智能,并與互聯(lián)網(wǎng)云端復(fù)雜的弱人工智能相聯(lián)接,創(chuàng)造了一個

具實用戶友好型的高級弱人工智能項目。強人工智能則是具有與人類

相當或者超過人類智能的智力水平,于是能夠像人類一樣解決任何問

題,運行已經(jīng)徹底不需要人類的控制的。[3]固然,目前來講,強

人工智能仍然是尚未實現(xiàn)的幻想。本文所論述的主要是現(xiàn)階段弱人工

智能的相關(guān)法律問題。

(二)現(xiàn)階段人工智能法律地位的定位

研究人工智能的法律問題,就必須先回答其核心問題:人工智能

的法律地位究竟是什么?人工智能究竟是人還是物?它能否具有法

律主體資格?

對于人工智能到底具不具有人格這個問題,本文認為應(yīng)當依據(jù)人

工智能的發(fā)展現(xiàn)狀為依據(jù)來討論。人工智能業(yè)界把人工智能按照先進

程度分為:弱人工智能、強人工智能、超人工智能三類。[4]按照

現(xiàn)在人工智能的發(fā)展階段,人工智能還處于"弱人工智能時代"。弱

人工智能是指人類設(shè)計并創(chuàng)造的人類智能的某些方面,其不能徹底脫

離人類的控制運行。

對于弱人工智能來說,人工智能僅僅是一種行為,其本身并不能

構(gòu)成法律上的主體資格。人工智能是主體行為借助的工具,因此是主

體的行為的一種方式,是主體行為的延伸。此行為如符合法律行為客

觀要件、主觀要件和法律行為的確認就構(gòu)成為了人工智能主體的法律

行為。

法律行為客觀要件包括外在的行為、手段和結(jié)果。行動是法律行

為構(gòu)成的最基本的要素,它是法律行為主體作用于對象的中介方式。

從前面人工智能分析得出人工智能是行為,同時也是一種行為方式。

因這人工智能是其主體"人工智能的研發(fā)者、創(chuàng)造者以及使用者"的

行動和行為方式。[5]人工智能目前已造成一定的社會影響,工具

之所以被創(chuàng)造出來,是人為了適應(yīng)環(huán)境、改變環(huán)境,是為了自身的生

存和發(fā)展需要,是為了協(xié)助人類解決面臨的各種問題,協(xié)助人類完成

需要承擔的各項任務(wù)。

綜上分析,人工智能是主體的法律行為。賦予它們以人格,就目

前來看,顯然并沒有必要。如果賦予了弱人工智能以人格,就意味著

它需要獨立承擔責任,那末,如果弱人工智能引起事故致人受傷,受

害者就應(yīng)當去找弱人工智能去尋求賠償而不是它的創(chuàng)造者或者使用

者。在目前的法律體系中,顯然會導(dǎo)致受害者無法救濟的后果。

2022年聯(lián)合國科教文組織通過的《關(guān)于機器人倫理的初步草

案報告》顯示,該報告將智能產(chǎn)品(機器人)視為通常意義上的科技

產(chǎn)品,對智能產(chǎn)品及其技術(shù)造成的傷害,可由產(chǎn)品責任的相關(guān)制度予

以調(diào)整。在這種情況下,人工智能的侵權(quán)責任可以按照特殊侵權(quán)責任

中的產(chǎn)品責任即無過錯責任原則進行責任的確定以及追責,不需要證

明過錯的存在。但是,該報告僅僅是針對無獨立意識的弱人工智能產(chǎn)

品,那末擁有獨立意識的人工智能被視為通常意義上的科技產(chǎn)品顯然

是不合理的。

(三)人工智能的分類

本文將人工智能分為兩大類討論:人工智能數(shù)據(jù)和人工智能產(chǎn)品

(機器人、自動駕駛車輛等)。但這樣的分類不是絕對的,兩者存在

交叉重合。這樣的分類方便對人工智能生成物進行法律責任的討論。

人工智能數(shù)據(jù)是立足于數(shù)據(jù)信息。大數(shù)據(jù)時代,人工智能本身就

是數(shù)據(jù)信息的集合與處理的一個行為與過程,同時又可以生成更具有

經(jīng)濟價值的信息。這些數(shù)據(jù)信息可為個人、企業(yè)乃至國家提供助力,

其法律責任主要環(huán)繞個人信息保護和利用,商業(yè)秘密等進行討論。

人工智能產(chǎn)品,主要包括機器人、自動程序設(shè)計等,人工智能產(chǎn)

品的法律責任主要是人工智能產(chǎn)品發(fā)生侵權(quán)行為時,討論人工智能產(chǎn)

品民事主體的歸責原則,承擔侵權(quán)責任的民事主體,不同民事主體承

擔的范圍責任等問題。

二、人工智能數(shù)據(jù)相關(guān)概念

(一)大數(shù)據(jù)概念

大數(shù)據(jù)也稱海量數(shù)據(jù),它是相對于小數(shù)據(jù)、普通數(shù)據(jù)而言的,它

是由數(shù)量巨大、結(jié)構(gòu)復(fù)雜、類型眾多的數(shù)據(jù)組成的數(shù)據(jù)集合,在云計

算或者人工智能數(shù)據(jù)處理與應(yīng)用模式基礎(chǔ)下,通過數(shù)據(jù)的集成共享和

交叉復(fù)用形成的信息資產(chǎn)。[6]

數(shù)據(jù)的應(yīng)用分這三個步驟:數(shù)據(jù)、信息、知識。數(shù)據(jù)本身不是有

用的,必須要經(jīng)過一定的處理。數(shù)據(jù)十分雜亂,經(jīng)過梳理和清洗,才

能夠稱為信息。信息包含不少規(guī)律,從信息中將規(guī)律總結(jié)出來,稱為

知識。[7]

大數(shù)據(jù)的生成的每一個階段都可能借助人工智能分析整理。雜亂

的數(shù)據(jù)通過人工智能分析整理成為企業(yè)可以運用的數(shù)據(jù)信息。這里

我們討論的就是借由人工智能整理生成的有經(jīng)濟價值的數(shù)據(jù)信息。

(二)數(shù)據(jù)分類

數(shù)據(jù)可以分為個人數(shù)據(jù)、企業(yè)數(shù)據(jù)和公共數(shù)據(jù)三類。[8]這里

簡要介紹一下個人數(shù)據(jù)和企業(yè)數(shù)據(jù)的含義。值得注意的是,這種數(shù)據(jù)

分類依據(jù)的是產(chǎn)生數(shù)據(jù)時所牽涉的主體,并非指數(shù)據(jù)由哪種主體所

掌控。

個人數(shù)據(jù),1995年歐盟出臺的《數(shù)據(jù)保護指令》中定義為所

有能夠識別身份的與個人信息相關(guān)的數(shù)據(jù),包括能夠直接識別個人身

份的明確信息,以及將多項信息綜合后進而能夠間接識別個人身份的

信息(如經(jīng)濟文化水平、身體狀況、社會角色等)。企業(yè)數(shù)據(jù)指能體

現(xiàn)出企業(yè)所有相關(guān)信息的數(shù)據(jù)。政府數(shù)據(jù)是指政府在各種行政活動過

程中產(chǎn)生的數(shù)據(jù)如交通數(shù)據(jù)。[9]

三、人工智能數(shù)據(jù)采集涉及的法律問題

(一)數(shù)據(jù)采集的分類

依據(jù)采集信息主體以及是否符合法律規(guī)定,可將人工智能數(shù)據(jù)采

集分為授權(quán)采集以及未授權(quán)采集(不當采集)兩類。授權(quán)采集是按照

法律的規(guī)定合法采集數(shù)據(jù)信息,然而一旦人工智能不當采集數(shù)據(jù)時,

法律風險隨著而來。

不當采集是指運用人工智能采集信息時未獲得當事人允許和授權(quán)

的采集。人工智能為不當采集信息的行為有多種表現(xiàn)方式,會產(chǎn)生相

應(yīng)的法律風險。

第一、竊取行為(獲取行為)。未經(jīng)其他平臺允許,竊取其數(shù)據(jù)

信息為己所用。這種行為未經(jīng)他人允許,在竊取過程中極易侵32其他

平臺的商業(yè)秘密,或者平臺用戶的個人隱私。若情節(jié)嚴重,還可能構(gòu)

成刑事速

第二,侵入行為。數(shù)據(jù)采集時,未經(jīng)其他平臺允許,擅自侵入其

他平臺計算機信息系統(tǒng)內(nèi)部。這種侵入行為可能引起各類法律責任,

甚至具有構(gòu)成犯罪的可能性。根據(jù)侵入計算機信息系統(tǒng)的性質(zhì)的不

同,對技術(shù)使用者的行為要求也具有不同。若采集時非法侵入了國家

事務(wù)、國防建設(shè)、尖端科學(xué)技術(shù)領(lǐng)域的計算機信息系統(tǒng),則只要實施

了侵入行為即構(gòu)成非法侵入計算機信息系統(tǒng)罪。

第三,破壞行為。人工智能采集信息時,對計算機信息系統(tǒng)功能

或者計算機信息系統(tǒng)中存儲、處理或者傳輸?shù)臄?shù)據(jù)和應(yīng)用程序進行破

壞,或者故意制作、傳播計算機病毒等破壞性程序,影響計算機系統(tǒng)

正常運行,后果嚴重的行為。這種行為輕者承擔民事責任,重則構(gòu)成

破環(huán)計算機信息系統(tǒng)罪,受到刑事處罰。

(二)不當采集數(shù)據(jù)的法律風險

1.民事責任

(1)侵犯個人隱私

當人工智能獲取其他平臺系統(tǒng)數(shù)據(jù)信息,可能涉及侵犯公民的個

人隱私。"探索云盤搜索”案中,被告人馬某、莫某在用戶不知情,

且未經(jīng)百度網(wǎng)站授權(quán)的情況下,利用"探索云盤搜索”的插件自動抓

取用戶存儲于百度網(wǎng)盤的分享鏈接的地址和提取碼,將該信息收錄于

自己研發(fā)的網(wǎng)站上用于牟利。那些被下載了"探索云盤搜索"插件的

用戶不知道該軟件中的插件具有非法獲取自己百度網(wǎng)盤內(nèi)數(shù)據(jù)信息

的屬性,其私人信息被竊取。

在民事領(lǐng)域,公民隱私權(quán)被侵犯的,有權(quán)依據(jù)侵權(quán)責任法要求侵

權(quán)人承擔侵權(quán)責任,侵權(quán)行為危及他人人身、財產(chǎn)安全的,被侵權(quán)人

可以請求侵權(quán)人承擔住手侵害、排除妨礙、消除危(wei)險等侵權(quán)

責任。侵害他人人身權(quán)益,造成他人嚴重精神傷害的,被侵權(quán)人可以

請求精神傷害賠償。

(2)不正當競爭

人工智能獲取其他網(wǎng)站未公開的數(shù)據(jù)信息,獲取網(wǎng)站"內(nèi)網(wǎng)"客

戶信息進行不正當競爭,"不勞而獲"或者"搭便車",超出合理使

用限制,對于原網(wǎng)站造成為了實質(zhì)性替代傷害其商業(yè)利益,這些行為

構(gòu)成

不正當競爭。我國《關(guān)于審理不正當競爭民事案件應(yīng)用法律若干問題

的解釋》口0]中將符合條件的客戶名單納入商業(yè)秘密保護范疇。

《反不正當競爭法》十二條規(guī)定經(jīng)營者利用網(wǎng)絡(luò)從事生產(chǎn)經(jīng)營活動,

應(yīng)當遵守本法的各項規(guī)定。經(jīng)營者不得利用技術(shù)手段,通過影響用戶

蟠或者其他方式,實施妨礙、破壞其他經(jīng)營者合法提供的網(wǎng)絡(luò)產(chǎn)品

或者服務(wù)正常運行的行為。在北京皿訴劉某清、北京青裸不正當競

爭糾紛案口1]中,北京青棵未經(jīng)北京奧聚允許,直接將集奧的用

戶信息爬取整合為己所用。法院認為由于雙方當事人都是從事大數(shù)據(jù)

服務(wù),向客戶提供精準廣告服務(wù),二者之間存在直接的競爭關(guān)系。北

京青棵爬取北京集奧的網(wǎng)絡(luò)用戶和上網(wǎng)信息,并且對數(shù)據(jù)進行整理、

挖掘和分析,形成一定的數(shù)據(jù)庫,用以商業(yè)用途,該行為傷害了集奧

公司的合法權(quán)益,應(yīng)承擔賠償責任。

"女裝網(wǎng)撞庫"案件[12]中,兩位原告是“女裝網(wǎng)"的運營

方及管理者,"女裝網(wǎng)"作為女裝行業(yè)門戶網(wǎng)站,集商務(wù)、資訊B務(wù)

于一體,以服務(wù)經(jīng)銷商和女裝企業(yè)為核心,構(gòu)建女裝行業(yè)專業(yè)口碑的

交流互動平臺。被告C網(wǎng)絡(luò)科技公司系"中服網(wǎng)”的經(jīng)營者。后兩原

告發(fā)現(xiàn)被告以“撞庫"方式非法獲取、使用“女裝網(wǎng)”上的賬號及密

碼登錄"女裝網(wǎng)"并查看經(jīng)銷商數(shù)據(jù)庫信息,導(dǎo)致杭州A科技公司、

杭州B科技公司客戶的流失,削弱了兩公司的市場競爭優(yōu)勢,傷害了

兩公司的核心競爭力,嚴重擾亂了服裝網(wǎng)站行業(yè)的競爭秩序。法院認

定涉案經(jīng)銷商數(shù)據(jù)信息可給兩原告帶來直接的經(jīng)濟利益,屬于應(yīng)當受

法律保護的權(quán)益。從案情分析,C公司確實違反誠實信用原則和公認

的商業(yè)道德。原被告雙方當事人的商業(yè)模式、企業(yè)定位、用戶群體存

在高度重合性,互聯(lián)網(wǎng)服裝領(lǐng)域是直接競爭關(guān)系,所以涉案被控侵權(quán)

行為確實給杭州A科技公司、杭州B科技公司造成為了傷害。經(jīng)審理

判定被告浙江C網(wǎng)絡(luò)科技公司即將住手侵權(quán),并賠償原告杭州A科技

公司、杭州B科技公司經(jīng)濟損失共計350000元,同時承擔消除

影響的民事責任,一并駁回其他訴訟請求。

2.刑事責任

Q)非法獲取計算機信息系統(tǒng)罪

人工智能未經(jīng)授權(quán)獲取其他平臺的隱私數(shù)據(jù),如破解了對方服務(wù)

器的防抓措施采集信息的或者采用技術(shù)手段抓取被他人服務(wù)器中存

儲的視頻數(shù)據(jù),情節(jié)嚴重。依據(jù)《刑法》第二百八十五條規(guī)定違反國

家規(guī)定,侵入前款規(guī)定以外的計算機信息系統(tǒng)或者采用其他技術(shù)手

段,獲取該計算機信息系統(tǒng)中存儲、處理或者傳輸?shù)臄?shù)據(jù),或者對該

計算機信息系統(tǒng)實施非法控制,情節(jié)嚴重的,處三年以下有期徒刑或

者者拘役,并處或者單處罰金;情節(jié)特殊嚴重的,處三年以上七年

以下有期徒刑,并處罰金。

以上海某品、侯某強等非法獲取計算機信息系統(tǒng)數(shù)據(jù)罪案口3]

為例,被告單位上海某品公司于2022年至2022年間采用技術(shù)

手段獲取被害單位北京字節(jié)跳動服務(wù)器中存儲的視頻數(shù)據(jù),并由侯某

強指使被告人郭某破解北京字節(jié)跳動網(wǎng)絡(luò)技術(shù)有限公司的防抓取措

施,使用"tt_spider"文件實施視頻數(shù)據(jù)抓取行為,并將

結(jié)果存入到數(shù)據(jù)庫中的邏輯。在數(shù)據(jù)抓取的過程中使用偽造的dev

ice_id繞過服務(wù)器的身份校驗,使用偽造UA及IP繞過服務(wù)

器的訪問頻率限制。上海某品惡意破解字節(jié)跳動的防抓系統(tǒng),獲取字

節(jié)目勵的商業(yè)數(shù)據(jù)信息,侵害了其商業(yè)利益。法院依法判處上海某品、

侯某強非法獲取計算機信息系統(tǒng)罪。

(2)侵犯公民個人信息罪

人工智能竊取信息時極易侵犯公民個人信息,受到我國《刑法》

第二百五十三條規(guī)定的侵犯公民個人信息罪的懲罰。該罪規(guī)定違反國

家有關(guān)規(guī)定,向他人出售或者提供公民個人信息,情節(jié)嚴重的,構(gòu)成

侵犯公民個人信息罪。

在楊某、朱某銘侵犯公民個人信息罪一案[14]中,被告人楊

某在新晃侗族自治縣通達路通達鑫苑某單元某房間內(nèi)負責提供電腦

和組裝電腦,利用電腦從"SOSO云"等網(wǎng)絡(luò)搜索引擎上下載原始

"淘寶賬號+密碼"和"支付寶賬號+密碼”等形式的公民個人信息,

然后通過遠程控制軟件傳送到新晃侗族自治縣原交警隊宿舍某房間

內(nèi)的電腦上,并遠程控制電腦對原始公民個人信息進行"撞庫"加工;

被告人楊某某負責看護和查看原交警隊宿舍某房間內(nèi)的電腦是否正

常運行,如電腦運行浮現(xiàn)問題就通知被告人楊某過來維修,以及對被

告人楊某傳送過來的原始公民個人信息數(shù)據(jù)進行"掃存"和"撞庫"

加工,并把加工后的公民個人信息數(shù)據(jù)傳送給被告人楊某;被告人朱

某銘負責提供電腦以及對被告人楊某傳送過來的原始公民個人信息

數(shù)據(jù)進行"掃存"和"撞庫"加工,并把加工后的公民個人信息數(shù)據(jù)

雌給被告人楊某。此后,被告敏得的這些公民個人信息高價出售,

掰I」頗豐。法院判決時認定楊某、朱某銘等人侵害的公民個人信息數(shù)

量巨大,情節(jié)特殊嚴重,其行為構(gòu)成侵犯公民個人信息罪。

四、人工智能利用:;涉及的法律問題

(一)人工智能利用數(shù)據(jù)的方式

人工智能通過整合、發(fā)布、共享、交易等方式使用數(shù)據(jù)信息的過

程,可概括為對數(shù)據(jù)的利用。這些利用方式包括:整合數(shù)據(jù)信息;發(fā)

布數(shù)據(jù)信息;使用數(shù)據(jù)信息;授權(quán)他人使用數(shù)據(jù)信息;與他人為數(shù)據(jù)

交易等行為。這里對人工智能捌居利用的列舉并非窮盡,隨著科技的

進步,數(shù)據(jù)的利用可能會有越益深入的發(fā)展。

首先,人工智能對個人數(shù)據(jù)的儲存、處理、披露必須獲取個人的

允許。而缺乏允許的處理惟獨在例外情形下,如為了實現(xiàn)數(shù)據(jù)主體利

益、履行公共職責、保護第三人核心利益、實現(xiàn)公共利益、控制者或

者第三人的正當利益才干進行處理。

其次,數(shù)據(jù)主體向來擁有多項對自身數(shù)據(jù)的權(quán)利,數(shù)據(jù)主體擁有

對于數(shù)據(jù)的訪問權(quán)、更正權(quán)、擦除權(quán)("被遺忘權(quán)")、限制處理權(quán)、

數(shù)據(jù)攜帶權(quán)、普通反對權(quán)和反對僅僅基于自動化的個人決策的權(quán)利。

對于這些權(quán)利,數(shù)據(jù)控制者或者處理者不得要求數(shù)據(jù)主體拋卻這些權(quán)

利以奐取服務(wù)。

再次,人工智能主體,即個人信息的控制者與處理者必須承擔"通

過設(shè)計的數(shù)據(jù)保護和默認的數(shù)據(jù)保護(dataprotecti

onbydesignandbydefault)"[1

5]的責任??刂普邞?yīng)當有一套固有的數(shù)據(jù)保護機制,而不只是采取

一些暫時性和個案性的保護措施??刂普吆吞幚碚邞?yīng)當采取“適當技

術(shù)與組織措施,以便保證和風險相稱的安全水平"。[16]

最后,當數(shù)據(jù)主體認為自己受到侵害時,有權(quán)向我國的司法機構(gòu)

提起訴訟,要求數(shù)據(jù)控制者或者處理者遵守數(shù)據(jù)主體的權(quán)利,并且在

數(shù)據(jù)控制者或者處理者違反數(shù)據(jù)主體權(quán)利時進行賠償。

總結(jié)一下,個人信息數(shù)據(jù)使用必須經(jīng)過本人的許可,人工智能可

以在用戶授權(quán)的范圍之內(nèi)獲得這些信息數(shù)據(jù)的使用權(quán)。如果人工智能

采集的數(shù)據(jù)要在處理后進行交易,則需要在服務(wù)條款中將這一內(nèi)容告

知用戶,否則會造成侵權(quán)。同時,由于在我國可識別的個人信息是禁

止買賣的,所以原則上能夠交易的大數(shù)據(jù)必須是經(jīng)過清洗之后不能識

別用戶身份的數(shù)據(jù)集(可稱之為匿名數(shù)據(jù)集)???]關(guān)于匿名

數(shù)據(jù)集的歸屬問題,大多數(shù)學(xué)者認為匿名數(shù)據(jù)集的財產(chǎn)權(quán)利應(yīng)由采集

數(shù)據(jù)的人工智能(大數(shù)據(jù)控制人)享有。

(二)不當利用的法律風險

若是人工智能利用數(shù)據(jù)的過程中存在不法行為,則可能引起一系

列法律責任。這些行為和法律責任包括:

一、泄露信息,未經(jīng)數(shù)據(jù)所有人授權(quán),擅自向他人泄露數(shù)據(jù)信息

或者公開數(shù)據(jù)信息,如公開用戶肖像、隱私等。止匕時可能因構(gòu)成侵犯

公民個人隱私,侵犯他人著作權(quán)而承擔民事賠償責任。

二、非法提供謀取利益的,未獲得授權(quán)而泄露他人的數(shù)據(jù)信息謀

取利益的。謀取利益達到一定數(shù)量,可能觸犯刑法,構(gòu)成侵犯公民個

人信息罪。除此以外,還可能受到有關(guān)部門的行政處罰。

三、濫用數(shù)據(jù),如利用信息進行不正當競爭,未經(jīng)他人允許使用

他人數(shù)據(jù)信息進行不正競爭的。

1.侵犯公民個人隱私/侵犯公民個人信息罪

平臺利用人工智能將獲得的用戶信息發(fā)布分享的,將可能承擔侵

犯隱私的民事責任,如賠禮道歉,消除影響以及賠償損失。如果情節(jié)

嚴重,造成較為嚴重的社會后果的,可能構(gòu)成公民個人信息罪,受到

《刑法》第二百五十三條"違反國家有關(guān)規(guī)定,向他人出售或者提

供公民個人信息,情節(jié)嚴重的”的規(guī)范。

汪某、蔡某坤侵犯公民個人信息罪案中[18],被告人汪某于

2022年至2022年6月間,在湖北省武漢市,使用手機、電

腦通過QQ、QQ郵箱、微信等網(wǎng)絡(luò)工具,向被告人蔡某坤、姚某

國、陸某、程某峰等人,出售含有車牌號碼、車輛品牌、機動車所

有人、身份證號碼、住所地址、手機號碼、車輛識別代碼等信息的

公民個人信息5899555條,非法獲利人民幣5萬元?!蹲罡呷?/p>

民法院最高人民檢察院關(guān)于辦理侵犯公民個人信息刑事案件合用法

律若干問

題的解釋》規(guī)定,刑法第二百五十三條之T見定的"公民個人信息”,

是指以電子或者其他方式記錄的能夠單獨或者與其他信息結(jié)合識別

特定自然人身份或者反映特定自然人活動情況的各種信息,包括姓

名、身份證件號碼、通信通訊聯(lián)系方式、住址、賬號密碼、財產(chǎn)狀況

行£踞跡等。向特定人提供公民個人信息,以及通過信息網(wǎng)絡(luò)或者其

他途徑發(fā)布公民個人信息的,應(yīng)當認定為刑法第二百五十三條之一規(guī)

定的"提供公民個人信息"。最終法院判處涉案人員侵犯公民個人信

息罪

2.行政處罰

人工智能非法向他人提供公民個人信息的,根據(jù)《全國人大常委

會關(guān)于加強網(wǎng)絡(luò)信息保護的決定》保護“能夠識別公民個人身份和涉

及公民個人隱私的電子信息",對出售或者非法向他人提供公民個人

電子信息的行為,依法賦予警告、罰款、沒收違法所得、吊銷許可證

或者取銷備案、關(guān)閉網(wǎng)站、禁止有關(guān)責任人員從事網(wǎng)絡(luò)服務(wù)業(yè)務(wù)等處

cm

iUo

五、企業(yè)數(shù)據(jù)與商業(yè)秘密

依靠人工智能生成的企業(yè)數(shù)據(jù)與商業(yè)秘密的關(guān)系,目前尚是一個

未被學(xué)者充分討論的話題。有兩個問題是需要被正視的。其一,人工

智能所"知曉”的經(jīng)營和技術(shù)信息算不算商業(yè)秘密?其二,人工智能

自主實施的侵9琪他主體商業(yè)秘密的行為算不算侵權(quán)行為,侵權(quán)責任

亥由誰承擔?

首先討論第一個問題。人工智能具備近似于人類的思維方式,還

有"深度學(xué)習(xí)”的能力。在人工智能匡助人類處理生產(chǎn)、經(jīng)營活動的

時候,它能通過強大的“大數(shù)據(jù)"分析能力,歸納和發(fā)現(xiàn)生產(chǎn)、經(jīng)營

活動的規(guī)律,為人類提供改進生產(chǎn)、經(jīng)營活動的方法。那末問題就在

開緘于人工智能的這些信息是不是商業(yè)秘密。商業(yè)秘密,我國是利

用《反不正當競爭法》予以保護的。根據(jù)《反不正當競爭法》規(guī)定:

商業(yè)秘密,蜀旨不為公眾所知悉、具有商業(yè)價值并經(jīng)權(quán)利人采取相應(yīng)

保密措施的技術(shù)信息和經(jīng)營信息。由此可知,商業(yè)秘密的本質(zhì)是技術(shù)

信息和經(jīng)營信息,還需具備“實用性"、"秘密性"和"保密性”的

特征。

商業(yè)秘密,即商業(yè)秘密包括經(jīng)營秘密與技術(shù)秘密兩方面內(nèi)容。經(jīng)

營秘密是指未公開的經(jīng)營信息,即生產(chǎn)經(jīng)營銷售活動有關(guān)的經(jīng)營方

法、管理方法、產(chǎn)售策略、客戶名單、標底及標書內(nèi)容等專有知識。

技術(shù)秘密是指未公開的技術(shù)信息,即與產(chǎn)品生產(chǎn)和創(chuàng)造有關(guān)的技術(shù)訣

竅、生產(chǎn)方案、工藝流程、設(shè)計圖紙、化學(xué)配方、技術(shù)情報等專有知

識???]可見,商業(yè)秘密的本質(zhì)是信息,重點在于信息的實用性

和未公開性。無論這些信息是由人所知曉的,還是儲存于紙張、物件

還是系統(tǒng)之內(nèi),都不影響我們對其是否構(gòu)成商業(yè)秘密的判斷。以此作

為判斷標準,人工智能對既有的技術(shù)和經(jīng)營信息進行改進后生成的新

的信息普通不會對夕公開,由于改進提升了信息的價值和實用性,所

以信息的受益者都會采取必要的保密措施。結(jié)合這些特征,可以判斷

人工智能所"知曉”的具有實用性的未公開的經(jīng)營和技術(shù)信息是商業(yè)

秘密??梢灶惐扔谥鳈?quán)中的"作品",商業(yè)秘密可以由人工智能創(chuàng)

作出來,但誰可以對其擁有權(quán)利?我們認為,由于人工智能缺少法律

所規(guī)定的主體資格,該商業(yè)秘密應(yīng)由創(chuàng)造或者運用該人工智能的主體

所擁有。其次,如何處理人工智能侵犯其他主體商業(yè)秘密的問題。

因為人工智能行為的自主性,有時候不受人類的控制,那末這就會產(chǎn)

生人工智能自主侵犯他人商業(yè)秘密的可能性。

《反不正當競爭法》規(guī)定的侵犯商業(yè)秘密的情形規(guī)范的是經(jīng)營者

或者相關(guān)第三人的行為。顯然,人工智能不可能成為經(jīng)營者或者相關(guān)

第三人;假如經(jīng)營者或者相關(guān)第三人利用了人工智能(即將其作為

侵權(quán)的工具)侵犯他人的商業(yè)秘密,才可以直接援引此條追究經(jīng)營

者的侵權(quán)責任。但是在人工智能自主侵犯他人商業(yè)秘密的情況下,

如何判斷侵權(quán)行的有無乃至責任的歸屬呢?我國《侵權(quán)責任法》沒

有與之直接對應(yīng)的規(guī)范,但是我們類比其中有關(guān)無民事行為能力入侵

權(quán)、產(chǎn)品侵權(quán)以及飼養(yǎng)動物侵權(quán)的規(guī)則,判斷出盡管人工智能本身

沒有侵權(quán)責任能力,但是人工智能創(chuàng)造者、使用者、所有者對人工

智能的行為有監(jiān)督和管理的職能,特殊是使用者,理應(yīng)承擔人工智

能造成的后果。

六、人工智能產(chǎn)品的法律責任分配

人工智能產(chǎn)品主要指已經(jīng)符合我國產(chǎn)品規(guī)定的人工智能產(chǎn)物,主

要包括自動駕駛;人臉檢測和識別;語言識別;機器人相關(guān)運用;自

然語言處理的應(yīng)用;智能搜索/推薦等。[20]這些產(chǎn)品牽涉多種

主體,在社會生活中有越來越廣泛地運用。

(一)人工智能發(fā)展中的民事責任主體與歸責原則

1、人工智能產(chǎn)品侵權(quán)民事責任主體

明確了人工智能非法律主體,人工智能的民事責任主體就能明確

是在與人工智能相關(guān)的"人"上。在人工智能發(fā)展的民事法律關(guān)系中,

主要的民事主體是設(shè)計者、生產(chǎn)者、銷售者和使用者等。[21]

設(shè)計者是人工智能技術(shù)應(yīng)用的研發(fā)者。[22]設(shè)計者通過研究

人工智能軟件推動人工智能的發(fā)展和應(yīng)用。人工智能軟件既是人工智

能的表現(xiàn)形式,又是人工智能應(yīng)用的技術(shù)基礎(chǔ)。

生產(chǎn)者是人工智能技術(shù)應(yīng)用的實踐者。[23]生產(chǎn)者通過設(shè)計

者提供的人工智能軟件,安裝在產(chǎn)品之上,構(gòu)成一體,形成人工智能

產(chǎn)品,并且推向市場,為人類生活和社會發(fā)展服務(wù)。銷售者是人工智

能成果的推廣者。銷售者通過自己的行為,將生產(chǎn)者生產(chǎn)的人工智能

產(chǎn)品推向市場,應(yīng)用于社會生產(chǎn)、生活中,使其發(fā)揮效益,創(chuàng)造新的

財富,滿足人們的生產(chǎn)、生活需求。

使用者是應(yīng)用人工智能產(chǎn)品的民事主體。[24]之所以使用"使

用者"而不使用"消費者”的概念,是因為生產(chǎn)所需購買商品的人不

屬于消費者。無論是為生產(chǎn)還是為生活需要,購買人工智能產(chǎn)品使用,

滿足自己的需求,就可以稱為人工智能產(chǎn)品的使用者。

所有者,所有者是人工智能的所有人,之所以提出來討論是因為

可能存在所有者和使用者分離的情形。

2、人工智能產(chǎn)品侵權(quán)的歸責原則

歸責原則是強調(diào)責任人承擔侵權(quán)責任的依據(jù)和基礎(chǔ),也是處理侵

權(quán)糾紛案件所應(yīng)遵守的基本準則?!肚謾?quán)責任法》第6條和第7條確

立了由過錯責任原則和無過錯責任原則組成的歸責原則體系。過錯責

任原則是以侵權(quán)人主觀上有過錯為承擔責任的充分必要條件的,《侵

權(quán)責任法》第6條分兩款對該原則作出了規(guī)定。第一款規(guī)定了過錯責

任,第二款規(guī)定了推定過錯責任。但推定過錯責任只能合用于法律有

特殊規(guī)定的情形。無過錯責任原則是作為過錯責任原則的補充而存在

的,于是其也只能在法律規(guī)定的情形下方得以合用。

2022年,聯(lián)合國科教文組織通過了《關(guān)于機器人倫理的初步

草案報告》,該報告將智能產(chǎn)品視為通常意義上的科技產(chǎn)品,對智能

產(chǎn)品及其技術(shù)造成的傷害,可由產(chǎn)品責任的相關(guān)制度予以調(diào)整。于是,

智能機器人系統(tǒng)存在的瑕疵造成他人權(quán)益的傷害,可根據(jù)產(chǎn)品責任予

以追責,產(chǎn)品責任屬于無過錯的嚴格責任,只要產(chǎn)品存在缺陷,生產(chǎn)

者就應(yīng)當承擔侵權(quán)責任,無需證明其存在過錯。下面根據(jù)人工智能民

事主體進行分析。

(1)設(shè)計者的歸責原則

我國產(chǎn)品責任法系并無明確規(guī)定人工智能產(chǎn)品設(shè)計者承擔責任,

結(jié)合現(xiàn)行法律暗地里的立法目的及人工智能技術(shù)發(fā)展的實踐經(jīng)驗,人

工智能產(chǎn)品的設(shè)計者合用過錯歸責原則較為合理。

(2)生產(chǎn)者的歸責原則

根據(jù)危(wei)險控制理論和利益既得理論,要求人工智能生產(chǎn)

者承擔無過錯責任,是無庸置疑的。但并非所有的人工智能產(chǎn)品侵

權(quán)案件,其生產(chǎn)者都需要承擔無過錯責任。惟獨在人工智能產(chǎn)品存

在缺陷的情況下,生產(chǎn)者才承擔無過錯責任。

(3)銷售者歸責原則

當人工智能體進入市場流通,在消費者購買后浮現(xiàn)侵權(quán)行為,銷

售者按照我國法律的規(guī)定,承擔過錯責任原則。

(4)使用者或者所有者的歸責原則

在人工智能侵權(quán)案件中,對人工智能產(chǎn)品的使用者合用錯過歸責

原則更貼合侵權(quán)法體系的框架。在人工智能產(chǎn)品侵權(quán)案件中,使用者

是對人工智能產(chǎn)品最直接的控制人,其同樣具備能夠避免危(wei)

險的能力。人工智能產(chǎn)品的生產(chǎn)者需要為創(chuàng)造缺陷產(chǎn)品承擔無過錯

責任,是因為生產(chǎn)者比使用者更熟悉產(chǎn)品的性能與特征,因此對其

要求更高。人工智能產(chǎn)品的使用者雖然有能夠控制危(wei)險源的

能力,能夠預(yù)見和避免侵權(quán)行為的發(fā)生,但對其要求比生產(chǎn)者要低

一些,合用過錯歸責原則更為合理。

(二)人工智能產(chǎn)品中不同主體承擔的具體責任

人工智能侵權(quán)構(gòu)成要素復(fù)雜?,F(xiàn)階段人工智能的技術(shù)框架主要是

以機器學(xué)習(xí)和深度學(xué)習(xí)為中心'構(gòu)建的。從軟件層面,人工智能系統(tǒng)作

出的判斷、決策等行為,實際上是對人工智能模型輸入一定婁好居而得

到的函數(shù)輸出結(jié)果,其基本模型可以用"輸出=人工智能模型(基礎(chǔ)

算法+訓(xùn)練材料)+輸入"表示。[25]侵權(quán)的輸出結(jié)果實際受到

基礎(chǔ)算法、訓(xùn)練材料和輸入行為三個要素的影響,這三個要素可能獨

立導(dǎo)致侵權(quán)結(jié)果,也可能相互作用積累引起侵權(quán),這使得具體侵權(quán)案

件的歸責難度加大。特殊是,現(xiàn)有的司法人員普遍沒有接受過人工智

能技術(shù)相關(guān)培訓(xùn),而技術(shù)人員少有精通法律的,對人工智能侵權(quán)的事

實認定和法律認定都非常艱難。

L設(shè)計者承擔責任

人工智能體設(shè)計者是研發(fā)、設(shè)計人工智能的單位或者個人,設(shè)計

者身為人工智能的啟蒙者,理應(yīng)將其視為自己的"孩子",承擔監(jiān)護

人的替代責任。在設(shè)計者宜以過錯歸責為原則的基礎(chǔ)下,應(yīng)該將風險

合理分擔,不同的階段設(shè)計者承擔的風險責任不同:其一,在研發(fā)人

工智能體期間如果發(fā)生實驗事故或者其他侵權(quán)行為,侵權(quán)責任應(yīng)當由

設(shè)計者獨自承擔嚴格責任,設(shè)計者的主觀惡性不影響對受害者的侵權(quán)

傷害賠償,即有傷害就賠償。其二,當人工智能體投入生產(chǎn)、銷售和

使用時,具體判斷其產(chǎn)品缺陷情況,如前文所述,人工智能體進入流

通時,依當時水平可以被公眾所發(fā)現(xiàn)的缺陷可能性由設(shè)計生產(chǎn)者承擔

過錯責任,對未來不可預(yù)知的風險合用設(shè)計生產(chǎn)者是否盡到合理義務(wù)

的責任。

2、生產(chǎn)者承擔責任

在我國《侵權(quán)責任法》中對產(chǎn)品責任的主體進行了劃分,但是因

為人工智能體具有獨立性、高風險性的特質(zhì),會造成承擔產(chǎn)品責任要

求的主體惟一性合用存在問題。故在分析人工智能體侵權(quán)生產(chǎn)者責任

中,我們可以借鑒德國產(chǎn)品責任模式,具體明確何者承擔生產(chǎn)者責任。

在《德國產(chǎn)品責任法》第1條中規(guī)定,產(chǎn)品責任的承擔主體是產(chǎn)品生

產(chǎn)者,且根據(jù)該法第4條第1款的規(guī)定,產(chǎn)品生產(chǎn)者也包括產(chǎn)品的原

材料和零部件的供應(yīng)商。德國強調(diào)產(chǎn)品的生產(chǎn)分工不能給訴訟中的受

害人造成不利的影響,所以在人工智能體生產(chǎn)過程中的所有參預(yù)主體

都應(yīng)當具備可責性。并且擬制的生產(chǎn)者也應(yīng)當屬于產(chǎn)品責任主體,擬

制的生產(chǎn)者指產(chǎn)品進口商。其承擔責任是由于人工智能體產(chǎn)品屬于高

科技產(chǎn)品,往往會存在從國外進口的現(xiàn)象,因為會存在轉(zhuǎn)賣的情況會

使生產(chǎn)者變得復(fù)雜且難以追查,即使查明責任人也需要艱難的跨國訴

訟過程。下面進行具體分析。

(1)成品的生產(chǎn)者

從生產(chǎn)者的角度來看,那些通過創(chuàng)造及將人工智能產(chǎn)品置于銷售

過程的生產(chǎn)者,把控著產(chǎn)品的整個生產(chǎn)過程,他們了解產(chǎn)品存在的制

作過程及危(wei)險,要求他們保障產(chǎn)品的質(zhì)量是理所應(yīng)當?shù)?。?/p>

人工智能產(chǎn)品存在缺陷,這種由產(chǎn)品所帶來的危(wei)險是人工智

能產(chǎn)品生產(chǎn)者應(yīng)當遇見與避免的。消費者雖然是人工智能產(chǎn)品的占

有人和管理人,但他并不了解人工智能技術(shù)和實際運作的理論,也

不可能對人工智能產(chǎn)品內(nèi)部結(jié)構(gòu)進行改編和控制,相較之下,消費

者對人工智能產(chǎn)品的控制與掌握能力較低,人工智能產(chǎn)品的生產(chǎn)者

基于合同契約精神本就有著保障產(chǎn)品質(zhì)量的義務(wù),若他明知產(chǎn)品存

在缺陷,而放任將產(chǎn)品銷售給消費者。那末消費者因人工智能產(chǎn)品

存在缺陷而導(dǎo)致其權(quán)益受損,這

些人工智能成品的生產(chǎn)者應(yīng)承擔責任。另一方面,這些人工智能產(chǎn)品

的生產(chǎn)者從交易中獲益,要求他來承擔存在缺陷的人工智能產(chǎn)品招致

的責任也是合理的。

(2)次生產(chǎn)者

隨著生產(chǎn)技術(shù)的提高,生產(chǎn)商們大多形成為了流水業(yè)生產(chǎn),大大

提高了生廠過程的專業(yè)化程度,而生產(chǎn)者之間的分工、合作成為了

不可或者缺的一種生廠方式,特殊是機器人、汽車等極具復(fù)雜的產(chǎn)

品的生產(chǎn)與創(chuàng)造,均非單個創(chuàng)造者可以獨立完成,而產(chǎn)品的零部件

通常是由許多關(guān)聯(lián)企業(yè)進行生產(chǎn)的。這些極其精細的人工智能生產(chǎn)

中,明舶是一個/人」\的零部件存在著缺陷,都會導(dǎo)致整個產(chǎn)品的質(zhì)量

浮現(xiàn)問題。而對于產(chǎn)品而言,原材料質(zhì)量的好壞同時也決定著人工

智能產(chǎn)品的整體質(zhì)量的好壞。產(chǎn)品的生產(chǎn)者需要對產(chǎn)品的缺陷承擔

責任,但能證明這些缺陷是由產(chǎn)品的特定原材料、零部件或者半成

品等引起的,受害者當然可以就這部份請求相應(yīng)的生產(chǎn)者承擔賠償

責任。

因此這些次生產(chǎn)者,即原材料的提供者與關(guān)鍵部位零件的生產(chǎn)者

在確定產(chǎn)品是否存在缺陷、如何分擔責任等方面與成品生產(chǎn)者有著同

等的地位。簡而言之,如果人工智能產(chǎn)品的缺陷是由零部件本身的制

造或者設(shè)計所導(dǎo)致的,應(yīng)當將將這些次生產(chǎn)者也納入生產(chǎn)者的范圍中,

承擔侵權(quán)責任。

(3)準生產(chǎn)者

那些將名字、商標、其他識別特征的標示用于人工智能產(chǎn)品之上

的人,可以將其看做是準生產(chǎn)者。因為交易當事人會根據(jù)產(chǎn)品上標有

的標識,如商標、商號、企業(yè)名稱等認定產(chǎn)品是由特定的生產(chǎn)者制

造.既然將他人創(chuàng)造出來的人工智能產(chǎn)品冠以自己的商標或者商號在

市場上出售,也就表明了創(chuàng)造的本意,而且普通民眾也會認為產(chǎn)品

上商標或者商號專屬人是產(chǎn)品的創(chuàng)造者。如果要求消費者在購買產(chǎn)

品前還需要識別產(chǎn)品的真正的創(chuàng)造者,此要求未免過于苛刻。目在

產(chǎn)品上標注自己商標或者企業(yè)商的人本意就是讓消費者產(chǎn)生他就是

產(chǎn)品的創(chuàng)造者。因此這些在人工智能產(chǎn)品上標示自己商標或者商號

的人應(yīng)當以準生產(chǎn)者的方式來承擔生產(chǎn)者的責任。

3、銷售者承擔責任

當人工智能體進入市場流通,在消費者購買后浮現(xiàn)侵權(quán)行為,應(yīng)

按照我國《侵權(quán)責任法》中第42條規(guī)定了銷售者的責任,因銷售者

的過錯使產(chǎn)品存在缺陷,造成他人傷害的,銷售者應(yīng)當承擔侵權(quán)責任。

所以,如果銷售者的原因使人工智能體發(fā)生侵權(quán)行為,銷售者應(yīng)承擔

過錯責任。除銷售者過錯外,其對不能指明存在產(chǎn)品缺陷的人工智能

體的供貨來源,需要替產(chǎn)品的設(shè)計生產(chǎn)者承擔替代責任。同時,如果

因為銷售的配套倉儲或者運輸人員的過錯導(dǎo)致人工智能體發(fā)生侵權(quán)

行為,由該責任主體承擔過錯責任。

4、使用者承擔責任

人工智能體浮現(xiàn)的首要目的是為了更好的服務(wù)人們,帶給消費者

更好的體驗感,其可被視為人們的意志的延伸,人們可以遠程控制人

工智能體去實現(xiàn)不少事情,故存在消費者故意或者過失而導(dǎo)致人工智

能體侵權(quán)行為的發(fā)生。

首先,如果人工智能體的侵權(quán)行為發(fā)生并非因為產(chǎn)品缺陷,而

是使用者自身所導(dǎo)致,那末此時人工智能體的設(shè)計生產(chǎn)者和銷售者就

再也不承擔任]可責任,由使用者承擔責任。

其次,當人工智能所有者與使用者相分離時,其責任主體應(yīng)當是

承租人或者借用人。在人工智能產(chǎn)品出租或者出借的情形下,人工智

能產(chǎn)品的所有者已經(jīng)喪失了對人工智能產(chǎn)品的實際操控,故人工智能

產(chǎn)品運行的風險已實際轉(zhuǎn)移到承租人或者借用人身上。在此過程中,

人工智能產(chǎn)品因侵權(quán)導(dǎo)致他人權(quán)益受損時,也應(yīng)該由人工智能產(chǎn)品的

使用者即承租人或者借用人來承擔。人工智能產(chǎn)品的所有者雖然因

為出租、出借行為獲得部份利益,但他對此后人工智能產(chǎn)品運行中

的風險是無法預(yù)測的,也無控制,如果因此要求人工智能產(chǎn)品所有者

對這部分侵權(quán)承擔責任,顯然有失公平。同樣,在發(fā)生盜竊、搶劫

或者搶奪情形時,導(dǎo)致人工智能產(chǎn)品的實際控制人發(fā)生并更時,應(yīng)

當由盜竊人、搶劫人或者搶奪人承擔侵權(quán)責任。

5、所有者承擔責任

在人工智能產(chǎn)品脫離其所有者控制后,其所有者并非徹底不承

擔侵權(quán)責任。當人工智能產(chǎn)品的所有者對侵權(quán)傷害結(jié)果的發(fā)生存在過

錯時,他應(yīng)該就其過錯承擔相應(yīng)的責任。而人工智能產(chǎn)品所有者對人

工智能侵權(quán)行為承擔責任的情況主要有以下兩種:

一是在出租、出借之前人工智能產(chǎn)品已存在缺陷或者自行改裝人

工智能產(chǎn)品。人工智能所有者明知人工智能產(chǎn)品存在缺陷會增加危(

wei)險仍出租、出借給承租人或者借用人,或者所有者私自改變?nèi)?/p>

工智能產(chǎn)品的程序、性能等改裝行為可能引起侵權(quán)事故發(fā)生的,人

工智能產(chǎn)品的所有者都應(yīng)該承擔相應(yīng)的責任。

二是人工智能所有者明知承租人或者出租人沒有運作人工智能產(chǎn)

品的資質(zhì)仍出租或者出借。像操作無人機、自動駕駛車輛等都一部份

的人工智能產(chǎn)品,都需要使用者具備相應(yīng)的資質(zhì),若人工智能的所

有者在

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論