關(guān)于人工智能創(chuàng)作物侵權(quán)責(zé)任承擔(dān)機制的構(gòu)想獲獎科研報告_第1頁
關(guān)于人工智能創(chuàng)作物侵權(quán)責(zé)任承擔(dān)機制的構(gòu)想獲獎科研報告_第2頁
關(guān)于人工智能創(chuàng)作物侵權(quán)責(zé)任承擔(dān)機制的構(gòu)想獲獎科研報告_第3頁
全文預(yù)覽已結(jié)束

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認(rèn)領(lǐng)

文檔簡介

關(guān)于人工智能創(chuàng)作物侵權(quán)責(zé)任承擔(dān)機制的構(gòu)想獲獎科研報告摘

要:科學(xué)技術(shù)的進步,使得人工智能深度學(xué)習(xí)的能力不斷提高,出現(xiàn)了眾多極富藝術(shù)價值和觀賞價值的人工智能創(chuàng)作物。加深對人工智能創(chuàng)作物知識產(chǎn)權(quán)領(lǐng)域問題研究的過程中,關(guān)于人工智能創(chuàng)作物出現(xiàn)侵犯知識產(chǎn)權(quán)情形時應(yīng)如何劃分并承擔(dān)侵權(quán)責(zé)任成為對AI創(chuàng)作物實施產(chǎn)權(quán)保護的難點?;谌斯ぶ悄軇?chuàng)作物著作權(quán)應(yīng)歸于人的前期研究,提出結(jié)合工業(yè)免責(zé)條款、保險制度和黑匣子技術(shù)等方式解決人工智能創(chuàng)作物侵權(quán)責(zé)任承擔(dān)問題的構(gòu)想。

關(guān)鍵詞:人工智能;創(chuàng)作物;知識產(chǎn)權(quán);侵權(quán)責(zé)任

一、人工智能創(chuàng)作物侵權(quán)問題的界定

在知識產(chǎn)權(quán)領(lǐng)域內(nèi),筆者認(rèn)為不應(yīng)賦予人工智能以主體地位,而是應(yīng)將人工智能創(chuàng)作物的著作權(quán)歸屬于特定的人(自然人、法人和其他組織)。同時,權(quán)利和義務(wù)的統(tǒng)一性意味著不能僅對人工智能創(chuàng)作物的著作權(quán)歸屬加以明確,還需要對義務(wù)主體及責(zé)任承擔(dān)方式進行研究。

筆者在研究中發(fā)現(xiàn),學(xué)者馬忠法等認(rèn)為人工智能在學(xué)習(xí)創(chuàng)作過程中對他人作品數(shù)據(jù)的使用可能會在現(xiàn)行法律下構(gòu)成侵權(quán)[1],提出了人工智能學(xué)習(xí)創(chuàng)作過程中侵權(quán)問題解決規(guī)范的完善方案。因此,本文探討的人工智能創(chuàng)作物侵權(quán)問題是指人工智能創(chuàng)作物公之于眾后,侵犯到他人知識產(chǎn)權(quán)時,責(zé)任應(yīng)該由開發(fā)者、使用者、所有者哪一方來承擔(dān)以及如何承擔(dān)的問題。雖然部分人工智能研究團隊已經(jīng)為創(chuàng)作型人工智能編寫了對抗算法,以避免在創(chuàng)作過程中和其他作品出現(xiàn)高度相似,而不具備先進對抗算法的創(chuàng)作型人工智能存在將他人作品中的內(nèi)容刪改、復(fù)制甚至演繹的可能性。

二、人工智能創(chuàng)作物侵權(quán)責(zé)任承擔(dān)機制構(gòu)想

人工智能產(chǎn)品具有特殊性,從人工智能進行“創(chuàng)作”的角度來看,筆者認(rèn)為應(yīng)將其著作權(quán)歸屬于人以確保產(chǎn)權(quán)激勵機制更好發(fā)揮作用,但是因具備創(chuàng)作能力的人工智能創(chuàng)作物引發(fā)侵權(quán),需承擔(dān)不利后果時,仍讓人來承擔(dān)這種不具備國民預(yù)測可能性的財產(chǎn)、名譽風(fēng)險有失公允。此外,因人工智能具有自主性且涉及生產(chǎn)、使用、所有等多種環(huán)節(jié),其發(fā)生侵權(quán)的原因也是多樣且復(fù)雜的,這也就導(dǎo)致侵權(quán)事件往往會伴隨著責(zé)任界定困難、舉證困難等問題。筆者就此針對人工智能創(chuàng)作物侵權(quán)問題提出如下構(gòu)想。

(一)開發(fā)者與所有者責(zé)任界定

人工智能創(chuàng)作物可能侵犯到他人知識產(chǎn)權(quán)的一點主要原因是人工智能系統(tǒng)本身存在瑕疵。人工智能作為一種軟件系統(tǒng),無論是否進行物理外化,其在知識產(chǎn)權(quán)領(lǐng)域內(nèi)引發(fā)的侵權(quán)問題只能根源于軟件數(shù)據(jù)本身。隨著人工智能產(chǎn)業(yè)的不斷發(fā)展壯大,區(qū)別于以往基于數(shù)據(jù)收集、匯總能力開發(fā)的人工智能軟件,具備更高水平“創(chuàng)作”能力的人工智能產(chǎn)品將被生產(chǎn)出來。如果產(chǎn)權(quán)保護是相關(guān)法規(guī)實施之前發(fā)生的侵權(quán)問題,則應(yīng)使用“溯及力”的相關(guān)規(guī)定,不進行規(guī)制。如果實施了產(chǎn)權(quán)保護相關(guān)法規(guī)后發(fā)生了侵權(quán)問題,那么自然應(yīng)該納入法律規(guī)制范圍內(nèi)。

在此基礎(chǔ)上,如果是因為開發(fā)者在軟件開發(fā)階段造成的不可預(yù)見的非主觀程序瑕疵導(dǎo)致作品侵權(quán)的,可參考工業(yè)產(chǎn)品的免責(zé)條款,既《中華人民共和國產(chǎn)品質(zhì)量法》第四十一條。因為在人工智能產(chǎn)業(yè)發(fā)展初期,很多問題因限于當(dāng)前技術(shù)水平難以攻克,而不應(yīng)追究開發(fā)者的責(zé)任。

(二)使用者與所有者責(zé)任界定

雖然現(xiàn)階段具備“創(chuàng)作”能力的人工智能的開發(fā)者、使用者、所有者為同一人,但隨著人工智能產(chǎn)業(yè)的發(fā)展與產(chǎn)品的普及,三種身份分離將成為常態(tài)。在使用者與所有者不為同一人時,如果使用者是故意造成的程序漏洞或直接造成侵權(quán)結(jié)果的,應(yīng)同上文所說以其自己的身份和財產(chǎn)承擔(dān)相關(guān)的法律責(zé)任。但如果使用者或所有者是因操作過失導(dǎo)致的人工智能創(chuàng)作物侵犯到他人知識產(chǎn)權(quán)時,責(zé)任又該怎樣分配?

1.保險制度在人工智能創(chuàng)作物侵權(quán)損害問題中的應(yīng)用

有關(guān)人工智能侵犯產(chǎn)權(quán)后的權(quán)利與義務(wù)的分配必須處在一個合理的區(qū)間內(nèi),因人工智能自身的技術(shù)含量較高,當(dāng)因過失操作導(dǎo)致侵權(quán)損害問題發(fā)生時不應(yīng)給予所有者或使用者過重的負(fù)擔(dān)。為實現(xiàn)保證人工智能產(chǎn)業(yè)發(fā)展與維護公平正義兩大目標(biāo),筆者認(rèn)為商業(yè)保險是為人工智能創(chuàng)作物的著作權(quán)主體減少侵權(quán)風(fēng)險的有效方法之一。

支持人格擬制說的學(xué)者曾談到:“為分散風(fēng)險,可以為人工智能建立保險機制。在人工智能被創(chuàng)造之后為其購買保險,一旦在人工智能需要承擔(dān)責(zé)任時由保險公司進行賠償”[2]。雖然這是人格擬制說涵蓋的賠償方法之一,但卻不影響保險責(zé)任制度在不賦予人工智能主體資格體系下的合理運用。筆者認(rèn)為,可以創(chuàng)制“人工智能創(chuàng)作物侵權(quán)損害賠償險”,由人工智能的使用者或所有者自愿購買,發(fā)生上述情況的侵權(quán)情形時依照保險合同進行賠付。這樣既可以保障被侵權(quán)人的合法權(quán)益,同時也避免了讓使用者或所有者因過失而承擔(dān)過多侵權(quán)負(fù)擔(dān),能夠較好保障人工智能產(chǎn)業(yè)的健康發(fā)展。

2.黑匣子在人工智能創(chuàng)作物侵權(quán)損害問題中的應(yīng)用

在進行上述討論的過程中,有一個關(guān)鍵性問題有待解決,既如何界定責(zé)任應(yīng)歸于開發(fā)者、所有者、使用者中的哪一方,以及如何界定是故意還是過失。正如上文提到的那樣,人工智能本身是一種計算機軟件,其“創(chuàng)作”過程就是對編程的運算過程。這也就意味著唯一能夠界定其侵權(quán)責(zé)任的客觀依據(jù)就是程序使用與運算的記錄,而要實現(xiàn)這一目的,可以借助黑箱技術(shù),也就是人們常說的“黑匣子”。人工智能由于自身的自主性和不可預(yù)測性太強,對事實真?zhèn)蔚牟槊鞔嬖诤芏嗳毕?。類似于“黑匣子”的?shù)據(jù)流記錄工具不僅可以記錄人工智能的操作過程,而且其內(nèi)部的信息記錄可以幫助查明出錯的環(huán)節(jié),從而更好地進行責(zé)任界定與分配。但黑匣子軟件或硬件應(yīng)當(dāng)與人工智能同時投入使用,并且安裝的裝配責(zé)任應(yīng)當(dāng)由生產(chǎn)者承擔(dān)。這就需要未來的人工智能行業(yè)自律組織制定相關(guān)行業(yè)標(biāo)準(zhǔn),強制要求出廠時裝配“創(chuàng)作記錄器”。在舉證責(zé)任方面可以借鑒民事訴訟的舉證證明規(guī)則,由受害者提出侵權(quán)事實證明,而所有者應(yīng)當(dāng)提供黑箱子記錄事實,如不提供或者有采取毀壞的事實,則在

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論