強(qiáng)弱人工智能下的刑事責(zé)任主體探究(word版)_第1頁
強(qiáng)弱人工智能下的刑事責(zé)任主體探究(word版)_第2頁
強(qiáng)弱人工智能下的刑事責(zé)任主體探究(word版)_第3頁
強(qiáng)弱人工智能下的刑事責(zé)任主體探究(word版)_第4頁
強(qiáng)弱人工智能下的刑事責(zé)任主體探究(word版)_第5頁
已閱讀5頁,還剩10頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

1、 精編范文 強(qiáng)弱人工智能下的刑事責(zé)任主體探究溫馨提示:本文是筆者精心整理編制而成,有很強(qiáng)的的實(shí)用性和參考性,下載完成后可以直接編輯,并根據(jù)自己的需求進(jìn)行修改套用。強(qiáng)弱人工智能下的刑事責(zé)任主體探究 本文關(guān)鍵詞:人工智能, 強(qiáng)弱, 刑事責(zé)任, 探究, 主體強(qiáng)弱人工智能下的刑事責(zé)任主體探究 本文簡介:摘要:近年來,人工智能發(fā)展方興未艾,其所涉及的法律風(fēng)險(xiǎn)問題也開始顯現(xiàn)?;艚鹪赋?人工智能的迅猛發(fā)展,其可能產(chǎn)生自我意識(shí)和自主判斷,最終超越人類的人工智能有可能奴役人類甚至導(dǎo)致人類死亡。在比較分析強(qiáng)人工智能刑事責(zé)任主體肯定說和否定說的基礎(chǔ)上,強(qiáng)弱人工智能下的刑事責(zé)任主體探究 本文內(nèi)容:摘 要:近年來,

2、人工智能發(fā)展方興未艾, 其所涉及的法律風(fēng)險(xiǎn)問題也開始顯現(xiàn)?;艚鹪赋? 人工智能的迅猛發(fā)展, 其可能產(chǎn)生自我意識(shí)和自主判斷, 最終超越人類的人工智能有可能奴役人類甚至導(dǎo)致人類死亡。在比較分析強(qiáng)人工智能刑事責(zé)任主體肯定說和否定說的基礎(chǔ)上, 對(duì)人工智能發(fā)展所帶來社會(huì)風(fēng)險(xiǎn)有可能拓寬責(zé)任主體范圍, 增加處罰危險(xiǎn)犯等問題進(jìn)行前瞻性反思。當(dāng)前, 人類尚處于弱人工智能時(shí)代, 應(yīng)當(dāng)強(qiáng)調(diào)刑法的謙抑性, 在變革與秩序、創(chuàng)新與守護(hù)之間把握動(dòng)態(tài)平衡;同時(shí)積極響應(yīng)我國人工智能發(fā)展規(guī)劃的要求, 促進(jìn)有關(guān)人工智能發(fā)展的法律法規(guī)建設(shè), 以期能夠進(jìn)一步有效完善刑事防控系統(tǒng)。關(guān)鍵詞:人工智能; 刑事責(zé)任主體; 刑事風(fēng)險(xiǎn); 犯罪;

3、Abstract:In recent years, the development of artificial intelligence has been in the ascendant, and the legal risk issues involved have begun to emerge. Hawking once pointed out that the rapid development of artificial intelligence may produce self-awareness and self-determination. Ultimately, artif

4、icial intelligence beyond human beings may enslave humans and even cause human death. On the basis of comparative analysis of affirmative theory and negative theory of criminal liability subject of strong artificial intelligence, the authors make a prospective reflection on the social risks brought

5、by the development of artificial intelligence, which may widen the scope of liability subject and increase the punishment of dangerous offenders. At present, human beings are still in the era of weak artificial intelligence. We should emphasize the modesty of criminal law, grasp the dynamic balance

6、between change and order, innovation and guardianship. At the same time, it actively responds to the requirements of the development plan of artificial intelligence in China and promotes the construction of laws and regulations concerning the development of artificial intelligence in order to furthe

7、r improve the criminal prevention and control system effectively.Keyword:artificial intelligence; criminal liability subject; criminal risk; crime;隨著科技的不斷發(fā)展, 近年來人工智能呈爆發(fā)式增長。20_年年初, 新一代人工智能發(fā)展規(guī)劃正式頒布, 當(dāng)中明確指出, 20_-2030年人工智能發(fā)展戰(zhàn)略目標(biāo)三步走1。20_年10月, 國家政治局再次召開集體學(xué)習(xí), 學(xué)習(xí)的主題是人工智能的發(fā)展現(xiàn)狀與發(fā)展前景, 中共中央, 國家主席_在學(xué)習(xí)中提到, 必須把人工智

8、能的發(fā)展放在國家戰(zhàn)略層面, 把握主動(dòng)2。20_年11月20日下午, 以人工智能快速發(fā)展下的先進(jìn)制造研發(fā)基地建設(shè)和世界智能大會(huì)為主題的理論創(chuàng)新論壇在天津市社科聯(lián)舉行, 該論壇圍繞人工智能發(fā)展中的理論焦點(diǎn)、實(shí)踐難點(diǎn)、發(fā)展重點(diǎn)展開交流, 并承諾將以此次論壇為開端, 依托社科界和智庫廣泛專家資源優(yōu)勢(shì), 凝聚管學(xué)研業(yè)界眾力, 為天津人工智能產(chǎn)業(yè)發(fā)展服務(wù), 助力天津先進(jìn)制造研發(fā)基地高水平建設(shè), 助推世界智能大會(huì)提升人文品質(zhì), 為五個(gè)現(xiàn)代化天津建設(shè)貢獻(xiàn)力量。當(dāng)前在人工智能發(fā)展中, 其所涉及的法律風(fēng)險(xiǎn)問題也開始顯現(xiàn)?;艚鹫J(rèn)為, 人工智能的迅猛發(fā)展, 其可能產(chǎn)生自我意識(shí)和自主判斷, 最終超越人類的人工智能有可能

9、奴役人類甚至導(dǎo)致人類死亡3。20_年7月德國大眾汽車制造廠機(jī)器人在被安裝和調(diào)制過程中將工人重重壓向金屬板, 最終導(dǎo)致這名工人因傷重不治身亡;20_年11月我國深圳高交會(huì)上參展的機(jī)器人小胖在移動(dòng)時(shí)將展臺(tái)玻璃碰倒, 劃傷了觀眾;20_年3月美國亞利桑那州一輛Uber自動(dòng)駕駛汽車以64公里的時(shí)速撞向一名橫穿馬路的女性, 造成該女性不治身亡, 這是全球首起自動(dòng)駕駛汽車撞死人類的事故這一系列的機(jī)器人致人傷害或死亡的事件, 其刑事責(zé)任認(rèn)定問題引起理論界和實(shí)務(wù)界廣泛關(guān)注。20_年, 關(guān)于機(jī)器人民事法律規(guī)則的決議在歐洲各國的議會(huì)上以高票數(shù)通過, 決議中明確指出, 自主機(jī)器人一旦引發(fā)事故, 必須承擔(dān)起相應(yīng)的責(zé)任

10、, 但前提是要認(rèn)可機(jī)器人作為電子人的法律地位。只有這樣, 一旦發(fā)生由機(jī)器人引發(fā)的事故或造成的損害時(shí), 才能根據(jù)機(jī)器人的行為能力以及電子人格進(jìn)行責(zé)任判定4。國務(wù)院發(fā)布的新一代人工智能發(fā)展規(guī)劃中提到, 人工智能的發(fā)展不能放任自由, 必須正確引導(dǎo), 機(jī)器人雖然與正常人不同, 但同樣具備獨(dú)立的人格, 應(yīng)當(dāng)擁有一定的權(quán)利, 同時(shí)需要履行相應(yīng)的義務(wù)。為此, 我國部分學(xué)者提出, 從法律上認(rèn)可人工智能系統(tǒng)作為一個(gè)電子人的地位, 是大力發(fā)展人工智能的必然要求5。學(xué)界對(duì)人工智能的界定, 簡單來說, 就是通過先進(jìn)的科學(xué)技術(shù), 賦予機(jī)器人靈活的大腦, 使其能夠按照指令完成任務(wù)。但是, 一直以來, 我國學(xué)者對(duì)人工智能的

11、類型劃分存在不同觀點(diǎn):有學(xué)者提出兩分法, 指出人工智能應(yīng)當(dāng)按照強(qiáng)弱進(jìn)行劃分6;有學(xué)者提出三分法, 即將人工智能劃分為三個(gè)等級(jí), 即超人工智能, 強(qiáng)人工智能和弱人工智能。弱人工智能只能從事某方面的技術(shù)或操作1, 比如戰(zhàn)勝了世界圍棋冠軍的阿爾法狗;強(qiáng)人工智能在各個(gè)領(lǐng)域都擁有與人類同等的智慧, 具有獨(dú)立解決問題的能力;超人工智能是在所有領(lǐng)域都超越人類大腦的超人工智能體;還有學(xué)者提出再生智能這一概念, 將是否具有再生智能作為區(qū)分強(qiáng)弱人工智能的標(biāo)準(zhǔn)。弱人工智能依賴于機(jī)器研發(fā)者事先預(yù)設(shè)的程序, 不具備自我學(xué)習(xí)和創(chuàng)造的能力, 不具備再生智能;強(qiáng)人工智能是指具備自我學(xué)習(xí)和創(chuàng)造功能, 不僅僅依據(jù)研發(fā)者事先預(yù)設(shè)的

12、程序和機(jī)理, 自我能夠創(chuàng)設(shè)新智能的智能產(chǎn)品8。筆者贊同二分法, 仿照自然人所具有的的辨認(rèn)能力和控制能力來進(jìn)行強(qiáng)弱人工智能分類。一、弱人工智能非刑事責(zé)任主體弱人工智能只是在設(shè)計(jì)和編制的程序范圍內(nèi)進(jìn)行活動(dòng), 其實(shí)現(xiàn)的只是設(shè)計(jì)者或使用者預(yù)先設(shè)定好的程序算法, 因其不具有辨認(rèn)能力和控制能力, 只能將其視為智能工具, 其不具有刑事責(zé)任主體資格, 無法獨(dú)立承擔(dān)刑事責(zé)任。以自動(dòng)駕駛機(jī)動(dòng)車為例, 按照目前通用的自動(dòng)駕駛機(jī)動(dòng)車的技術(shù)標(biāo)準(zhǔn), 自動(dòng)駕駛機(jī)動(dòng)車的分級(jí)為L1-5級(jí), 但即便是最高級(jí)的完全自動(dòng)駕駛機(jī)動(dòng)車, 也無法成為獨(dú)立的刑事責(zé)任主體, 因?yàn)槠渫耆詣?dòng)駕駛的所有指令都是由人類開發(fā)者根據(jù)提前設(shè)計(jì)好的程序算法

13、發(fā)出的, 其只需要借助車身上裝載好的激光測(cè)距儀、雷達(dá)、傳感器等根據(jù)實(shí)際情況來履行程序指令就可達(dá)到完全自動(dòng)駕駛。20_年5月7日, 一輛20_年版ModelS拓速樂牌轎車與一輛拖掛車輛在美國佛羅里達(dá)州一段高速公路上相撞, 導(dǎo)致駕駛員死亡。根據(jù)20_年美國國家公路交通安全管理局發(fā)布的機(jī)動(dòng)車自動(dòng)化標(biāo)準(zhǔn), 該事故汽車屬于L2級(jí)自動(dòng)駕駛汽車 (部分自動(dòng)駕駛機(jī)動(dòng)車) 。按照L2級(jí)自動(dòng)駕駛機(jī)動(dòng)車劃分的依據(jù), 該車的輔助駕駛系統(tǒng)還不能識(shí)別所有的道路交通危險(xiǎn), 不能代替駕駛員直接駕駛, 因而在使用輔助駕駛功能時(shí), 操控者依然為駕駛員, 其仍需維持高度警惕性, 盡管其本人不直接操控車輛, 車輛卻始終是處于其監(jiān)管下

14、的, 主要責(zé)任仍歸屬于該車輛的駕駛員9。據(jù)相關(guān)調(diào)查, 該車不存在設(shè)計(jì)缺陷和制造缺陷, 所以該事故責(zé)任不能歸責(zé)于機(jī)動(dòng)車本身, 也不能歸責(zé)于研發(fā)者、生產(chǎn)者, 只能由該機(jī)動(dòng)車駕駛員對(duì)安全行駛負(fù)全部責(zé)任。目前人類尚處于弱人工智能時(shí)代, 人工智能產(chǎn)品作為智能工具所造成的刑事責(zé)任問題主要有以下幾種情況:其一, 行為人 (研發(fā)者/使用者) 故意利用弱人工智能產(chǎn)品實(shí)施犯罪的情形。研發(fā)者在弱人工智能產(chǎn)品出廠前就已經(jīng)在其系統(tǒng)中植入了類似于犯罪計(jì)劃的程序, 且使用者并不知情, 也從未想過利用該智能產(chǎn)品實(shí)施犯罪, 那么只要弱人工智能產(chǎn)品實(shí)施了該程序所預(yù)設(shè)的犯罪行為, 所有的刑事責(zé)任都應(yīng)當(dāng)由研發(fā)者承擔(dān)。另一種情況, 研

15、發(fā)者和使用者共謀利用弱人工智能產(chǎn)品實(shí)施犯罪行為, 此時(shí)可參考共同犯罪, 由研發(fā)者和使用者共同承擔(dān)刑事責(zé)任。還有一種情況, 研發(fā)者在弱人工智能產(chǎn)品出廠前盡到了合理的注意義務(wù), 且其無法預(yù)見出廠后該智能產(chǎn)品會(huì)造成危害結(jié)果, 該人工智能產(chǎn)品實(shí)施危害行為是使用者故意為之, 所有的刑事責(zé)任應(yīng)當(dāng)由使用者來承擔(dān)。其二, 行為人過失致使弱人工智能產(chǎn)品犯罪的情形。這里的過失指的是弱人工智能產(chǎn)品的研發(fā)者或使用者違反了預(yù)見義務(wù)。在使用或研發(fā)弱人工智能產(chǎn)品時(shí), 人工智能技術(shù)可以避免危害結(jié)果的發(fā)生的情況下, 研發(fā)者及使用者仍需肩負(fù)相應(yīng)的責(zé)任及義務(wù), 最終未預(yù)見或已經(jīng)預(yù)見卻輕信能夠避免而導(dǎo)致危害結(jié)果的發(fā)生, 表明一般過失

16、犯罪成立, 研發(fā)者或使用者應(yīng)承擔(dān)刑事責(zé)任10。其三, 在研發(fā)或使用弱人工智能產(chǎn)品時(shí), 人工智能技術(shù)無法避免危害結(jié)果的發(fā)生。在該情形下, 智能機(jī)器人的研發(fā)者或使用者已經(jīng)盡到了合理的注意義務(wù)卻仍未能避免危害結(jié)果的發(fā)生, 所造成的危害結(jié)果不能由二者承擔(dān)。有學(xué)者提出, 此種情形可以參照民法中的嚴(yán)格責(zé)任, 人工智能產(chǎn)品的研發(fā)者或使用者成立監(jiān)督過失犯罪。筆者認(rèn)為, 不能參照民法中的嚴(yán)格責(zé)任認(rèn)定研發(fā)者或使用者成立監(jiān)督過失犯罪。一是因?yàn)樾谭ú煌诿穹? 民法中的嚴(yán)格責(zé)任也稱為無過錯(cuò)責(zé)任, 而刑法則遵循罪、責(zé)、刑相適應(yīng)原則, 無過錯(cuò)也即既無故意也無過失, 強(qiáng)加其二者無過錯(cuò)的刑事責(zé)任是不合理的;二是將所有責(zé)任都?xì)w

17、于研發(fā)者和使用者, 無疑會(huì)阻礙人工智能產(chǎn)業(yè)的發(fā)展, 使得研發(fā)者因忌憚法律風(fēng)險(xiǎn)而無法致力于創(chuàng)新, 使用者因畏懼承擔(dān)法律責(zé)任而不敢購買使用人工智能產(chǎn)品, 導(dǎo)致人工智能產(chǎn)業(yè)喪失發(fā)展活力。在弱人工智能時(shí)代, 無論行為人是故意利用人工智能實(shí)施犯罪行為, 還是由于過失而致使人工智能實(shí)施犯罪行為, 都僅是把人工智能產(chǎn)品視作智能工具。為加強(qiáng)刑事風(fēng)險(xiǎn)防控, 劉憲權(quán)教授提出, 未來我國刑法的改造可從下述幾方面入手:第一, 從源頭防控風(fēng)險(xiǎn):增設(shè)濫用人工智能罪;第二, 確立嚴(yán)格責(zé)任:增設(shè)人工智能事故罪11;第三, 適時(shí)考慮賦予強(qiáng)人工智能機(jī)器人刑事責(zé)任主體的地位12。而馬榮春教授認(rèn)為, 人工智能在實(shí)質(zhì)上不具有受刑能力,

18、 在人工智能造成損害的場(chǎng)合根本不存在刑事意義上針對(duì)其本身的處罰空隙問題13。目前AI應(yīng)用領(lǐng)域中, 最為成熟的當(dāng)屬無人駕駛技術(shù)與智能醫(yī)療技術(shù), 兩者對(duì)人們的生活及安全有極大影響, 故應(yīng)受到高度關(guān)注, 在上述AI應(yīng)用領(lǐng)域, 駕駛與手術(shù)的過程作為行為主體的人已被虛化, 并無實(shí)質(zhì)的參與行為。人退居二線, 如果基于無行為則無犯罪原則, 使刑事責(zé)任主體無從可尋。查證AI的主觀罪過也是技術(shù)上的偽命題。所有的人在智能駕駛時(shí)代都成為潛在被害者, 傳統(tǒng)的行為主體消失, 將刑事歸責(zé)完全轉(zhuǎn)嫁到智能技術(shù)或智能汽車提供商顯失公平。筆者認(rèn)為, 應(yīng)當(dāng)堅(jiān)持技術(shù)中立, 為防控刑法風(fēng)險(xiǎn), 應(yīng)當(dāng)推行強(qiáng)制保險(xiǎn)制度來平衡用戶和生產(chǎn)商雙方

19、的利害關(guān)系, 加強(qiáng)被害人的救助補(bǔ)償制度14。二、強(qiáng)人工智能刑事主體肯定說隨著尖端科技日新月異的發(fā)展, 未來的機(jī)器人在很大幾率上會(huì)在無人介入的情境下做出系統(tǒng)算法中本無設(shè)定的行為。此時(shí)人工智能產(chǎn)品所做出的種種行為, 有些并非是設(shè)計(jì)及制作過程設(shè)定的, 而是具體操作時(shí)發(fā)生的變動(dòng), 這些變動(dòng)都是難以預(yù)估的, 且是結(jié)合當(dāng)下的實(shí)際需求重新設(shè)定而做出的。所謂的強(qiáng)人工智能, 實(shí)際上就是能夠決策及實(shí)施的行為不屬于設(shè)計(jì)及編程范疇的人工智能。當(dāng)強(qiáng)人工智能產(chǎn)品開始不受人類監(jiān)管時(shí), 其在運(yùn)轉(zhuǎn)過程中可能會(huì)造成的對(duì)社會(huì)對(duì)個(gè)人的法益上的侵害結(jié)果, 最終承擔(dān)責(zé)任的對(duì)象應(yīng)是誰, 在刑法中并未明晰, 在此情況下, 就必須專門頒布機(jī)器

20、人刑法。為了防止未來AI對(duì)人類法益實(shí)際產(chǎn)生侵害, 國內(nèi)外很多學(xué)者提出人工智能獨(dú)立承擔(dān)刑事責(zé)任的觀點(diǎn) (下稱獨(dú)立責(zé)任承擔(dān)說) 。獨(dú)立責(zé)任承擔(dān)說的核心依據(jù)是AI符合施加刑事責(zé)任的內(nèi)部要素, 即獨(dú)立的控制能力與可培養(yǎng)的辨認(rèn)能力。獨(dú)立責(zé)任承擔(dān)說為AI設(shè)定了有針對(duì)性的刑罰措施。這包括對(duì)AI懲處罰金刑;對(duì)AI施以自由刑;對(duì)AI施加死刑, 包括對(duì)軀體的永久銷毀和對(duì)AI的數(shù)據(jù)予以刪除15。具體而言, 獨(dú)立責(zé)任承擔(dān)說主要觀點(diǎn)如下:(一) 強(qiáng)人工智能符合刑法所規(guī)定的犯罪主體的條件根據(jù)我國刑法的規(guī)定, 只要實(shí)施了能夠?qū)ι鐣?huì)產(chǎn)生危害的行為且具備刑事責(zé)任能力, 即自我控制和辨認(rèn)能力就能夠成為抽象的犯罪主體, 至于應(yīng)受刑

21、罰處罰承擔(dān)責(zé)任則是來源于罪刑法定原則, 是立法者在肯定了強(qiáng)人工智能產(chǎn)品具備刑事責(zé)任能力并能夠?qū)嵤┚哂猩鐣?huì)危害性的行為之后在立法上的選擇與回應(yīng), 所以是否能夠?qū)嵤┪:ι鐣?huì)的行為且具備刑事責(zé)任能力才是決定人工智能產(chǎn)品能否成為犯罪主體的本質(zhì)要件16。毋庸置疑, 超出設(shè)計(jì)和編制程序的強(qiáng)人工智能能夠自主決策, 且能夠基于自主意志實(shí)施具有社會(huì)危害性的行為, 滿足成為犯罪主體的兩個(gè)條件, 應(yīng)當(dāng)成為受刑法規(guī)制的犯罪主體。(二) 強(qiáng)人工智能的行為是刑法意義上的行為站在歷史的長河中, 循著行為理論與時(shí)俱進(jìn)的發(fā)展歷程來看, 當(dāng)中較為典型且有代表性的包含目的行為、社會(huì)行為、因果行為、自然行為等理論, 這些理論是基于人

22、的基礎(chǔ)上, 以人的行為作為基礎(chǔ)而構(gòu)建17, 偉大的哲學(xué)家, 思想家馬克思曾說:法律的對(duì)象并不是人, 而是人的行為。由此可見, 法律是建立在人的行為基礎(chǔ)上的, 而行為又應(yīng)如何定性?行為是否必須是人的行為?然而, 對(duì)于人的行為的討論, 是否同樣適用于人工智能系統(tǒng)呢?雖然人工智能系統(tǒng)與正常人有所不同, 但事實(shí)上, 盡管人工智能系統(tǒng)不屬于生命體, 但它的其余要素與行為理論完全吻合18。因此, 賦予強(qiáng)人工智能機(jī)器人刑事主體資格是具有現(xiàn)實(shí)可能性的。(三) 承認(rèn)強(qiáng)人工智能刑事主體能力, 具有一定的社會(huì)治理意義法律是案件判決的直接依據(jù), 對(duì)違法犯罪行為進(jìn)行懲罰, 本質(zhì)上是為了預(yù)防犯罪, 這種預(yù)防又可分為特殊預(yù)

23、防與一般預(yù)防。一般認(rèn)為, 特殊預(yù)防的目的在于通過刑罰限制、剝奪犯罪主體的再犯能力, 實(shí)現(xiàn)威懾與再社會(huì)化功能;而一般預(yù)防則是通過對(duì)犯罪人適用刑罰向一般社會(huì)主體宣告, 犯罪就必須受罰, 向一般社會(huì)主體施壓及震懾, 從根源上杜絕犯罪行為的產(chǎn)生。強(qiáng)人工智能產(chǎn)品, 雖然不具有人類的生物體征和肉體上的痛感, 但其擁有自我控制與辨認(rèn)能力, 如若對(duì)其進(jìn)行剝奪自由、毀損等處罰, 其也會(huì)感到痛苦、自責(zé)與憤懣, 并且人工智能的核心數(shù)據(jù)庫都是同步即時(shí)更新的, 其他的人工智能犯罪人受到處罰, 強(qiáng)人工智能產(chǎn)品也會(huì)受到威懾與教育, 從而整體在人工智能產(chǎn)品中減少再犯率與犯罪率, 以實(shí)現(xiàn)刑罰預(yù)防的功能與目的19。三、強(qiáng)人工智能

24、刑事主體否定說否定說認(rèn)為, 強(qiáng)人工智能所具備的自我學(xué)習(xí)能力是人類所賦予的, 不應(yīng)將其神圣化。是人類用他們已知的技術(shù)將一些材料組合起來再輔以核心算法創(chuàng)造了目前我們稱之為人工智能的東西, 人工智能創(chuàng)造之初, 就是為了便捷人類的生活, 其地位在創(chuàng)造之初就已經(jīng)被設(shè)定, 如若賦予其類人的法律地位, 無疑是否定了人類最初的構(gòu)想, 也不利于人類的可持續(xù)發(fā)展。人工智能的思維程序是機(jī)械式不帶有情感的, 雖然其具備辨認(rèn)和控制能力, 能夠自主根據(jù)不同情況實(shí)施行為, 但其仍舊無法感知、理解自身行為的意義, 其執(zhí)行任務(wù)的基點(diǎn)仍是冷冰冰的代碼, 無法像人類一樣基于某種特殊的情感而做出某種行為。如小米系統(tǒng)中的小愛同學(xué)、蘋果

25、系統(tǒng)的Siri等等, 對(duì)于閱讀的內(nèi)容具體為什么意思, 這些人工智能并不了解, 因各智能程序間存在的差異性使其無法學(xué)習(xí)、交流, 且各程序的本體及知識(shí)表現(xiàn)形式也具有較大差異20。否定說指出, 人工智能獨(dú)立承擔(dān)刑事責(zé)任不具有理論自洽性, 強(qiáng)人工智能不能成為刑事責(zé)任主體, 其主要理由如下:(一) 法律主體不應(yīng)被過度抽象, 強(qiáng)人工智能與自然人存在本質(zhì)區(qū)別有觀點(diǎn)指出, 雖然具備獨(dú)立的自我辨認(rèn)和控制能力是成為犯罪主體的前提, 但是將人工智能過度的向自然人的抽象概念靠攏并賦予其主體資格無疑是荒謬的。自然人是具有社會(huì)屬性的, 鑒于人的多面相性, 強(qiáng)人工智能和自然人有本質(zhì)差別。假如人僅被都當(dāng)成抽象化、理性化的法律

26、主體, 那其將不會(huì)存在其它的面相。人與人工智能系統(tǒng)不同, 人是一個(gè)實(shí)實(shí)在在的實(shí)體, 具有思考能力, 行為能力, 需要與他人進(jìn)行接觸21。因此, 機(jī)器人再怎么高智商, 它也不能成為人, 人身上的種種獨(dú)特的屬性, 是一個(gè)機(jī)器無論如何也無法具備的??隙ㄕf堅(jiān)持強(qiáng)人工智能產(chǎn)品的犯罪主體地位是站在一個(gè)非常抽象的法律角度來考慮的, 忽略了作為法律主體的自然人的其他面相。(二) 強(qiáng)人工智能不具備可追究刑事責(zé)任的主體意志自由黑格爾認(rèn)為:犯罪本身就是一種經(jīng)過理性思考才作出的行為, 一旦人產(chǎn)生了犯罪行為, 就必須接受法律的懲罰, 在他看來, 犯罪是犯罪人自由意志的體現(xiàn)22。若要尋找正當(dāng)?shù)男塘P根據(jù), 那必須由犯罪人的

27、自由意志入手, 實(shí)際上就是, 犯罪人是通過犯罪來體現(xiàn)自由意志, 那么自由意志不存在的情況下犯罪自然也不會(huì)形成, 所以與刑法間也無實(shí)質(zhì)性的聯(lián)系23。現(xiàn)代刑法確立主客觀相統(tǒng)一的犯罪構(gòu)成理論。犯罪行為是否成立, 不僅需要考量犯罪行為對(duì)他人或社會(huì)所造成的損害, 而且還要考慮犯罪人的作案動(dòng)機(jī)和心理狀態(tài)。1. 強(qiáng)人工智能運(yùn)行機(jī)理與人的意志自由進(jìn)行形式匹配過于機(jī)械, 與自然人的獨(dú)立意志不具有對(duì)等性就算是強(qiáng)人工智能, 也只是在人為的干預(yù)下按照指令執(zhí)行操作, 即便人工智能技術(shù)繼續(xù)發(fā)展, 甚至能夠脫離人類的控制, 自主做出某種行為, 但其仍然無法明白自身行為的意義, 即便是做出了傷害性的行為, 也可能談不上任何作

28、案動(dòng)機(jī), 因此, 人工智能系統(tǒng)本身就沒有法律意義上的意志自由, 與自然人的獨(dú)立意志不具有對(duì)等性。自由意志是尋找正當(dāng)?shù)呐刑幮塘P的根據(jù), 其若不存在的, 那么根據(jù)自然也無從找起, 強(qiáng)人工智能不具備獨(dú)立意志, 自然也就不具有被刑法規(guī)制的意義, 不能成為名副其實(shí)的刑事責(zé)任主體。2. 強(qiáng)人工智能不具有理解并遵從法規(guī)范的能力, 強(qiáng)人工智能行為屬性判斷無客觀標(biāo)準(zhǔn)刑事責(zé)任若要成立, 作為行為主體需要滿足以下兩個(gè)條件: (1) 對(duì)于法律規(guī)范, 要有能夠認(rèn)識(shí)、理解的可能與能力; (2) 要能夠基于對(duì)法律規(guī)范的理解, 具備在不同具體情境下抵制誘惑, 即不做違法犯罪行為的意志力的可能性。但是, 人工智能產(chǎn)品是在人類的

29、努力下經(jīng)過研發(fā)而誕生, 對(duì)法律條例并不了解, 甚至完全沒有遵守法律條例的行為能力。換言之, 即便人工智能系統(tǒng)違法了法律條例, 作出了損害性行為, 其本身也可能完全不自知, 目前為止, 人工算法并沒有能力完全干預(yù)人工智能系統(tǒng)的行為, 欠缺刑法所要求的對(duì)法規(guī)范遵從的意志自由。而且強(qiáng)人工智能也可能會(huì)出錯(cuò), 一旦算法錯(cuò)誤, 就會(huì)做出損害他人或社會(huì)的行為, 那么從法律的層面來講, 這是純屬的機(jī)器意外事故, 還是人工智能系統(tǒng)經(jīng)過自主思考而作出的行為呢?人工智能系統(tǒng)是否應(yīng)當(dāng)承擔(dān)相應(yīng)的責(zé)任呢24?(三) 根據(jù)現(xiàn)有的刑罰體系對(duì)強(qiáng)人工智能判處刑罰無意義若承認(rèn)強(qiáng)人工智能的犯罪主體地位, 就必須對(duì)其判處刑罰。我國刑法

30、主要有五種主刑和四種附加刑, 按照刑法輕重可分為管制、拘役、有期徒刑、無期徒刑和死刑;罰金、剝奪政治權(quán)利、沒收財(cái)產(chǎn)和驅(qū)逐出境25。由于人工智能并不是正常的行為人, 不會(huì)產(chǎn)生與人體同等的感覺和道德上的負(fù)罪感, 對(duì)其判處現(xiàn)有體制下的刑罰沒有人類所能理解的實(shí)際意義。對(duì)此有學(xué)者指出, 可以通過對(duì)刑罰體系的重構(gòu)來實(shí)現(xiàn)對(duì)強(qiáng)人工智能的刑事處罰, 實(shí)施特殊的刑法懲治手段, 如刪除數(shù)據(jù)、修改程序、永久銷毀等26。有觀點(diǎn)認(rèn)為上述看法不具有合理性, 此類特殊的懲治手段無法實(shí)現(xiàn)刑罰的機(jī)能, 強(qiáng)人工智能是冷冰冰的材料加以核心算法程序堆砌而成的產(chǎn)物, 無血無肉, 沒有自然人與生俱來的倫理上和道德上的制約與情感, 其也無法

31、從其他機(jī)器人受到的懲罰中吸取經(jīng)驗(yàn)教訓(xùn)進(jìn)而實(shí)現(xiàn)一般預(yù)防的功能。另外, 如若承認(rèn)強(qiáng)人工智能為犯罪主體, 對(duì)其特殊規(guī)制, 其無法與自然人一律平等地適用刑法, 依法定罪量刑和行刑, 勢(shì)必違反刑法面前人人平等原則, 挑戰(zhàn)刑法基本原則, 引發(fā)法律體系的動(dòng)蕩。四、結(jié)語盡管目前人類的技術(shù)還只是停留在弱人工智能階段, 但是當(dāng)代科技迅猛發(fā)展的速度足以讓人類相信在不遠(yuǎn)的將來, 強(qiáng)人工智能不再是一個(gè)概念中的抽象物, 而是真真切切會(huì)存在的具象物, 所以對(duì)于人工智能產(chǎn)品目前以及未來可能會(huì)出現(xiàn)的一系列問題, 還是應(yīng)當(dāng)考慮在先, 思索在先。現(xiàn)當(dāng)代人類社會(huì)所出現(xiàn)的弱人工智能產(chǎn)品是不具備刑事主體資格的, 其在使用中所帶來的致人傷

32、亡等嚴(yán)重法律后果, 建議通過完善人工智能應(yīng)用被害人救助補(bǔ)償制度加以解決。隨著科技發(fā)展日新月異, 當(dāng)強(qiáng)人工智能產(chǎn)品實(shí)施了嚴(yán)重危害社會(huì), 侵害他人法益的行為時(shí), 刑法又該如何應(yīng)對(duì)?德國學(xué)者針對(duì)此問題有諸多不同看法, 觀點(diǎn)大致分為兩派。一派的代表為希爾根多夫教授, 其認(rèn)為應(yīng)當(dāng)修改及完善當(dāng)前已有的刑法概念, 開辟適用于機(jī)器人的刑法。另一派的代表為貝克與約爾登兩位教授, 其認(rèn)為刑法不可能適用于機(jī)器人, 將此可能性直接抹殺, 認(rèn)為刑法是圍繞著人的, 并嘗試解釋及修正現(xiàn)有刑法理論予以應(yīng)對(duì)27。本文在比較分析強(qiáng)人工智能主體肯定說和否定說的基礎(chǔ)上, 對(duì)人工智能發(fā)展所帶來社會(huì)風(fēng)險(xiǎn)有可能拓寬責(zé)任主體范圍, 增加處罰

33、危險(xiǎn)犯等問題進(jìn)行前瞻性反思。當(dāng)前, 人類尚處于弱人工智能時(shí)代, 應(yīng)當(dāng)強(qiáng)調(diào)刑法的謙抑性, 在變革與秩序、創(chuàng)新與守護(hù)之間把握動(dòng)態(tài)平衡。同時(shí)積極響應(yīng)我國人工智能發(fā)展規(guī)劃的要求, 促進(jìn)有關(guān)人工智能發(fā)展的法律法規(guī)建設(shè), 以期能夠進(jìn)一步有效完善刑事防控系統(tǒng)。參考文獻(xiàn)17房紹坤, 林廣會(huì).人工智能民事主體適格性之辨思J.蘇州大學(xué)學(xué)報(bào) (哲學(xué)社會(huì)科學(xué)版) , 20_, (5) :64.65.2 推動(dòng)我國新一代人工智能健康發(fā)展J.科技傳播, 20_, (21) :3.3 霍金.AI是進(jìn)步但極可能是人類文明最后的進(jìn)步, 載 20_-11-24.4皮勇.人工智能刑事法治的基本問題J.比較法研究, 20_, (5) :150.5袁曾.人工智能有限法律人格審視J.東方法學(xué), 20_, (5

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論