人工智能倫理導(dǎo)論- 課件 第3、4章 人工智能倫理、人工智能風(fēng)險(xiǎn)_第1頁(yè)
人工智能倫理導(dǎo)論- 課件 第3、4章 人工智能倫理、人工智能風(fēng)險(xiǎn)_第2頁(yè)
人工智能倫理導(dǎo)論- 課件 第3、4章 人工智能倫理、人工智能風(fēng)險(xiǎn)_第3頁(yè)
人工智能倫理導(dǎo)論- 課件 第3、4章 人工智能倫理、人工智能風(fēng)險(xiǎn)_第4頁(yè)
人工智能倫理導(dǎo)論- 課件 第3、4章 人工智能倫理、人工智能風(fēng)險(xiǎn)_第5頁(yè)
已閱讀5頁(yè),還剩110頁(yè)未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

人工智能倫理Lecture32024/2/1312如果有人設(shè)計(jì)計(jì)算機(jī)病毒,那么就有人設(shè)計(jì)不斷自我完善、直到最終超越人類的人工智能,其結(jié)果將是一種新的生命形式。這種超級(jí)人類一出現(xiàn),未改進(jìn)的人類就再也不是他們的對(duì)手,嚴(yán)重的問(wèn)題由此產(chǎn)生。原版人類將逐漸滅絕,或變得無(wú)足輕重。……人工智能的真正風(fēng)險(xiǎn)不是它的惡意,而是它的能力。超人工智能在完成目標(biāo)方面非常出色,如果這些目標(biāo)與我們的目標(biāo)不一致,我們就會(huì)陷入困境。——霍金(StephenHawking)目錄數(shù)據(jù)倫理計(jì)算機(jī)倫理人工智能倫理計(jì)算機(jī)倫理12345網(wǎng)絡(luò)倫理信息倫理機(jī)器人倫理6發(fā)展歷程主要問(wèn)題基本原則2024/2/133計(jì)算機(jī)倫理(學(xué))(ComputerEthics)是應(yīng)用倫理學(xué)的一個(gè)研究領(lǐng)域,研究對(duì)象是在計(jì)算機(jī)的設(shè)計(jì)開(kāi)發(fā)和應(yīng)用以及計(jì)算機(jī)信息的生產(chǎn)、儲(chǔ)存、交換和傳播中所涉及的倫理道德問(wèn)題。是關(guān)涉計(jì)算機(jī)及其應(yīng)用中所固有的涉及文化、社會(huì)、法律和倫理等方面問(wèn)題的研究和分析。1958年,發(fā)生了世界上第一起計(jì)算機(jī)犯罪。一位程序員能夠使用計(jì)算機(jī)代碼來(lái)防止他的銀行賬戶被標(biāo)記為透支。然而,當(dāng)時(shí)沒(méi)有法律能夠阻止,因此他沒(méi)有受到指控。人們意識(shí)到,為了確保避免其他人仿效、通過(guò)計(jì)算機(jī)進(jìn)行類似金融犯罪的發(fā)生,計(jì)算機(jī)相關(guān)道德準(zhǔn)則是必要的。2024/2/1343.1計(jì)算機(jī)倫理發(fā)展歷程計(jì)算機(jī)倫理最早可追溯到20世紀(jì)40年代的二戰(zhàn)時(shí)期:1948年,美國(guó)數(shù)學(xué)家和哲學(xué)家、麻省理工學(xué)院教授維納(NorbertWiener)在他的《控制論》(Cybernetics)一書(shū)中指出:“像眾所周知的原子彈一樣……超高速計(jì)算機(jī)器給人類帶來(lái)的是美好還是罪惡?”1950年,他的另外一本書(shū)《人有人的用處》(TheHumanUseofHumanBeings),深入討論了圍繞信息技術(shù)的倫理問(wèn)題。維納的觀點(diǎn)為研究計(jì)算機(jī)倫理學(xué)奠定了基礎(chǔ),作為第一位就計(jì)算機(jī)對(duì)人類價(jià)值的影響進(jìn)行嚴(yán)肅研究的學(xué)者,維納被尊為“計(jì)算機(jī)倫理學(xué)”的創(chuàng)始人。計(jì)算機(jī)倫理的起源

發(fā)展歷程20世紀(jì)50年代至60年代中期是計(jì)算機(jī)倫理研究的沉寂時(shí)期。由于計(jì)算機(jī)技術(shù)的發(fā)展在當(dāng)時(shí)處于起步階段,計(jì)算機(jī)技術(shù)尚未得到普遍應(yīng)用,其間許多倫理學(xué)問(wèn)題還沒(méi)有充分暴露出來(lái)。因而,維納于40年代末提出的計(jì)算機(jī)倫理問(wèn)題的見(jiàn)解在學(xué)術(shù)界并沒(méi)有引起太大的反響。20世紀(jì)60年代中期,隨著計(jì)算機(jī)技術(shù)的飛速發(fā)展及其在各個(gè)領(lǐng)域內(nèi)的廣泛應(yīng)用,與之相關(guān)的許多社會(huì)、倫理問(wèn)題也逐漸明朗化。計(jì)算機(jī)應(yīng)用中出現(xiàn)的兩個(gè)問(wèn)題直接促進(jìn)了計(jì)算機(jī)倫理學(xué)研究的廣泛開(kāi)展。第一個(gè)問(wèn)題是隱私問(wèn)題。20世紀(jì)60年代中期,美國(guó)政府的許多部門(mén)已經(jīng)開(kāi)始為個(gè)人建立計(jì)算機(jī)信息數(shù)據(jù)庫(kù),美國(guó)國(guó)會(huì)也曾認(rèn)真考慮,根據(jù)這些數(shù)據(jù)庫(kù)給每一位公民指定一個(gè)身份證號(hào)。當(dāng)時(shí),由于許多人擔(dān)心這樣的身份證號(hào)碼會(huì)干涉?zhèn)€人的隱私權(quán)而使得這項(xiàng)動(dòng)議被擱置。然而,信息技術(shù)與隱私的關(guān)系問(wèn)題無(wú)疑成了此時(shí)期計(jì)算機(jī)倫理問(wèn)題研究的第一位動(dòng)因,也成為學(xué)者們深思的一個(gè)重要課題。3.1計(jì)算機(jī)倫理2024/2/135第二個(gè)問(wèn)題是計(jì)算機(jī)和信息技術(shù)的濫用和計(jì)算機(jī)犯罪問(wèn)題。20世紀(jì)60年代之后,西方計(jì)算機(jī)應(yīng)用過(guò)程中出現(xiàn)的因個(gè)人數(shù)據(jù)被盜用而在信用消費(fèi)方面引起的問(wèn)題,以及新聞媒體對(duì)大量計(jì)算機(jī)從業(yè)人員職業(yè)犯罪案例的報(bào)道引起了各方面人士的關(guān)注。有的學(xué)者把計(jì)算機(jī)犯罪問(wèn)題形象地概括為“當(dāng)人們進(jìn)入計(jì)算中心時(shí),他們把倫理丟在門(mén)口了”。計(jì)算機(jī)倫理研究的起步發(fā)展歷程在政府層面上,世界各國(guó)政府部門(mén)做出了積極地反應(yīng)。1970年,美國(guó)成立了由蘭德公司的威爾和哥倫比亞大學(xué)的沃斯頓各自領(lǐng)導(dǎo)的獨(dú)立專家組,從倫理學(xué)等方面對(duì)隱私和計(jì)算機(jī)數(shù)據(jù)庫(kù)問(wèn)題進(jìn)行了專門(mén)研究。專家組的研究成果對(duì)于美國(guó)1974年的聯(lián)邦隱私法案產(chǎn)生了很大的影響;英國(guó)政府于1971年成立了一個(gè)專門(mén)委員會(huì),對(duì)隱私和計(jì)算機(jī)問(wèn)題進(jìn)行研究;瑞典于1974年在歐洲率先實(shí)施了國(guó)家性的數(shù)據(jù)保護(hù)法;1981年,歐洲委員會(huì)通過(guò)了歐洲數(shù)據(jù)保護(hù)條約,這個(gè)條約為整個(gè)西歐的數(shù)據(jù)保護(hù)法的建立奠定了基礎(chǔ)。3.1計(jì)算機(jī)倫理諸多學(xué)者也投入到相關(guān)問(wèn)題的研究。1968年,帕克(DonnParker)發(fā)表了《信息處理中的倫理規(guī)則》一文,闡明了建立計(jì)算計(jì)倫理規(guī)則的必要性,并初步擬訂了一些規(guī)則。該規(guī)則于1973年被美國(guó)計(jì)算機(jī)協(xié)會(huì)(ACM,AssociationforComputingMachinery)所采用。1976年,魏森鮑姆(JosephWeizenbaum)出版了《計(jì)算機(jī)能力與人類理性》(ComputerPowerandHumanReason)一書(shū),闡明了人類思維與本質(zhì)上作為機(jī)器的計(jì)算機(jī)運(yùn)行程序的差異。他指出,人不應(yīng)當(dāng)被視為機(jī)器,僅僅從機(jī)器層面理解人,是對(duì)人自身價(jià)值的否定。該書(shū)被列為西方計(jì)算機(jī)倫理學(xué)的經(jīng)典之作。2024/2/136計(jì)算機(jī)倫理研究的起步發(fā)展歷程1976年,著名應(yīng)用倫理學(xué)家曼娜(WalterManer)正式提出“計(jì)算機(jī)倫理學(xué)”這一概念。他闡述了建立計(jì)算機(jī)倫理學(xué)這一學(xué)科的必要性和可行性,并率先將自己的理論用于教學(xué)實(shí)踐。邁納仿照醫(yī)學(xué)倫理學(xué)、商業(yè)倫理學(xué)等應(yīng)用倫理學(xué)學(xué)科,開(kāi)設(shè)了計(jì)算機(jī)倫理學(xué)課程,取得了非常好的教學(xué)效果。20世紀(jì)70年代末,計(jì)算機(jī)倫理學(xué)最終確立一門(mén)新的應(yīng)用倫理學(xué),計(jì)算機(jī)倫理教育在歐美等國(guó)家諸多院校中得到推廣實(shí)施。3.1計(jì)算機(jī)倫理2024/2/137計(jì)算機(jī)倫理的地位確立計(jì)算機(jī)倫理研究的興起20世紀(jì)70年代中期以后,計(jì)算機(jī)倫理學(xué)的研究和推廣得到逐步完善和深化。發(fā)表和出版了大量的學(xué)術(shù)研究論文、專著和文集,計(jì)算機(jī)倫理學(xué)研究成為應(yīng)用倫理學(xué)研究的一個(gè)新熱點(diǎn)。1985年,美國(guó)著名哲學(xué)雜志《形而上學(xué)》(Metaphilo-sophy)發(fā)表了泰雷爾·貝奈姆的《計(jì)算機(jī)與倫理學(xué)》(Acomputerethicsbibliography)和詹姆斯·摩爾的《什么是計(jì)算機(jī)倫理學(xué)》(WhatisComputerEthics?)兩篇論文。這兩篇文章成為西方計(jì)算機(jī)倫理學(xué)興起的重要理論標(biāo)志。出版有影響的專著包括:大衛(wèi)·歐曼等的《計(jì)算機(jī)、倫理與社會(huì)》(1990)羅伊等的《信息系統(tǒng)的倫理問(wèn)題》(1991)福雷斯特等的《計(jì)算機(jī)倫理》(1994)發(fā)展歷程摩爾在《什么是計(jì)算機(jī)倫理學(xué)》一文中提出了計(jì)算機(jī)倫理學(xué)“四步法”:第一步,計(jì)算機(jī)倫理學(xué)要考察由于計(jì)算機(jī)技術(shù)的應(yīng)用而導(dǎo)致的“政策真空”;第二步,計(jì)算機(jī)倫理學(xué)要有助于澄清由于計(jì)算機(jī)技術(shù)的應(yīng)用所改變的一些核心倫理?xiàng)l款的意義而出現(xiàn)的觀念混亂;第三步,計(jì)算機(jī)倫理學(xué)要制定“倫理”政策以填補(bǔ)相應(yīng)的“政策真空”;第四步,計(jì)算機(jī)倫理學(xué)要根據(jù)人們的價(jià)值取向而證明新政策的合理性。摩爾“四步法”的提出,為計(jì)算機(jī)倫理規(guī)則或原理的制定提供了可循的基本思路,具有示范性意義。編寫(xiě)出版了有影響的教科書(shū),促進(jìn)了計(jì)算機(jī)倫理的教育。1985年,約翰遜的《計(jì)算機(jī)倫理學(xué)》以及約翰遜與斯耐普合著的《計(jì)算機(jī)應(yīng)用中的倫理問(wèn)題》相繼出版。其中《計(jì)算機(jī)倫理學(xué)》被譽(yù)為計(jì)算機(jī)倫理學(xué)教學(xué)史上的標(biāo)準(zhǔn)教材。2003年,拜納姆和羅杰森出版了《計(jì)算機(jī)倫理與專業(yè)責(zé)任》。在國(guó)內(nèi),2003年,殷正坤編寫(xiě)了教材《計(jì)算機(jī)倫理與法律》;2006年,姜媛媛等編寫(xiě)了教材《計(jì)算機(jī)社會(huì)與職業(yè)問(wèn)題》;2011年,馮繼宣等編寫(xiě)了教材《計(jì)算機(jī)倫理學(xué)》。3.1計(jì)算機(jī)倫理1992年10月,美國(guó)計(jì)算機(jī)協(xié)會(huì)(ACM)通過(guò)并發(fā)布了《倫理與職業(yè)行為準(zhǔn)則》。2024/2/138計(jì)算機(jī)倫理研究的興起個(gè)人隱私問(wèn)題

隨著計(jì)算機(jī)信息管理系統(tǒng)的普及,越來(lái)越多的計(jì)算機(jī)從業(yè)者能夠接觸到各種各樣的保密數(shù)據(jù)。這些數(shù)據(jù)不僅僅局限為個(gè)人信息,更多的是企業(yè)或單位用戶的業(yè)務(wù)數(shù)據(jù),它們同樣是需要保護(hù)的對(duì)象。計(jì)算機(jī)使某些人更容易獲得他人的個(gè)人機(jī)密和信息,個(gè)人隱私受到計(jì)算機(jī)應(yīng)用系統(tǒng)在采集、檢索、處理、重組、傳播等能力大大增強(qiáng)的嚴(yán)重挑戰(zhàn)和空前威脅。知識(shí)產(chǎn)權(quán)問(wèn)題知識(shí)產(chǎn)權(quán)是指創(chuàng)造性智力成果的完成人或商業(yè)標(biāo)志的所有人依法所享有的權(quán)利的統(tǒng)稱。計(jì)算機(jī)技術(shù)的發(fā)展,軟件開(kāi)發(fā)者可以輕而易舉地移植、復(fù)制他人的源碼。大量的計(jì)算機(jī)用戶都在已知或不知的情況下使用著盜版軟件。軟件著作權(quán)的客體是指計(jì)算機(jī)軟件,即計(jì)算機(jī)程序及其有關(guān)文檔。某衛(wèi)生系統(tǒng)“內(nèi)鬼”泄露新生嬰兒和預(yù)產(chǎn)孕婦信息2018年1月,某警方偵破了一起新生嬰兒信息倒賣(mài)鏈條。從新學(xué)嬰兒數(shù)據(jù)泄露的源頭來(lái)看:某社區(qū)衛(wèi)生服務(wù)中心工作人員徐某,掌握了某市“婦幼信息某管理系統(tǒng)”市級(jí)權(quán)限賬號(hào)密碼,利用職務(wù)之便,多次將2016年至2017年的某市新生嬰兒信息及預(yù)產(chǎn)信息導(dǎo)出。被抓獲前,他累計(jì)非法下載新生嬰兒數(shù)據(jù)50余萬(wàn)條,販賣(mài)新生嬰兒信息數(shù)萬(wàn)余條。合作公司員工泄露防偽數(shù)據(jù)2018年2月,某警方偵破了知名酒被仿造的案件。蔡某拿任職于某公司的“國(guó)酒防偽溯源系統(tǒng)”項(xiàng)目專項(xiàng)經(jīng)理,多次利用職務(wù)之便通過(guò)拍照、直接用U盤(pán)拷貝的方式竊取某知名酒企股份有限公司防偽溯源數(shù)據(jù),并將竊取的數(shù)據(jù)泄露給蔡某剛。蔡某拿披露數(shù)據(jù)量共計(jì)700余萬(wàn)條(可制作成700萬(wàn)瓶能夠通過(guò)防偽溯源驗(yàn)證的假冒酒)。防偽數(shù)據(jù)庫(kù)泄露直接導(dǎo)致貴州茅臺(tái)經(jīng)濟(jì)損失約105.7萬(wàn)元?!吧汉飨x(chóng)”侵權(quán)案“珊瑚蟲(chóng)”QQ對(duì)正版QQ進(jìn)行了非法改動(dòng),并放置于互聯(lián)網(wǎng)上供他人下載以獲取巨額利益,侵犯了騰訊的著作權(quán)。2008年,騰迅將原作者陳壽福告上法庭,法院判決:被告人犯侵犯著作權(quán)罪,被判處有期徒刑3年,并處罰金120萬(wàn)元;對(duì)被告人違法所得總計(jì)117.28萬(wàn)元予以追繳。2024/2/1393.1計(jì)算機(jī)倫理主要問(wèn)題計(jì)算機(jī)犯罪問(wèn)題以計(jì)算機(jī)為犯罪工具或以計(jì)算機(jī)為犯罪對(duì)象的犯罪行為,其概念有廣義和狹義之分。職業(yè)道德問(wèn)題涉及參與計(jì)算機(jī)軟件、計(jì)算機(jī)硬件、網(wǎng)絡(luò)技術(shù)的設(shè)計(jì)、制造的專業(yè)技術(shù)和管理人員對(duì)消費(fèi)者和社會(huì)的道德與法律責(zé)任,其中包括產(chǎn)品的技術(shù)質(zhì)量、設(shè)計(jì)的合理性和最優(yōu)化等復(fù)雜的技術(shù)因素和專業(yè)技術(shù)人員個(gè)人的道德文化價(jià)值取向。案例1:呂某,25歲,廣州市人。1997年4月加入國(guó)內(nèi)“黑客”組織。他盜用他人網(wǎng)絡(luò)賬號(hào)以及使用非法賬號(hào)上網(wǎng)活動(dòng),并攻擊中國(guó)公眾多媒體通信網(wǎng)廣州主機(jī)(即“視聆通”廣州主機(jī))。成功入侵后,他取得了該主機(jī)系統(tǒng)的最高權(quán)限,并非法開(kāi)設(shè)了兩個(gè)具有最高權(quán)限的賬號(hào)。此后,他又多次非法入侵該主機(jī),對(duì)其部分文件進(jìn)行刪除、修改、增加等一系列非法操作,包括非法開(kāi)設(shè)四個(gè)賬號(hào)作為自己上網(wǎng)之用和送給他人使用、安裝并調(diào)試網(wǎng)絡(luò)安全監(jiān)測(cè)軟件(未遂)。同時(shí),他為掩蓋自己的行為,還將上網(wǎng)的部分記錄刪除、修改。更為嚴(yán)重的是,三次修改了該主機(jī)系統(tǒng)最高權(quán)限的密碼,致使密碼三次失效,造成主機(jī)系統(tǒng)管理失控共計(jì)15個(gè)小時(shí)的嚴(yán)重后果。廣州市中級(jí)人民法院經(jīng)審理認(rèn)為,被告人呂某已構(gòu)成破壞計(jì)算機(jī)信息系統(tǒng)罪。案例2:兩名中國(guó)大陸的網(wǎng)絡(luò)黑客入侵銀行的網(wǎng)絡(luò)系統(tǒng),竊取人民幣260,000元(約合美金三萬(wàn)一千四百元)的金額。據(jù)報(bào)導(dǎo)指出,這兩個(gè)黑客是兄弟檔。哥哥郝金龍(譯音),是某工商銀行的會(huì)計(jì),管理該銀行的網(wǎng)絡(luò)系統(tǒng)。他們用不同的戶名在該銀行的某分行開(kāi)了十六個(gè)帳戶。并且在銀行計(jì)算機(jī)終端機(jī)植入一個(gè)控制的裝置。他們利用該裝置,將虛擬存款720,000人民幣(約合美金$86,975)電匯進(jìn)入銀行帳戶內(nèi)。之后,他們成功地從該銀行的八個(gè)分行領(lǐng)出真實(shí)的鈔票--人民幣260,000元。后來(lái)這兩名黑客遭江蘇省的楊州法院判處一名未死刑、另一名為無(wú)期。2024/2/13103.1計(jì)算機(jī)倫理主要問(wèn)題廣義的計(jì)算機(jī)犯罪是指行為人故意直接對(duì)計(jì)算機(jī)實(shí)施侵入或破壞,或者利用計(jì)算機(jī)實(shí)施有關(guān)金融詐騙、盜竊、貪污、挪用公款、竊取國(guó)家秘密或其他犯罪行為的總稱。狹義的計(jì)算機(jī)犯罪僅指行為人違反國(guó)家規(guī)定,故意侵入國(guó)家事務(wù)、國(guó)防建設(shè)等計(jì)算機(jī)信息系統(tǒng),或者利用各種技術(shù)手段對(duì)計(jì)算機(jī)信息系統(tǒng)功能及有關(guān)數(shù)據(jù)、應(yīng)用程序等進(jìn)行破壞,制作、傳播計(jì)算機(jī)病毒,影響計(jì)算機(jī)系統(tǒng)正常運(yùn)行且造成嚴(yán)重后果?;驹瓌t美國(guó)學(xué)者斯平內(nèi)洛在《信息技術(shù)的倫理方面》中提出了計(jì)算機(jī)倫理道德的一般規(guī)范性原則:①自主原則,尊重自我與他人的平等價(jià)值與尊嚴(yán),尊重自我與他人的自主權(quán)利;②無(wú)害原則,人們不應(yīng)該用計(jì)算機(jī)和信息技術(shù)給他人造成直接或間接地?fù)p害;③知情同意原則,人們?cè)谛畔⒔粨Q中,有權(quán)知道誰(shuí)會(huì)得到這些數(shù)據(jù)以及如何利用它們,沒(méi)有信息權(quán)利人的同意,他人無(wú)權(quán)擅自使用這些信息。學(xué)者們對(duì)計(jì)算機(jī)“職業(yè)”、“職業(yè)人員”、“職業(yè)道德”的特殊性問(wèn)題作了探討。韋克特和愛(ài)德尼在《計(jì)算機(jī)與信息倫理學(xué)》中提出:“一個(gè)真正的計(jì)算機(jī)職業(yè)人員,不僅應(yīng)當(dāng)是自我領(lǐng)域的專家,而且也應(yīng)當(dāng)使自己的工作適應(yīng)人類文明的一般準(zhǔn)則,具有這方面的道德自律能力與渴望?!?.1計(jì)算機(jī)倫理2024/2/1311美國(guó)學(xué)者羅伯特·巴格認(rèn)為,隨著計(jì)算機(jī)與信息技術(shù)的發(fā)展,人類的基本道德價(jià)值觀念和行為準(zhǔn)則并沒(méi)有過(guò)時(shí)。他在1993年于華盛頓召開(kāi)的第二屆計(jì)算機(jī)倫理學(xué)年會(huì)上提出了計(jì)算機(jī)倫理學(xué)的三條基本原則:①一致同意的原則,如誠(chéng)實(shí)、公正和真實(shí)等;②把這些原則應(yīng)用到對(duì)不道德行為的禁止上;③通過(guò)對(duì)不道德行為的懲處和對(duì)遵守規(guī)則行為的鼓勵(lì),來(lái)對(duì)不道德行為進(jìn)行防范?;驹瓌t美國(guó)的一些專門(mén)研究機(jī)構(gòu)制定了簡(jiǎn)明通曉的道德戒律。如美國(guó)計(jì)算機(jī)倫理協(xié)會(huì)制定了“計(jì)算機(jī)倫理十誡”:①不應(yīng)當(dāng)用計(jì)算機(jī)去傷害別人;②不應(yīng)當(dāng)干擾別人的計(jì)算機(jī)工作;③不應(yīng)當(dāng)偷窺別人的文件;④不應(yīng)當(dāng)用計(jì)算機(jī)進(jìn)行偷盜;⑤不應(yīng)當(dāng)用計(jì)算機(jī)作偽證;⑥不應(yīng)當(dāng)使用或拷貝沒(méi)有付過(guò)錢(qián)的軟件;⑦不應(yīng)當(dāng)未經(jīng)許可而使用別人的計(jì)算機(jī)資源;⑧不應(yīng)當(dāng)盜用別人的智力成果;⑨應(yīng)當(dāng)考慮所編制的程序的社會(huì)后果;⑩應(yīng)當(dāng)用深思熟慮和審慎的態(tài)度來(lái)使用計(jì)算機(jī)?!疤厥獾穆殬I(yè)責(zé)任”包括:①努力在職業(yè)工作的程序中,使產(chǎn)品實(shí)現(xiàn)最高的質(zhì)量、最高的效益和高度的尊嚴(yán);②獲得和保持職業(yè)技能;③了解和尊重現(xiàn)有的與職業(yè)工作有關(guān)的法律;④接受和提出恰當(dāng)?shù)穆殬I(yè)評(píng)價(jià);⑤對(duì)計(jì)算機(jī)系統(tǒng)和它們包括可能引起的危機(jī)等方面作出綜合的理解和徹底的評(píng)估;⑥重視合同、協(xié)議和指定的責(zé)任。3.1計(jì)算機(jī)倫理2024/2/1312美國(guó)計(jì)算機(jī)協(xié)會(huì)《倫理與職業(yè)行為準(zhǔn)則》“基本道德規(guī)則”包括:①為社會(huì)和人類的美好生活做出貢獻(xiàn);②避免傷害其他人;③做到誠(chéng)實(shí)可信;④恪守公正并在行為上無(wú)歧視;⑤敬重包括版權(quán)和專利在內(nèi)的財(cái)產(chǎn)權(quán);⑥對(duì)智力財(cái)產(chǎn)賦予必要的信用;⑦尊重其他人的隱私;⑧保守機(jī)密。美國(guó)許多公司、學(xué)校和政府機(jī)構(gòu),明確制定了各種網(wǎng)絡(luò)倫理準(zhǔn)則。如,南加州大學(xué)的網(wǎng)絡(luò)倫理聲明中明確譴責(zé)“六種網(wǎng)絡(luò)不道德行為”:①有意地造成網(wǎng)絡(luò)交通混亂或擅自闖入其他網(wǎng)絡(luò)及其相關(guān)的系統(tǒng);②商業(yè)性或欺騙性地利用大學(xué)計(jì)算機(jī)資源;③偷竊資料、設(shè)備或智力成果;④未經(jīng)許可接近他人的文件;⑤公共用戶場(chǎng)合做出引起混亂或造成破壞的行為;⑥偽造電子郵件信息。目錄數(shù)據(jù)倫理計(jì)算機(jī)倫理人工智能倫理12345網(wǎng)絡(luò)倫理信息倫理機(jī)器人倫理6發(fā)展歷程主要問(wèn)題基本原則發(fā)展歷程主要問(wèn)題信息法律2024/2/13133.2信息倫理發(fā)展歷程信息倫理(學(xué))

(InformationEthic)是規(guī)范倫理學(xué)中的應(yīng)用倫理學(xué)分支,是從倫理學(xué)角度研究和探討信息以及信息傳遞過(guò)程中的道德倫理問(wèn)題,以揭示信息傳遞中的道德倫理規(guī)律。信息倫理學(xué)最初以計(jì)算機(jī)倫理學(xué)的面目出現(xiàn)。1985年,德國(guó)的信息科學(xué)家卡普羅(RafaelCapurro)發(fā)表了“信息科學(xué)的道德問(wèn)題”的論文,研究了電子形式下專門(mén)信息的生產(chǎn)、存儲(chǔ)、傳播和使用問(wèn)題。從宏觀和微觀兩個(gè)角度探討了信息倫理學(xué)問(wèn)題,包括信息研究、信息科學(xué)教育、信息工作中的倫理問(wèn)題。1986年,美國(guó)南部衛(wèi)理公會(huì)大學(xué)梅森(RichardO.Mason)在《信息時(shí)代的四個(gè)倫理問(wèn)題》論文中,提出了著名的“PAPA”理論,即,信息隱私(Privacy)、信息正確(Accuracy)、信息產(chǎn)權(quán)(Property)、信息存?。ˋccessibility)。20世紀(jì)90年代初期,計(jì)算機(jī)倫理學(xué)研究范圍擴(kuò)大,這時(shí)的研究包括與非專業(yè)性計(jì)算機(jī)使用和計(jì)算機(jī)網(wǎng)絡(luò)不斷發(fā)展有關(guān)的一些問(wèn)題,研究對(duì)象也更加明確地確定為信息領(lǐng)域的倫理問(wèn)題,在概念和名稱的使用上直接使用了“信息倫理學(xué)”這一術(shù)語(yǔ)。2024/2/13141996年,羅格森·西蒙和貝耐姆共同發(fā)表了《信息倫理:第二代》。他們認(rèn)為:計(jì)算機(jī)倫理學(xué)是第一代信息倫理學(xué),它所研究的范圍有限,研究的深度不夠,只是對(duì)計(jì)算機(jī)現(xiàn)象的解釋,缺乏全面的倫理學(xué)理論,對(duì)與信息技術(shù)和信息系統(tǒng)有關(guān)的倫理問(wèn)題和社會(huì)問(wèn)題,以及解決這些問(wèn)題的方法缺乏深層次的研究和認(rèn)識(shí)。2000年,卡普羅在“Ethicalchallengesoftheinformationsocietyinthe21stcentury”一文中專門(mén)論述了信息社會(huì)的倫理問(wèn)題,將信息倫理從計(jì)算機(jī)倫理中區(qū)分出來(lái),強(qiáng)調(diào)了信息倫理學(xué)。3.2信息倫理2024/2/1315主要問(wèn)題信息倫理的主要問(wèn)題包括:知識(shí)產(chǎn)權(quán)、個(gè)人隱私、信息污染、信息安全、信息鴻溝和文化侵害。知識(shí)產(chǎn)權(quán)和個(gè)人隱私也是計(jì)算機(jī)倫理的主要問(wèn)題。信息倫理的主要問(wèn)題信息污染問(wèn)題

信息中混入了有害性、欺騙性、誤導(dǎo)性信息元素,對(duì)信息生態(tài)、信息資源及人類身心健康造成破壞、損害等不良影響。信息安全問(wèn)題信息系統(tǒng)(硬件、軟件、數(shù)據(jù)、物理環(huán)境及基礎(chǔ)設(shè)施)不受偶然或惡意原因而遭到破壞、更改、泄露,系統(tǒng)可靠正常地運(yùn)行。信息鴻溝問(wèn)題較多擁有信息技術(shù)和工具的個(gè)體、家庭、商業(yè)組織、地區(qū)和國(guó)家,與較少或未曾擁有信息技術(shù)和工具者之間,存在信息鴻溝。文化侵害問(wèn)題互聯(lián)網(wǎng)信息上90%以上的內(nèi)容使用英語(yǔ),非英語(yǔ)人群不能使用自己的母語(yǔ)交流,帶來(lái)了某種程度上的文化侵害。3.2信息倫理信息倫理學(xué)有廣義和狹義之分。狹義的信息倫理學(xué)是指信息技術(shù)倫理學(xué),世界科技知識(shí)與技術(shù)倫理委員會(huì)信息社會(huì)倫理分委員會(huì)(COMEST)、斯皮內(nèi)洛(RichardA.Spinello)早期的工作基本上可歸為這一范疇。廣義的信息倫理學(xué)是探討與信息相關(guān)的所有方面的倫理問(wèn)題,而不局限于信息技術(shù)的范圍。美國(guó)國(guó)際信息倫理學(xué)中心也認(rèn)為,信息倫理學(xué)有廣義和狹義之分,但是他們的看法與上述觀點(diǎn)不同。他們認(rèn)為:廣義的信息倫理學(xué)是研究一對(duì)多等級(jí)結(jié)構(gòu)的大眾傳媒(媒體倫理學(xué))(新聞倫理學(xué))、計(jì)算機(jī)科學(xué)(計(jì)算機(jī)倫理學(xué))和作為平等媒體的因特網(wǎng)(網(wǎng)絡(luò)倫理學(xué))中的倫理問(wèn)題的應(yīng)用倫理學(xué)科。狹義的信息倫理學(xué)研究因特網(wǎng)(網(wǎng)絡(luò)倫理學(xué))、信息和知識(shí)管理(與管理倫理學(xué)有關(guān))以及圖書(shū)館、檔案領(lǐng)域的倫理問(wèn)題的應(yīng)用倫理學(xué)科。隨著信息倫理學(xué)研究范圍和深度的不斷拓展,人們逐漸認(rèn)識(shí)到:信息倫理學(xué)不完全等同于計(jì)算機(jī)倫理學(xué),信息倫理學(xué)有著更廣闊的研究范圍,涵蓋了前者的研究范圍。計(jì)算機(jī)倫理學(xué)側(cè)重于計(jì)算機(jī)及其使用的個(gè)體性行為或區(qū)域行為的倫理研究;信息倫理學(xué)則立足于一般的信息或信息技術(shù)層面,試圖概括計(jì)算機(jī)倫理學(xué)的研究成果,揚(yáng)棄其特殊性以形成一種在信息領(lǐng)域具有普遍意義的倫理學(xué)。計(jì)算機(jī)倫理學(xué)未來(lái)融入信息倫理學(xué)、被信息倫理學(xué)取而代之代表了諸多學(xué)者的一種觀點(diǎn)。信息倫理學(xué)計(jì)算機(jī)倫理學(xué)2024/2/1316信息倫理vs計(jì)算機(jī)倫理信息倫理與法律/政策信息法律與信息政策都是與信息倫理密切相關(guān)的概念,為信息倫理的實(shí)現(xiàn)提供了支持。了解信息倫理、信息法律與信息政策之間的區(qū)別與聯(lián)系,有助于深入理解信息倫理的內(nèi)涵,找到規(guī)范信息行為的倫理準(zhǔn)則和約束機(jī)制。法律是一套由社會(huì)機(jī)構(gòu)強(qiáng)制執(zhí)行以控制人們行為的規(guī)則與指導(dǎo)方針的體系。法律由政府及其立法機(jī)構(gòu)制定,用于調(diào)節(jié)人們之間的政治、經(jīng)濟(jì)與社會(huì)關(guān)系。信息法律指在調(diào)整信息活動(dòng)中所產(chǎn)生的社會(huì)關(guān)系的法律規(guī)范的總稱。這里的社會(huì)關(guān)系主要涉及利益、權(quán)益的安全問(wèn)題。信息法律的主要內(nèi)容包括知識(shí)產(chǎn)權(quán)法(專利法、著作權(quán)法、商標(biāo)法等)、信息安全法、信息公開(kāi)法、新聞出版與傳播法、電信法、電子商務(wù)法(電子簽名與數(shù)字認(rèn)證法等)、計(jì)算機(jī)犯罪的法律等等。政策是指導(dǎo)決策并達(dá)到合理目的的原則或規(guī)則。信息政策用于指導(dǎo)信息收集、生產(chǎn)、創(chuàng)建、組織、存儲(chǔ)、獲取、傳播與保存等整個(gè)生命周期的活動(dòng)。信息政策既包括公共信息政策,也包括組織內(nèi)部的信息政策。信息政策可以劃分為基礎(chǔ)設(shè)施信息政策、水平信息政策與垂直信息政策三個(gè)層次。信息政策的范圍包括九大類:政府信息資源管理、信息技術(shù)、電信與廣播、國(guó)際通信、信息公開(kāi)、保密與隱私、計(jì)算機(jī)管制與計(jì)算機(jī)犯罪、知識(shí)產(chǎn)權(quán)、圖書(shū)館與檔案館、政府信息傳播。3.2信息倫理2024/2/1317信息倫理、信息政策與信息法律三者在對(duì)信息活動(dòng)的調(diào)控范圍和規(guī)范強(qiáng)度等方面應(yīng)相互補(bǔ)充,共同發(fā)揮作用,以維持信息社會(huì)的秩序,實(shí)現(xiàn)共同的價(jià)值目標(biāo)。這些價(jià)值目標(biāo)體現(xiàn)在:相同的義務(wù)準(zhǔn)則、相同的權(quán)利追求和相同的功利主義追求。信息倫理、信息法律與信息政策在指導(dǎo)、約束人們的信息行為以及相互關(guān)系方面發(fā)揮著不可替代的作用,但是三者的作用層次和力度有所不同,其影響力的發(fā)揮也各有側(cè)重。三者主要的區(qū)別可以歸納為:制定主體的不同、約束強(qiáng)度的不同、問(wèn)題適應(yīng)性不同、發(fā)布形式不同和調(diào)節(jié)范圍不同。3.2信息倫理2024/2/1318信息倫理與法律/政策“維基解密”分析從“維基解密”事件,分析信息倫理、信息政策、信息法律之間的相互關(guān)系。“維基解密”作為一種在網(wǎng)絡(luò)環(huán)境中誕生的新型傳媒組織,自2010年連續(xù)三次大規(guī)模公布美國(guó)軍事外交機(jī)密以來(lái)飽受?chē)?guó)際社會(huì)的爭(zhēng)議。其爭(zhēng)議的焦點(diǎn)主要在于政府信息安全的保護(hù)和公民信息自由之間的制衡。3.2信息倫理2024/2/1319維基解密(WikiLeaks),是一個(gè)國(guó)際性非營(yíng)利媒體組織,專門(mén)公開(kāi)來(lái)自匿名來(lái)源和網(wǎng)絡(luò)泄露的文件。網(wǎng)站成立于2006年12月,創(chuàng)建者為朱利安·阿桑奇(澳大利亞)2010年,這家網(wǎng)站曝光關(guān)于阿富汗戰(zhàn)爭(zhēng)和伊拉克戰(zhàn)爭(zhēng)的海量秘密文件。2017年12月,阿桑奇被授予厄瓜多爾國(guó)籍。2019年4月,厄瓜多爾不再向阿桑奇提供庇護(hù),英國(guó)警方隨即以違反保釋條例為由逮捕阿桑奇。次月,美國(guó)檢察官以17項(xiàng)間諜罪和1項(xiàng)濫用計(jì)算機(jī)罪控告阿桑奇。同年11月,瑞典方面放棄調(diào)查對(duì)阿桑奇的強(qiáng)奸指控。2021年7月,阿桑奇的厄瓜多爾國(guó)籍被取消;12月10日,英國(guó)高等法院裁定,阿桑奇將被引渡至美國(guó)。2022年4月20日,英國(guó)法院已批準(zhǔn)將“維基揭秘”創(chuàng)始人朱利安·阿桑奇引渡至美國(guó);當(dāng)?shù)貢r(shí)間6月17日,英國(guó)內(nèi)政大臣帕特爾簽署命令,批準(zhǔn)引渡阿桑奇至美國(guó)?!熬S基解密”分析“維基解密”涉及的倫理問(wèn)題不是它究竟公開(kāi)了什么,而是它采取了怎樣的方式公開(kāi)信息。事實(shí)上,這樣的公開(kāi)方式不僅威脅著政府信息安全,也威脅著個(gè)人隱私,觸動(dòng)著整個(gè)人類的倫理道德法則。人類賴以生存的不僅是物質(zhì)資源,還有大多數(shù)人必須遵守的倫理道德規(guī)則,否則社會(huì)秩序的混亂將會(huì)危及人類生存。黑客出于智慧炫耀、政治立場(chǎng)或竊取利益等目的,威脅著政府、組織和公民個(gè)人的信息安全。在“維基解密”事件中,黑客出于揭露政府“丑聞”的目的而侵害政府安全,其中涉及的信息倫理問(wèn)題包括兩個(gè)方面:一是黑客非法獲取政府機(jī)密、危害國(guó)家信息安全和政府形象的不道德行為;二是有助于更多的人監(jiān)督政府活動(dòng)的“正義”行為。對(duì)于兩種倫理價(jià)值的權(quán)衡成為人們對(duì)“維基解密”事件爭(zhēng)論的焦點(diǎn)。最終,人們對(duì)于理性與秩序的追求似乎更占上風(fēng)。3.2信息倫理2024/2/1320“維基解密”所獲取的秘密資料來(lái)自世界各地的匿名人士,已知的提供美國(guó)軍事外交機(jī)密資料的只有駐伊美軍士兵曼寧。從一般常理判斷,這些人中有能夠合法接觸機(jī)密的人士,有通過(guò)黑客行為獲取機(jī)密的人士,也可能有編造杜撰的人士。從動(dòng)機(jī)來(lái)講,有道德人士想通過(guò)“維基解密”揭發(fā)政府、企業(yè)的丑惡內(nèi)幕,有的資料提供者存在自我炫耀的心理,也有持不同政見(jiàn)者想借此打擊異己等??傊@些行為都存在著制度約束缺位的不可控性。尤其是黑客行為、富有偏見(jiàn)的告密都是網(wǎng)絡(luò)信息倫理普遍難以接受的方式?!熬S基解密”的信息倫理問(wèn)題

“維基解密”事件發(fā)生之前,美國(guó)政府針對(duì)信息安全保護(hù)已經(jīng)制定了一系列信息政策,例如:《關(guān)于保護(hù)國(guó)家信息基礎(chǔ)設(shè)施的第63號(hào)總統(tǒng)令》(1998年)《信息系統(tǒng)保護(hù)國(guó)家計(jì)劃》(2000年)《網(wǎng)絡(luò)空間安全計(jì)劃》(2003年)《保護(hù)關(guān)鍵基礎(chǔ)設(shè)施和關(guān)鍵資產(chǎn)國(guó)家戰(zhàn)略》(2003年)3.2信息倫理2024/2/1321“維基解密”分析“維基解密”相關(guān)的信息政策

“維基解密”事件所表現(xiàn)的主要是政府信息安全和公民信息自由之間的博弈。在這兩個(gè)方面都有相關(guān)的美國(guó)法律法規(guī),如:《信息自由法(1966、1996)》《陽(yáng)光政府法(1976)》《總統(tǒng)檔案法(1978)》等是為了保障公民獲取政府信息的自由。其中尤以《信息自由法》影響最為深遠(yuǎn),它在保障公民個(gè)人信息自由的同時(shí),也對(duì)國(guó)家的信息安全予以保障,通過(guò)豁免條款將需要保護(hù)的信息加以列舉?!稅?ài)國(guó)者法案(2001)》為防止恐怖主義,擴(kuò)張了美國(guó)警察機(jī)關(guān)的權(quán)限。警察機(jī)關(guān)有權(quán)搜索電話、電子郵件通信、醫(yī)療、財(cái)務(wù)和其他種類的記錄?!堵?lián)邦信息安全管理法案(2002)》則要在整個(gè)政府范疇內(nèi)為有關(guān)的信息安全風(fēng)險(xiǎn)提供有效的管理和監(jiān)督?!斗撮g諜法(1917)》《計(jì)算機(jī)安全法案(1987)》《電子政務(wù)法(2002)》都涉及國(guó)家信息安全問(wèn)題?!熬S基解密”相關(guān)的信息法律

由于上述法律適用性局限,最終以強(qiáng)奸罪而非信息安全罪對(duì)“維基解密”創(chuàng)始人阿桑奇提出指控,而對(duì)“維基解密”網(wǎng)站則采取了經(jīng)濟(jì)封殺。這表明當(dāng)時(shí)美國(guó)的信息法律在協(xié)調(diào)政府信息安全與公民信息自由之間的矛盾方面仍存在欠缺。美國(guó)政府和軍方曾試圖援引《反間諜法》起訴“維基解密”,并通過(guò)國(guó)務(wù)院網(wǎng)絡(luò)安保措施加強(qiáng)對(duì)白宮數(shù)據(jù)庫(kù)的控制,以避免造成更多的損失。美國(guó)國(guó)會(huì)計(jì)劃通過(guò)立法使政府敏感部門(mén)的員工有渠道報(bào)告腐敗、浪費(fèi)和管理失誤的問(wèn)題,而不必尋求“維基解密”等外部網(wǎng)站的幫助。維基解密也沒(méi)有觸犯言論自由的法律底線。面對(duì)發(fā)生的泄密事件,信息法律顯得相對(duì)滯后,沒(méi)有任何法律能夠預(yù)見(jiàn)到一種新興傳媒組織可以對(duì)政府信息安全造成如此嚴(yán)重的威脅。對(duì)于此類沖突,僅僅依靠義務(wù)原則或美德原則是遠(yuǎn)遠(yuǎn)不夠的,需要依據(jù)功利主義的結(jié)果原則來(lái)判斷什么樣的對(duì)策更有利于絕大多數(shù)人乃至全人類的長(zhǎng)遠(yuǎn)福祉。美國(guó)政府出于維護(hù)自身信息安全的考慮,制定了臨時(shí)信息政策,包括對(duì)政府?dāng)?shù)據(jù)庫(kù)進(jìn)行安全維護(hù)、起草相關(guān)法律等措施,體現(xiàn)出信息政策的靈活性和針對(duì)性。從“維基解密”事件也可以清晰地看到三者之間的異同和互補(bǔ)關(guān)系,它們共同構(gòu)建、調(diào)節(jié)和維護(hù)信息社會(huì)的秩序,以實(shí)現(xiàn)信息社會(huì)的價(jià)值目標(biāo)。信息倫理、信息政策與信息法律具有相同的價(jià)值追求。因此,三者在作用時(shí)間、作用范圍、作用人群、作用強(qiáng)度等方面相互補(bǔ)充,共同發(fā)揮作用。3.2信息倫理2024/2/1322“維基解密”分析“維基解密”事件發(fā)生之后,人們爭(zhēng)論的焦點(diǎn)在于政府信息安全保護(hù)和公民信息自由各自的底線和邊界究竟在哪里,如何確保在合理的范圍內(nèi)解決兩者之間的沖突。目錄數(shù)據(jù)倫理計(jì)算機(jī)倫理人工智能倫理12345網(wǎng)絡(luò)倫理信息倫理機(jī)器人倫理6發(fā)展歷程主要問(wèn)題基本原則發(fā)展歷程主要問(wèn)題信息法律發(fā)展歷程主要問(wèn)題2024/2/13233.3網(wǎng)絡(luò)倫理發(fā)展歷程2024/2/1324網(wǎng)絡(luò)倫理學(xué),又稱計(jì)算機(jī)網(wǎng)絡(luò)倫理學(xué),是計(jì)算機(jī)信息網(wǎng)絡(luò)專門(mén)領(lǐng)域調(diào)節(jié)人與人、人與社會(huì)特殊利益關(guān)系的道德價(jià)值觀念和行為規(guī)范。20世紀(jì)90年代,網(wǎng)絡(luò)技術(shù)促使世界各地計(jì)算機(jī)用戶相互連接,加快了信息的傳播和獲取速度。不僅僅遇到傳統(tǒng)計(jì)算機(jī)倫理問(wèn)題,還出現(xiàn)了新的倫理問(wèn)題,計(jì)算機(jī)倫理學(xué)的外延得到進(jìn)一步拓展。1996年,英國(guó)學(xué)者羅格森和貝奈姆的《信息倫理學(xué):第二代》指出,第一代計(jì)算機(jī)倫理學(xué)存在研究范圍有限、深度不夠和應(yīng)用領(lǐng)域狹窄等問(wèn)題。高尼亞科倡導(dǎo)建立有力的信息倫理理論來(lái)為網(wǎng)絡(luò)社會(huì)提供指南和決策。為了更加全面、深入地研究和解決信息網(wǎng)絡(luò)技術(shù)和信息網(wǎng)絡(luò)系統(tǒng)相關(guān)的倫理問(wèn)題,學(xué)術(shù)界將計(jì)算機(jī)倫理學(xué)的研究范圍向外拓展到互聯(lián)網(wǎng),進(jìn)入計(jì)算機(jī)倫理學(xué)的第二個(gè)階段,為了凸顯網(wǎng)絡(luò)信息這一專門(mén)領(lǐng)域的特點(diǎn),一些學(xué)者將該階段稱為網(wǎng)絡(luò)倫理階段,稱為網(wǎng)絡(luò)倫理學(xué)。網(wǎng)絡(luò)倫理vs信息倫理vs計(jì)算機(jī)倫理信息倫理學(xué)計(jì)算機(jī)倫理學(xué)網(wǎng)絡(luò)倫理學(xué)從研究的視野、范圍和問(wèn)題域角度:計(jì)算機(jī)倫理學(xué)與網(wǎng)絡(luò)倫理學(xué)的研究范圍既有相似和重合的地方,又有不同之處。信息倫理學(xué)的研究范圍最廣,試圖概括計(jì)算機(jī)倫理學(xué)和網(wǎng)絡(luò)倫理學(xué)涉及的所有倫理問(wèn)題,以形成一種信息領(lǐng)域的普適倫理學(xué)。案例1:網(wǎng)絡(luò)謠言之食鹽搶購(gòu)風(fēng)波

2011年3月11日,日本東海岸發(fā)生9.0級(jí)地震,地震造成日本福島第一核電站1-4號(hào)機(jī)組發(fā)生核泄漏事故。這起嚴(yán)重的核事故竟然在中國(guó)引起了一場(chǎng)搶鹽風(fēng)波。從3月16日開(kāi)始,部分地區(qū)開(kāi)始瘋狂搶購(gòu)食鹽,許多地區(qū)的食鹽在一天之內(nèi)被搶光。3月21日,杭州市公安局西湖分局發(fā)布消息稱,已查到“謠鹽”信息源頭,并對(duì)始作俑者“漁翁”作出行政拘留10天,罰款500元的處罰。案例2:”人肉搜索”第一案2007年12月29日,姜某因其丈夫王某感情原因跳樓身亡。自殺前在博客中記載了自殺前兩個(gè)月的心路歷程。2008年1月,大旗網(wǎng)、天涯社區(qū)等網(wǎng)站披露了含王某私人信息的博客內(nèi)容。2008年3月18日,王某將相關(guān)網(wǎng)站起訴至法院。2009年12月23日,北京二中院作出終審宣判:公民依法享有名譽(yù)權(quán),公民人格尊嚴(yán)受法律保護(hù)。對(duì)王某批評(píng)和譴責(zé)應(yīng)在法律允許的范圍內(nèi)進(jìn)行,披露、宣揚(yáng)其隱私,構(gòu)成對(duì)隱私權(quán)和名譽(yù)權(quán)的侵犯。責(zé)令相關(guān)網(wǎng)站刪除文章及照片、刊登道歉函、進(jìn)行賠償。案例3:熱播劇《掃黑風(fēng)暴》反盜版2021年8月9日,根據(jù)真實(shí)案例改變的電視連續(xù)劇《掃黑風(fēng)暴》在北京衛(wèi)視等視頻媒體播出,播出后影響強(qiáng)烈,收視率和網(wǎng)播量飆升。但播出內(nèi)容尚未過(guò)半,網(wǎng)上便流出《掃黑風(fēng)暴》全集資源,以1元左右價(jià)格售賣(mài)。8月21日上午,該劇官方微博發(fā)布反盜版聲明,指出互聯(lián)網(wǎng)上有人未經(jīng)許可非法傳播、銷(xiāo)售該劇的盜版內(nèi)容,并已經(jīng)第一時(shí)間向公安機(jī)關(guān)報(bào)案,追查盜版來(lái)源。最高人民檢察院提醒:在互聯(lián)網(wǎng)上非法傳播、銷(xiāo)售《掃黑風(fēng)暴》的盜版內(nèi)容,侵犯了出品方以及播出平臺(tái)的合法權(quán)益,涉嫌構(gòu)成刑事犯罪。3.3網(wǎng)絡(luò)倫理2024/2/1325主要問(wèn)題①具體問(wèn)題:在網(wǎng)絡(luò)使用過(guò)程中遇到的現(xiàn)實(shí)問(wèn)題,包括網(wǎng)絡(luò)行為的具體規(guī)范、網(wǎng)絡(luò)行為具體性質(zhì)的界定和網(wǎng)絡(luò)具體問(wèn)題的研究。②交叉問(wèn)題:網(wǎng)絡(luò)與社會(huì)其他現(xiàn)象相關(guān)聯(lián)而出現(xiàn)的問(wèn)題,這些問(wèn)題不僅影響網(wǎng)絡(luò)本身的運(yùn)作和操作問(wèn)題,而且影響到社會(huì)生活的方方面面,如,社會(huì)分層、民主體制、數(shù)字鴻溝、文化及意識(shí)形態(tài)沖突等。目錄數(shù)據(jù)倫理計(jì)算機(jī)倫理人工智能倫理12345網(wǎng)絡(luò)倫理信息倫理機(jī)器人倫理6發(fā)展歷程主要問(wèn)題基本原則發(fā)展歷程主要問(wèn)題信息法律發(fā)展歷程主要問(wèn)題發(fā)展歷程主要問(wèn)題基本原則治理對(duì)策2024/2/13263.4數(shù)據(jù)倫理發(fā)展歷程大數(shù)據(jù)(bigdata)是,“由科學(xué)儀器、感應(yīng)設(shè)備、電子郵件、多媒體軟件、網(wǎng)絡(luò)點(diǎn)擊流和移動(dòng)互聯(lián)交易等多種數(shù)據(jù)源生成的大規(guī)模、多元化、長(zhǎng)期的和復(fù)雜的分布式數(shù)據(jù)集”。大數(shù)據(jù)是相對(duì)于一般數(shù)據(jù)而言的,大數(shù)據(jù)的基本特征可以歸納為4個(gè)“V”。第一,大量化(volumebig),即數(shù)據(jù)規(guī)模龐大。大數(shù)據(jù)是大型數(shù)據(jù)集,不再像之前TB級(jí)別的數(shù)據(jù)那么簡(jiǎn)單,而是PB甚至是EB級(jí)別的數(shù)據(jù),其容量和規(guī)模遠(yuǎn)遠(yuǎn)超過(guò)傳統(tǒng)數(shù)據(jù)。第二,多樣化(varietytype),即數(shù)據(jù)類型繁多。大數(shù)據(jù)所包含的數(shù)據(jù)類型多種多樣,既有不同的媒體形態(tài),也有不同的編碼結(jié)構(gòu)。除了結(jié)構(gòu)化編碼數(shù)據(jù)之外,還包括圖片、視頻、報(bào)表和XML、HTML等半結(jié)構(gòu)化或非結(jié)構(gòu)化數(shù)據(jù)。第三,快速化(velocityfast),即處理速度快。大數(shù)據(jù)時(shí)代,數(shù)據(jù)生成無(wú)時(shí)不刻,其規(guī)模正在以指數(shù)級(jí)速度增長(zhǎng),對(duì)于數(shù)據(jù)的分析和處理也需要快速,這樣才能滿足實(shí)時(shí)性的需求。因此,即時(shí)處理己是大數(shù)據(jù)時(shí)代的趨勢(shì)之一。第四,價(jià)值化(value),即價(jià)值密度較低,數(shù)據(jù)總量與其產(chǎn)生的價(jià)值密度呈反比例函數(shù)。大數(shù)據(jù)本身的價(jià)值密度相對(duì)較低,需要不斷從海量數(shù)據(jù)中挖掘分析真正有用的信息才能真正實(shí)現(xiàn)“用戶價(jià)值”。2007年,計(jì)算機(jī)圖靈獎(jiǎng)獲得者吉姆·格雷在演講中提出,數(shù)據(jù)密集型科學(xué)正在從計(jì)算科學(xué)中分離出來(lái),成為科學(xué)研究的“第四范式”。他指出,像理論科學(xué)、實(shí)驗(yàn)科學(xué)和計(jì)算科學(xué)一樣,以數(shù)據(jù)為中心,以協(xié)同進(jìn)化、數(shù)據(jù)驅(qū)動(dòng)和網(wǎng)絡(luò)化成長(zhǎng)為主要特征的數(shù)據(jù)密集型科學(xué)必將深刻影響人們的思維模式和科學(xué)研究方式。1980年,美國(guó)未來(lái)學(xué)家阿爾文·托夫勒在《第三次浪潮》一書(shū)中指出,“如果說(shuō)IBM主機(jī)拉開(kāi)了信息化革命的大幕,那么‘大數(shù)據(jù)’則是第三次浪潮的精彩華章”。2024/2/1327發(fā)展歷程3.4數(shù)據(jù)倫理2024/2/1328(大)數(shù)據(jù)倫理(bigdataethics),是大型數(shù)據(jù)采集、開(kāi)發(fā)、利用和保護(hù)的道德規(guī)范。2012年9月,美國(guó)學(xué)者戴維斯和帕特森出版的《大數(shù)據(jù)倫理學(xué)》詳細(xì)討論了大數(shù)據(jù)技術(shù)的興起,人類將面臨的倫理挑戰(zhàn)。同年,庫(kù)克耶在其著作《大數(shù)據(jù)時(shí)代》中將大數(shù)據(jù)倫理界定為新的隱私問(wèn)題、數(shù)據(jù)安全問(wèn)題、虛假數(shù)據(jù)問(wèn)題。2016年11月、2021年6月和2021年8月,我國(guó)分別頒布了:《網(wǎng)絡(luò)安全法》《數(shù)據(jù)安全法》《個(gè)人信息保護(hù)法》2018年5月,歐盟頒布《通用數(shù)據(jù)保護(hù)條例》(GDPR)。2018年6月,英國(guó)頒布了《數(shù)據(jù)倫理框架》,對(duì)數(shù)據(jù)倫理的七條原則進(jìn)行了界定。主要問(wèn)題3.4數(shù)據(jù)倫理2024/2/1329數(shù)據(jù)隱私問(wèn)題

數(shù)據(jù)信息蘊(yùn)含的潛在價(jià)值得到空前的開(kāi)發(fā)和利用,數(shù)據(jù)隱私問(wèn)題更加突出。數(shù)據(jù)獨(dú)裁問(wèn)題

人們的決策逐漸完全依賴于數(shù)據(jù)的預(yù)測(cè),使人們徹底走向唯數(shù)據(jù)主義。數(shù)字身份問(wèn)題一組獨(dú)一無(wú)二地描述一個(gè)人的數(shù)據(jù),是有關(guān)一個(gè)人在數(shù)字上可獲取信息的總和。數(shù)據(jù)權(quán)利問(wèn)題

個(gè)人或組織對(duì)數(shù)據(jù)所擁有的占有權(quán)、使用權(quán)、支配權(quán)、知情權(quán)等。數(shù)字鴻溝問(wèn)題

數(shù)字鴻溝也稱為信息鴻溝,不同地域和不同的群體對(duì)社會(huì)信息資源占有、使用、收益、分配過(guò)程中的地位、權(quán)利和機(jī)會(huì)存在顯著差距?!氨M管大數(shù)據(jù)的力量是那么耀眼,但我們必須避免被它的光芒誘惑,并善于發(fā)現(xiàn)它固有的瑕疵”。——維克托·舍恩伯格(大)數(shù)據(jù)倫理vs網(wǎng)絡(luò)倫理vs信息倫理vs計(jì)算機(jī)倫理現(xiàn)代信息技術(shù)是信息倫理學(xué)演進(jìn)的邏輯依據(jù):20世紀(jì)70年代,因計(jì)算機(jī)技術(shù)引發(fā)的倫理問(wèn)題,產(chǎn)生了計(jì)算機(jī)倫理學(xué)。20世紀(jì)90年代,信息技術(shù)拓展到互聯(lián)網(wǎng)領(lǐng)域,與信息相關(guān)的倫理研究發(fā)展為網(wǎng)絡(luò)倫理學(xué)。進(jìn)入21世紀(jì),大數(shù)據(jù)作為信息化發(fā)展的高級(jí)階段,引發(fā)新的倫理問(wèn)題,逐步形成了新的道德價(jià)值和道德規(guī)范,即(大)數(shù)據(jù)倫理學(xué)。信息技術(shù)的推進(jìn)和信息化程度的加深,促使信息倫理學(xué)的研究范圍不斷拓展,超出了傳統(tǒng)計(jì)算機(jī)倫理與網(wǎng)絡(luò)倫理的邊界。信息倫理經(jīng)歷計(jì)算機(jī)倫理、網(wǎng)絡(luò)倫理到大數(shù)據(jù)時(shí)代信息倫理(數(shù)據(jù)倫理)的歷史演變,逐步形成了具有整體視野和普遍意義的信息倫理學(xué)。信息倫理計(jì)算機(jī)倫理網(wǎng)絡(luò)倫理數(shù)據(jù)倫理目錄數(shù)據(jù)倫理計(jì)算機(jī)倫理人工智能倫理12345網(wǎng)絡(luò)倫理信息倫理機(jī)器人倫理6發(fā)展歷程主要問(wèn)題基本原則發(fā)展歷程主要問(wèn)題信息法律發(fā)展歷程主要問(wèn)題發(fā)展歷程主要問(wèn)題基本原則治理對(duì)策發(fā)展歷程主要問(wèn)題基本原則2024/2/13303.5機(jī)器人倫理2024/2/1331發(fā)展歷程機(jī)器人倫理學(xué)(robotethics,roboethics)是以人類為中心,關(guān)于機(jī)器人建造和使用的倫理學(xué)。機(jī)器倫理(Machineethics)是如何確保使用人工智能的人工機(jī)器或人工智能體(ArtificialMoralAgents)具有道德的行為,是人工道德智能體、機(jī)器或人工智能計(jì)算機(jī)行為的道德規(guī)范或倫理準(zhǔn)則。機(jī)器倫理學(xué)主要關(guān)注“機(jī)器如何對(duì)人類表現(xiàn)出符合倫理道德的行為”;機(jī)器人倫理學(xué)主要關(guān)注“人類如何在設(shè)計(jì)和使用操作階段與這些機(jī)器進(jìn)行聯(lián)系交互”。機(jī)器人倫理學(xué)屬于“以人為中心”的倫理學(xué),責(zé)任主體是人,主要研究設(shè)計(jì)者在機(jī)器人設(shè)計(jì)、使用中的倫理規(guī)范以及把人類道德規(guī)范嵌入到機(jī)器人系統(tǒng)等問(wèn)題;機(jī)器倫理學(xué)是機(jī)器具有了人類智能后應(yīng)該遵循的倫理規(guī)范,機(jī)器倫理學(xué)是“以機(jī)器為中心”的倫理學(xué),責(zé)任主體是機(jī)器。英國(guó)作家巴特勒在1863年就開(kāi)始考慮機(jī)器成為人類繼任者的可能性。對(duì)機(jī)器的倫理方面(即利用倫理原則對(duì)機(jī)器行為進(jìn)行規(guī)約和引導(dǎo))做了深刻的考察。1936年,捷克著名科幻劇作家恰佩克在喜劇《羅素姆的萬(wàn)能機(jī)器人》首次使用“Robota(機(jī)器人)”,后來(lái)演化為“robot”。該詞原意是“勞動(dòng)”或“奴役”,為倫理道德引入提供了對(duì)象載體。1942年,阿西莫夫的短篇小說(shuō)《轉(zhuǎn)圈圈》首次明確闡述了著名的“機(jī)器人三定律”。20世紀(jì)50年代后期,恩格爾伯格(JosephF.Engelberger)研制出第一臺(tái)工業(yè)機(jī)器人。20世紀(jì)60年代,機(jī)器人進(jìn)入了全面發(fā)展時(shí)期,隨著人工智能的應(yīng)用,機(jī)器越來(lái)越像人,甚至超過(guò)了人類的能力。如何設(shè)計(jì)與對(duì)待機(jī)器人也進(jìn)入學(xué)者視野,機(jī)器人倫理學(xué)因此而誕生。3.5機(jī)器人倫理2024/2/1332發(fā)展歷程1987年,沃爾德羅普在論文“AQuestionofResponsi-bility”中正式提出機(jī)器倫理這一術(shù)語(yǔ),并指出“智能機(jī)器將包含價(jià)值、假設(shè)和目的,不管它們的程序員是否有意這樣做。我們必須仔細(xì)而明確地思考這些內(nèi)在價(jià)值是什么,也許我們需要的是一套符合阿西莫夫機(jī)器人三定律的機(jī)器倫理理論和實(shí)踐?!?992年,英屬哥倫比亞大學(xué)的應(yīng)用倫理學(xué)教授彼特

丹尼爾森(PeterDanielson)出版了《技術(shù)人工物道德:善良機(jī)器人的美德游戲》一書(shū),他第一次在倫理設(shè)計(jì)框架內(nèi)對(duì)使用計(jì)算機(jī)技術(shù)進(jìn)行構(gòu)造道德推理模型進(jìn)行了嘗試性探索,這相對(duì)于以往幾乎空白的研究來(lái)說(shuō)具有前瞻性和開(kāi)創(chuàng)性,從現(xiàn)在觀點(diǎn)看,他對(duì)機(jī)器人倫理思想的探索仍然很具深度??梢哉f(shuō),丹尼爾森的研究工作代表了當(dāng)時(shí)機(jī)器人倫理領(lǐng)域的最高成就。2002年在意大利召開(kāi)的

“國(guó)際機(jī)器人倫理學(xué)研討會(huì)”上,首次使用了“機(jī)器人倫理學(xué)”(roboethics),并提出把“機(jī)器人倫理學(xué)”細(xì)化為兩個(gè)應(yīng)用分支學(xué)科:“機(jī)器倫理學(xué)”和“機(jī)器人倫理學(xué)”。2007年4月14日,IEEE-RAS(RoboticsandAutomationSociety)技術(shù)委員會(huì)在意大利的羅馬大學(xué)召開(kāi)了ICRA(IEEEInternationalConferenceonRoboticsandAutomation)的機(jī)器人倫理學(xué)研討會(huì),擬定并頒布了《歐洲機(jī)器人倫理學(xué)路線圖》(TheEURONRoboethicsRoadmap),為機(jī)器人倫理學(xué)研究開(kāi)發(fā)提供了參考文本。發(fā)展歷程美國(guó)佐治亞理工學(xué)院羅伯特

阿爾金(RonaldArkin)教授于2009年3月,出版了《自治機(jī)器人致命行為的管理》,他認(rèn)為,“機(jī)器人倫理學(xué)的核心問(wèn)題是責(zé)任主體限定,機(jī)器人是作為人類社會(huì)的奴仆和服務(wù)者角色而存在的”

。3.5機(jī)器人倫理2024/2/13332009年,耶魯大學(xué)溫德?tīng)?/p>

瓦拉赫(Wendellwallach)和科林

艾倫(ColinAllen)合著出版《機(jī)器倫理:教機(jī)器人區(qū)分善惡》,對(duì)狹義機(jī)器人以及廣義人工道德行為體等進(jìn)行了探討。如,人工道德行為體能否獲得合法道德行為體資格;自治(主)系統(tǒng)是否能夠“真正地”滿足和具備自治行為的需要等

。2011年,美國(guó)加州理工學(xué)院帕特里克

林(PatrickLin)領(lǐng)銜,聯(lián)合同事基思

阿布尼(KeithAbney),以及南加州大學(xué)計(jì)算機(jī)科學(xué)教授喬治

拜柯(GeorgeA.Bekey)三人出版了首部《機(jī)器人倫理學(xué)》(RobotEthics)學(xué)術(shù)專著,提出了“機(jī)器人倫理學(xué)(Roboethics)作為應(yīng)用倫理學(xué)的新學(xué)科”的論斷。該書(shū)對(duì)機(jī)器人倫理問(wèn)題進(jìn)行了系統(tǒng)、全面的探討。諸如,軍用機(jī)器人應(yīng)用到戰(zhàn)爭(zhēng)中的法律和政策問(wèn)題;在“人-機(jī)情感交互”實(shí)踐中,作為護(hù)工、伴侶角色的機(jī)器人應(yīng)當(dāng)遵守哪些倫理規(guī)范;具有賽博格(生物-計(jì)算機(jī)混合體)形態(tài)的機(jī)器應(yīng)享有和肩負(fù)何種權(quán)利和道德責(zé)任。發(fā)展歷程2011年,美國(guó)哈特福德大學(xué)計(jì)算機(jī)科學(xué)教授邁克爾

安德森(MichaelAnderson)與康涅狄格大學(xué)的哲學(xué)教授蘇珊

安德森(SusanLeighAnderson)合作主編出版了《機(jī)器倫理》(MachineEthics),該書(shū)介紹了機(jī)器人倫理學(xué)領(lǐng)域的研究綱領(lǐng)和最新進(jìn)展?fàn)顩r,并入選了沃茲沃思哲學(xué)家系列(WadsworthPhilosophersSeries))。3.5機(jī)器人倫理2024/2/13342015年,尼克·博斯特羅姆出版《超級(jí)智能:路徑、危險(xiǎn)、策略》一書(shū),該書(shū)中指出,機(jī)器倫理是人類迄今為止面臨的最重大的問(wèn)題,該書(shū)列《紐約時(shí)報(bào)》最暢銷(xiāo)科學(xué)書(shū)籍排行榜第17位。雅典國(guó)立技術(shù)大學(xué)的施皮羅斯

尼亞費(fèi)斯塔(SpyrosG.Tzafestas)教授于2016年率先出版了國(guó)際上第一本通識(shí)教材《機(jī)器人倫理學(xué):學(xué)科導(dǎo)論》對(duì)“機(jī)器人倫理學(xué)”的基本概念、研究對(duì)象、基本倫理原則、主要倫理問(wèn)題以及研究方法等作了介紹。2017年的利雅得未來(lái)投資峰會(huì),機(jī)器人索菲亞被授予沙特阿拉伯國(guó)籍(來(lái)第一個(gè)擁有國(guó)籍的機(jī)器人)。引起了爭(zhēng)議,如,索菲亞是否可以投票或結(jié)婚?故意關(guān)閉系統(tǒng)是否視為謀殺等。發(fā)展歷程聯(lián)合國(guó)教育、科學(xué)及文化組織的下設(shè)委員會(huì)(theWorldCommissionontheEthicsofScientificKnowledgeandTechnologyofUNESCO,簡(jiǎn)稱COMEST)歷時(shí)兩年完成并于2017年9月發(fā)布了《機(jī)器人倫理報(bào)告》(ReportofCOMESTonroboticsethics),建議制定國(guó)家和國(guó)際層面的倫理準(zhǔn)則。從學(xué)術(shù)價(jià)值的角度看,機(jī)器人倫理開(kāi)拓了科技倫理研究的新領(lǐng)域,對(duì)于加深與變革包括人、生命、智能與機(jī)器等基本哲學(xué)概念的理解與認(rèn)識(shí)具有重要意義。從實(shí)踐意義的角度看,對(duì)于社會(huì)大眾來(lái)說(shuō),機(jī)器人倫理研究有助于建構(gòu)起人類與機(jī)器人互動(dòng)的道德觀念與道德規(guī)范,實(shí)現(xiàn)人與機(jī)器人的和諧相處。對(duì)機(jī)器人技術(shù)的研發(fā)人員來(lái)說(shuō),機(jī)器人倫理設(shè)計(jì)原則與方法的研究成果,可以為其提供技術(shù)研發(fā)的倫理依據(jù)與理論支撐;而且,機(jī)器人倫理研究也有助于加強(qiáng)科技人員的道德責(zé)任感,培養(yǎng)科技人員的道德想象力與實(shí)踐能力。對(duì)科技管理人員來(lái)說(shuō),機(jī)器人倫理研究成果可以為機(jī)器人產(chǎn)業(yè)政策的制定提供理論參考。“機(jī)器人在可預(yù)見(jiàn)的未來(lái)將面臨人類道德的拷問(wèn),也面臨擔(dān)負(fù)著人類道德和法律的責(zé)任”?!皶?huì)思考的機(jī)器人擁有人工智能,使它們可以復(fù)制自身,而不加控制的自我復(fù)制是這些新技術(shù)的危險(xiǎn)之一”。人類作為社會(huì)的締造者和主導(dǎo)者,對(duì)其擔(dān)負(fù)著不可逃脫的重要責(zé)任。人類必須正視機(jī)器人的倫理問(wèn)題和社會(huì)影響,通過(guò)哲學(xué)、心理學(xué)、法律和其他專業(yè)領(lǐng)域的智力支持和理論支撐,以一種跨學(xué)科多領(lǐng)域的復(fù)合知識(shí)系統(tǒng)指導(dǎo)設(shè)計(jì),構(gòu)建“善”的機(jī)器人。3.5機(jī)器人倫理2024/2/1335智能機(jī)器人已從科幻文學(xué)作品走進(jìn)現(xiàn)實(shí)生活,開(kāi)始逐漸成為人們所熟知的事物。正如計(jì)算機(jī)對(duì)人類生活世界沖擊一樣,智能機(jī)器人對(duì)人類社會(huì)產(chǎn)生著深遠(yuǎn)影響。主要問(wèn)題3.5機(jī)器人倫理2024/2/1336機(jī)器人權(quán)利問(wèn)題。什么樣的機(jī)器人可以擁有權(quán)利?可以擁有哪些權(quán)利?機(jī)器人為何可以擁有權(quán)利?機(jī)器人的權(quán)利與人的權(quán)利、動(dòng)物權(quán)利有哪些異同?如何賦予、保護(hù)、限制甚至剝奪機(jī)器人的權(quán)利?人與機(jī)器人關(guān)系。如何看待人與機(jī)器人的差異?應(yīng)該如何對(duì)待機(jī)器人?如何建立某些機(jī)制來(lái)避免人類對(duì)機(jī)器人的過(guò)度依賴?在許多方面已經(jīng)超過(guò)自己的機(jī)器人面前,人類如何保持自身主體性地位?機(jī)器人法律問(wèn)題。在解決機(jī)器人倫理問(wèn)題中,道德與法律手段的應(yīng)用范圍與限度如何界定?哪些機(jī)器人倫理相關(guān)問(wèn)題需要通過(guò)法律手段來(lái)解決?軍用機(jī)器人看護(hù)機(jī)器人服務(wù)機(jī)器人情侶機(jī)器人領(lǐng)域機(jī)器人倫理問(wèn)題機(jī)器人倫理的普遍性問(wèn)題不同領(lǐng)域機(jī)器人倫理問(wèn)題軍用機(jī)器人在戰(zhàn)場(chǎng)上出現(xiàn)了錯(cuò)誤,將由誰(shuí)承擔(dān)責(zé)任?如何保證軍用機(jī)器人在戰(zhàn)場(chǎng)上不會(huì)濫殺無(wú)辜?如何限制軍用機(jī)器人的使用范圍?已婚人士可否擁有情侶機(jī)器人?情侶機(jī)器人是否破壞婚姻倫理的忠誠(chéng)原則?不同的人是否可以共享、出借與交換情侶機(jī)器人?是否可對(duì)同性戀者提供情侶機(jī)器人?把孩子交給機(jī)器人看護(hù),會(huì)產(chǎn)生哪些負(fù)面效應(yīng)?人類對(duì)助老機(jī)器人的依賴是否會(huì)沖淡人類的親情?如何保證兒童看護(hù)與助老機(jī)器人的安全性問(wèn)題?服務(wù)機(jī)器人如何與人類產(chǎn)生情感聯(lián)系?性別、年齡、職業(yè)、受教育程度等是否會(huì)影響人與機(jī)器人之間的情感聯(lián)系?3.5機(jī)器人倫理2024/2/1337機(jī)器(人)倫理vs(大)數(shù)據(jù)倫理vs網(wǎng)絡(luò)倫理vs信息倫理vs計(jì)算機(jī)倫理信息倫理計(jì)算機(jī)倫理網(wǎng)絡(luò)倫理數(shù)據(jù)倫理機(jī)器人倫理機(jī)器人倫理學(xué)和機(jī)器倫理學(xué)兩者的重疊程度在一定意義上將取決于“機(jī)器人”如何被定義:如果“機(jī)器人”被給予寬泛的定義,即包括虛擬機(jī)和固定物理實(shí)體系統(tǒng)的話,那么,這兩者將有很大部分的重疊;如果我們對(duì)“機(jī)器人”進(jìn)行嚴(yán)格狹義地定義,排除虛擬機(jī)和固定物理實(shí)體系統(tǒng)的話,那么“機(jī)器倫理學(xué)”的主題將比“機(jī)器人倫理學(xué)”更寬泛。從學(xué)術(shù)價(jià)值角度看,機(jī)器人倫理開(kāi)拓了科技倫理研究新領(lǐng)域,并且對(duì)于我們加深與變革包括人、生命、智能與機(jī)器等基本哲學(xué)概念的理解與認(rèn)識(shí)具有重要意義。從實(shí)踐意義角度看,對(duì)于社會(huì)大眾來(lái)說(shuō),機(jī)器人倫理研究有助于建構(gòu)起人類與機(jī)器人互動(dòng)的道德觀念與道德規(guī)范,實(shí)現(xiàn)人與機(jī)器人的和諧相處;對(duì)機(jī)器人技術(shù)的研發(fā)人員來(lái)說(shuō),機(jī)器人倫理設(shè)計(jì)原則與方法的研究成果,可以為其提供技術(shù)研發(fā)的倫理依據(jù)與理論支撐,而且也有助于加強(qiáng)科技人員的道德責(zé)任感、道德想象力與實(shí)踐能力;對(duì)科技管理人員來(lái)說(shuō),機(jī)器人倫理研究成果可以為機(jī)器人產(chǎn)業(yè)政策的制定提供理論參考。目錄數(shù)據(jù)倫理計(jì)算機(jī)倫理人工智能倫理12345網(wǎng)絡(luò)倫理信息倫理機(jī)器人倫理6發(fā)展歷程主要問(wèn)題基本原則發(fā)展歷程主要問(wèn)題信息法律發(fā)展歷程主要問(wèn)題發(fā)展歷程主要問(wèn)題基本原則治理對(duì)策發(fā)展歷程主要問(wèn)題基本原則發(fā)展歷程主要問(wèn)題治理措施2024/2/1338發(fā)展歷程3.6人工智能倫理2024/2/1339人工智能倫理淵源時(shí)間脈絡(luò)圖機(jī)器倫理機(jī)器人倫理計(jì)算機(jī)倫理信息倫理網(wǎng)絡(luò)倫理數(shù)據(jù)倫理人工智能倫理1948年1936年1863年1996年2012年2016年1985年發(fā)展歷程3.6人工智能倫理2024/2/1340人工智能倫理學(xué)(Ethicsofartificialintelligence)是針對(duì)人工智能系統(tǒng)的應(yīng)用倫理學(xué)的一個(gè)分支。人工智能倫理是人類設(shè)計(jì)、制造、使用和對(duì)待人工智能系統(tǒng)的道德,機(jī)器倫理中的機(jī)器行為,以及超級(jí)人工智能的奇點(diǎn)問(wèn)題。2016年,阿爾法狗贏得人機(jī)圍棋大戰(zhàn)為標(biāo)志,人工智能倫理由此成為世界各國(guó)政府、組織機(jī)構(gòu)以及大型科技企業(yè)的人工智能政策的核心內(nèi)容之一。學(xué)者們也對(duì)人工智能倫理及相關(guān)問(wèn)題開(kāi)著了積極廣泛的研究和探討。2016年,IEEE標(biāo)準(zhǔn)協(xié)會(huì)啟動(dòng)了——倫理自主系統(tǒng)設(shè)計(jì)的全球行動(dòng)倡議,旨在從實(shí)際需求出發(fā)建立社會(huì)公認(rèn)的人工智能倫理標(biāo)準(zhǔn)、職業(yè)認(rèn)證及道德規(guī)范。其發(fā)布的“人工智能設(shè)計(jì)的倫理準(zhǔn)則”白皮書(shū)目前已迭代到第二版。2016年,博諾佛等在《Science》發(fā)文“TheSocialDilemmaofAutonomousVehicles”,對(duì)自動(dòng)駕駛汽車(chē)的社會(huì)困境進(jìn)行了討論,指出定義有助于自動(dòng)駕駛汽車(chē)作出道德決策的算法是一項(xiàng)艱巨的挑戰(zhàn)。2017年,伯德丁頓出版了首部AI倫理著作《TowardsaCodeofEthicsforArtificialIntelligence》,闡述了如何借鑒其他領(lǐng)域的經(jīng)驗(yàn)教訓(xùn)制定人工智能倫理規(guī)范或其他法規(guī),并介紹了人工智能職業(yè)道德的特點(diǎn)。發(fā)展歷程2017年1月初舉行的“BeneficialAI”會(huì)議,在此基礎(chǔ)上建立起來(lái)的“阿西洛馬人工智能原則”,名稱來(lái)自此次會(huì)議的地點(diǎn)——美國(guó)加州的阿西洛馬市,旨在確保AI為人類利益服務(wù)。阿西洛馬人工智能原則的第6至18條,指出了人工智能的倫理和價(jià)值。牛津大學(xué)、劍橋大學(xué)和OpenAI公司等7家機(jī)構(gòu)于2018年共同發(fā)布《人工智能的惡意使用:預(yù)測(cè)、預(yù)防和緩解》,分析了人工智能可能帶來(lái)的安全威脅并提出應(yīng)對(duì)建議。微軟、谷歌、IBM等科技企業(yè)制定了人工智能開(kāi)發(fā)的倫理原則,F(xiàn)acebook在2019年初在慕尼黑工業(yè)大學(xué)建立了AI倫理研究所。3.6人工智能倫理2024/2/13412018年1月,微軟發(fā)布了《未來(lái)計(jì)算》(TheFutureComputed)一書(shū),其中提出了開(kāi)發(fā)人工智能的六大原則:公平、可靠和安全、隱私和保障、包容、透明、責(zé)任。2018年3月,歐洲科學(xué)與新技術(shù)倫理組織(EuropeanGrouponEthicsinScienceandNewTechnologies)發(fā)布《關(guān)于人工智能、機(jī)器人及“自主”系統(tǒng)的聲明》(StatementonArtificialIntelligence,Roboticsand‘Autonomous’Systems),呼吁為人工智能、機(jī)器人和“自主”系統(tǒng)的設(shè)計(jì)、生產(chǎn)、使用和治理制定共同的、國(guó)際公認(rèn)的道德和法律框架。發(fā)展歷程2019年2月,中國(guó)國(guó)家新一代人工智能治理專業(yè)委員會(huì)成立,并發(fā)布《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》。同年4月,國(guó)家人工智能標(biāo)準(zhǔn)化總體組發(fā)布了《人工智能倫理風(fēng)險(xiǎn)分析報(bào)告》。3.6人工智能倫理2024/2/1342中國(guó)政府高度重視人工智能產(chǎn)業(yè)發(fā)展中的倫理問(wèn)題。2017年7月國(guó)務(wù)院發(fā)布的《新一代人工智能發(fā)展規(guī)劃》,要求“制定促進(jìn)人工智能發(fā)展的法律法規(guī)和倫理規(guī)范;開(kāi)展人工智能行為科學(xué)和倫理等問(wèn)題研究;制定人工智能產(chǎn)品研發(fā)設(shè)計(jì)人員的道德規(guī)范和行為守則”。在該戰(zhàn)略文件中,倫理一詞出現(xiàn)15次之多,足見(jiàn)我國(guó)對(duì)人工智能倫理的高度重視。2018年1月18日,在國(guó)家人工智能標(biāo)準(zhǔn)化總體組的成立大會(huì)上,《人工智能標(biāo)準(zhǔn)化白皮書(shū)2018》正式發(fā)布。白皮書(shū)論述了人工智能的安全、倫理和隱私問(wèn)題,認(rèn)為設(shè)定人工智能技術(shù)的倫理要求,要依托于社會(huì)和公眾對(duì)人工智能倫理的深入思考和廣泛共識(shí),并遵循一些共識(shí)原則。2017年11月,騰訊研究院與中國(guó)信通院互聯(lián)網(wǎng)法律研究中心、騰訊AI實(shí)驗(yàn)室、騰訊開(kāi)放平臺(tái)一起出版了《人工智能:國(guó)家人工智能戰(zhàn)略行動(dòng)抓手》一書(shū),書(shū)中戰(zhàn)略篇、法律篇、倫理篇以及治理篇著重討論人工智能的社會(huì)和倫理影響,呼吁為人工智能的發(fā)展和應(yīng)用制定共同的倫理框架。發(fā)展歷程3.6人工智能倫理2024/2/13432019年4月歐盟委員會(huì)發(fā)布《可信賴AI的倫理指導(dǎo)原則》。弗吉尼亞

迪格南在2018年3月的《倫理學(xué)與信息技術(shù)》雜志上發(fā)文指出,人工智能倫理具有如下三個(gè)目標(biāo):①設(shè)計(jì)倫理(Ethics

by

Design),倫理推理能力的技術(shù)/算法集成,作為人工自主系統(tǒng)行為的一部分;②設(shè)計(jì)中的倫理(Ethics

in

Design),當(dāng)人工智能系統(tǒng)整合或取代傳統(tǒng)社會(huì)結(jié)構(gòu)時(shí),支持分析和評(píng)估其倫理影響的監(jiān)管和工程方法;③為了設(shè)計(jì)的倫理(Ethics

for

design),確保開(kāi)發(fā)人員和用戶在研究、設(shè)計(jì)、建造、使用和管理人工智能系統(tǒng)時(shí)完整性的行為規(guī)范、標(biāo)準(zhǔn)和認(rèn)證過(guò)程。2021年11月,聯(lián)合國(guó)教科文組織通過(guò)首個(gè)全球性的AI倫理協(xié)議《人工智能倫理建議書(shū)》。2019年6月,美國(guó)發(fā)布《國(guó)家人工智能研究和發(fā)展戰(zhàn)略規(guī)劃》提出“理解人工智能的倫理、法律和社會(huì)影響,開(kāi)發(fā)用于設(shè)計(jì)與倫理、法律和社會(huì)目標(biāo)一致的人工智能研發(fā)方法?!卑l(fā)展歷程2020年至今,學(xué)者們陸續(xù)出版了一些人工智能倫理方面的學(xué)術(shù)著作和教材:在國(guó)外,馬克

柯克伯格的《人工智能倫理》(AIEthics)(2020年),馬庫(kù)斯德克·杜伯、佛蘭科

帕斯奎爾和蘇尼特

丹斯的《牛津人工智能倫理手冊(cè)》(TheOxfordhandbookofethicsofAI)(2020年),馬修·廖的《人工智能倫理》(Ethicsofartificialintelligence)(2020年),克里斯托夫

巴特內(nèi)克、克里斯托夫

路特德、阿蘭

瓦格納和肖恩

沃爾什的《機(jī)器人和人工智能倫理導(dǎo)論》(AnIntroductiontoEthicsinRoboticsandAI)(2021年)。3.6人工智能倫理2024/2/1344在國(guó)內(nèi),郭銳出版了《人工智能的倫理和治理》(2020年8月)、杜嚴(yán)勇出版了《人工智能倫理引論》(2020年6月)、陳小平出版了《人工智能倫理導(dǎo)引》(2021年2月)、古天龍出版了《人工智能倫理導(dǎo)論》(2022年8月)。3.6人工智能倫理2024/2/1345機(jī)器人通常被認(rèn)為是人工智能系統(tǒng)的載體,機(jī)器人是人工智能的承載者。不是所有的機(jī)器人都通過(guò)人工智能系統(tǒng)發(fā)揮作用,也不是所有的人工智能系統(tǒng)都是機(jī)器人。人工智能倫理與機(jī)器人倫理相互交叉。機(jī)器學(xué)習(xí)是人工智能的核心技術(shù),機(jī)器學(xué)習(xí)被譽(yù)為“算法+算力+數(shù)據(jù)”。由此,人工智能倫理與數(shù)據(jù)倫理、網(wǎng)絡(luò)倫理、計(jì)算機(jī)倫理、信息倫理具有密切的關(guān)系。人工智能倫理源于計(jì)算機(jī)倫理、網(wǎng)絡(luò)倫理、信息倫理、數(shù)據(jù)倫理和機(jī)器人倫理。從計(jì)算機(jī)倫理、信息倫理、網(wǎng)絡(luò)倫理、數(shù)據(jù)倫理、機(jī)器人倫理到人工智能倫理,有其發(fā)展的繼承性,有很多相似之處,但也有不同。AI倫理vs機(jī)器(人)倫理vs(大)數(shù)據(jù)倫理vs網(wǎng)絡(luò)倫理vs信息倫理vs計(jì)算機(jī)倫理主要問(wèn)題人工智能的主要倫理問(wèn)題包括:隱私泄露偏見(jiàn)歧視技術(shù)濫用責(zé)任歸屬技術(shù)層面主要包括算法及系統(tǒng)的安全問(wèn)題、可解釋性問(wèn)題、算法歧視問(wèn)題和算法決策問(wèn)題。算法及系統(tǒng)的安全問(wèn)題,主要是指算法或系統(tǒng)的漏洞被攻擊和惡意利用的情形;可解釋性問(wèn)題,則主要關(guān)注人類的知情利益和主體地位;算法歧視問(wèn)題,來(lái)自算法研究人員的認(rèn)知偏見(jiàn)或者訓(xùn)練數(shù)據(jù)集不完美導(dǎo)致的歧視性的決策結(jié)果;算法決策問(wèn)題,則是人工智能自學(xué)習(xí)導(dǎo)致的不可預(yù)見(jiàn)性結(jié)果。數(shù)據(jù)層面人工智能在許多領(lǐng)域獲得重大進(jìn)展依賴于海量數(shù)據(jù),人工智能技術(shù)的快速發(fā)展以及大量應(yīng)用案例實(shí)施,提供了豐富的個(gè)人信息收集場(chǎng)景、范圍和數(shù)量,數(shù)據(jù)采集日益成為引發(fā)人工智能倫理問(wèn)題的重要原因之一。應(yīng)用層面人工智能算法的濫用和誤用。人們?cè)谏鐣?huì)活動(dòng)時(shí)容易出現(xiàn)使用目的、方式、范圍等偏差,從而導(dǎo)致不良的影響和后果。3.6人工智能倫理2024/2/1346特朗普?qǐng)F(tuán)隊(duì)借助Facebook干預(yù)大選虛擬社交網(wǎng)絡(luò)中的隱私泄露據(jù)《紐約時(shí)報(bào)》和《英國(guó)觀察家報(bào)》報(bào)道,劍橋分析公司(CambridgeAnalytica)與2016年特朗普競(jìng)選團(tuán)隊(duì)合作,在未經(jīng)用戶許可的情況下,CambridgeAnalytica獲取了5000名Facebook賬號(hào)的信息,并將之濫用于2016美國(guó)總統(tǒng)大選期間的政治廣告,利用個(gè)人檔案建立起個(gè)人信息系統(tǒng),預(yù)測(cè)和影響民意的選擇,來(lái)幫助自己贏得大選。新冠疫情相關(guān)人員信息遭泄露2020年1月,新冠疫情期間,近7000多名武漢返鄉(xiāng)人員的信息被泄露。不少人在信息遭遇泄露后,被微信騷擾,甚至誤認(rèn)作新冠攜帶者被人打電話辱罵。2020年2月9日,中央網(wǎng)信辦發(fā)布了《關(guān)于做好個(gè)人信息保護(hù)利用大數(shù)據(jù)支撐聯(lián)防聯(lián)控工作的通知》,除衛(wèi)生部門(mén)依法授權(quán)機(jī)構(gòu)外,任何單位、個(gè)人都不得借疫情防控為由未經(jīng)同意收集個(gè)人信息,不得未經(jīng)被收集者同意公開(kāi)姓名、年齡、身份證號(hào)碼等個(gè)人信息。智能音箱被爆“偷聽(tīng)”用戶隱私2018年8月,一名名叫馬丁的智能音箱用戶,要求亞馬遜給出自己使用的亞馬遜智能音箱的語(yǔ)音記錄,想不到,亞馬遜向他發(fā)送相關(guān)錄音鏈接時(shí),還發(fā)送了一位陌生人的1700個(gè)音頻文件。這些錄音來(lái)自另一名男子家中,該男子和一名女性同伴的活動(dòng)被錄了下來(lái),甚至還包括洗澡時(shí)音頻。也一度爆發(fā)了智能音箱“監(jiān)聽(tīng)門(mén)”?,F(xiàn)實(shí)社交生活中的隱私泄露家居/辦公場(chǎng)景中的隱私泄露隱私泄露是指正當(dāng)?shù)?、而又不能或不愿示人的事、物及情感活?dòng)等被非法竊取或使用。主要問(wèn)題3.6人工智能倫理2024/2/1347價(jià)格歧視性別歧視種族歧視2019年3月,一位網(wǎng)友稱自己疑似被攜程“殺熟”。一開(kāi)始他購(gòu)買(mǎi)了一張價(jià)格為17548元的機(jī)票,由于忘記選擇報(bào)銷(xiāo)憑證取消訂單重選,但隨后發(fā)現(xiàn)系統(tǒng)顯示無(wú)票,再次搜索時(shí)價(jià)格就變成了18987元。2020年3月,有網(wǎng)友爆料,天貓超市88VIP看到的商品價(jià)格居然比普通會(huì)員還高。同一款豆奶,88VIP顯示的價(jià)格為73.3元,非88VIP顯示的價(jià)格才62.8元。2018年2月,麻省理工學(xué)院的JoyBuolamwini發(fā)現(xiàn),IBM、微軟和中國(guó)公司Megvii的三個(gè)最新的性別識(shí)別AI可以在99%的情況下準(zhǔn)確從照片中識(shí)別一個(gè)人的性別,但這僅限于白人。對(duì)于女性黑人來(lái)說(shuō),這個(gè)準(zhǔn)確率會(huì)降至35%。在2015年的一項(xiàng)研究中顯示,使用Google搜索“CEO”的圖片,其中只有11%的人是女性。COMPAS是一種在美國(guó)廣泛使用的算法,通過(guò)預(yù)測(cè)罪犯再次犯罪的可能性來(lái)指導(dǎo)判刑,而這個(gè)算法或許是最臭名昭著的人工智能偏見(jiàn)。根據(jù)美國(guó)新聞機(jī)構(gòu)ProPublica在2016年5月的報(bào)道,COMPAS算法存在明顯的偏見(jiàn)。根據(jù)分析,該系統(tǒng)預(yù)測(cè)的黑人被告再次犯罪的風(fēng)險(xiǎn)要遠(yuǎn)遠(yuǎn)高于白人,甚至達(dá)到了后者的兩倍。大數(shù)據(jù)殺熟現(xiàn)象人臉識(shí)別、搜素引擎結(jié)果存在差異犯罪預(yù)測(cè)系統(tǒng)判定結(jié)果存在差異偏見(jiàn)是指以不正確或不充分的信息為根據(jù)而形成的對(duì)他人或群體的片面甚至錯(cuò)誤的認(rèn)識(shí)和態(tài)度。歧視是指由偏見(jiàn)引起的,直接指向偏見(jiàn)目標(biāo)或受害者的否定性消極行為表現(xiàn)。主要問(wèn)題3.6人工智能倫理2024/2/1348Uber無(wú)人駕駛汽車(chē)致人死亡AI造成的事故責(zé)任由誰(shuí)承擔(dān)?2018年3月,美國(guó)當(dāng)?shù)貢r(shí)間晚上22點(diǎn),亞利桑那州坦佩市郊區(qū),一輛Uber自動(dòng)駕駛測(cè)試車(chē)在由南向北行進(jìn)過(guò)程中,撞上推著自行車(chē)在人行道之外橫穿馬路的49歲女子伊萊·赫茲柏格(ElaineHerzberg),該女子送醫(yī)后搶救無(wú)效宣告死亡。這是全球首例無(wú)人駕駛汽車(chē)致死事故。微軟小冰的繪畫(huà)作品通過(guò)學(xué)習(xí)人類歷史上236位頂尖畫(huà)家,在訓(xùn)練22個(gè)月之后,微軟智能程序“小冰”可以將人類給到的文字轉(zhuǎn)換成一幅全新的、油畫(huà)質(zhì)感的藝術(shù)圖像,完成藝術(shù)創(chuàng)作。此外,小冰通過(guò)學(xué)習(xí)519位中國(guó)現(xiàn)代詩(shī)人而習(xí)得了寫(xiě)詩(shī),而微軟為了測(cè)試其寫(xiě)詩(shī)能力,曾化名將小冰生成的詩(shī)篇投稿給文學(xué)社、詩(shī)歌競(jìng)賽;藏身在網(wǎng)易云音樂(lè)的評(píng)論區(qū),假扮熱心網(wǎng)友;或是當(dāng)電臺(tái)的實(shí)習(xí)主播,朗讀一段文字……擁有公民身份的Sophia機(jī)器人索菲亞(Sophia)是由香港漢森機(jī)器人技術(shù)公司(HansonRobotics)開(kāi)發(fā)的類人機(jī)器人。2017年10月26日,沙特阿拉伯授予索菲亞公民身份。索菲亞的創(chuàng)始人DavidHanson曾經(jīng)問(wèn)索菲亞:Doyouwanttodestroyhumans?Pleasesayno.而索菲亞的回答是:OK.Iwilldestroyhumans.AI“作品”的著作權(quán)歸誰(shuí)?機(jī)器人是否該成為道德主體?責(zé)權(quán)歸屬是指責(zé)任與權(quán)利的合理界定與劃分。主要問(wèn)題3.6人工智能倫理2024/2/1349人臉數(shù)據(jù)被過(guò)度采集人臉識(shí)別技術(shù)濫用中央網(wǎng)信辦、工信部、公安部、市場(chǎng)監(jiān)管總局四部門(mén)聯(lián)合成立的App專項(xiàng)治理工作組2020年發(fā)布的《人臉識(shí)別應(yīng)用公眾調(diào)研報(bào)告》顯示,在2萬(wàn)多名受訪者中,94.07%的受訪者用過(guò)人臉識(shí)別技術(shù),64.39%的受訪者認(rèn)為人臉識(shí)別技術(shù)有被濫用的趨勢(shì),30.86%的受訪者已經(jīng)因?yàn)槿四樞畔⑿孤?、濫用等遭受損失或者隱私被侵犯。Deepfake當(dāng)Deepfake在2017年首次流行起來(lái)時(shí),絕大多數(shù)被用于在互聯(lián)網(wǎng)論壇上生成名人的假色情作品。即使在2019年,根據(jù)公司Sensity所做的調(diào)查,96%的公開(kāi)發(fā)布的Deepfake都是色情內(nèi)容。各種各樣的創(chuàng)作者將Deepfake應(yīng)用于聲音、圖像、視頻等各種形式的媒體。例如,在Y

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論