人工智能倫理導論- 課件 第3、4章 人工智能倫理、人工智能風險_第1頁
人工智能倫理導論- 課件 第3、4章 人工智能倫理、人工智能風險_第2頁
人工智能倫理導論- 課件 第3、4章 人工智能倫理、人工智能風險_第3頁
人工智能倫理導論- 課件 第3、4章 人工智能倫理、人工智能風險_第4頁
人工智能倫理導論- 課件 第3、4章 人工智能倫理、人工智能風險_第5頁
已閱讀5頁,還剩110頁未讀 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

人工智能倫理Lecture32024/2/1312如果有人設計計算機病毒,那么就有人設計不斷自我完善、直到最終超越人類的人工智能,其結果將是一種新的生命形式。這種超級人類一出現(xiàn),未改進的人類就再也不是他們的對手,嚴重的問題由此產(chǎn)生。原版人類將逐漸滅絕,或變得無足輕重?!斯ぶ悄艿恼嬲L險不是它的惡意,而是它的能力。超人工智能在完成目標方面非常出色,如果這些目標與我們的目標不一致,我們就會陷入困境。——霍金(StephenHawking)目錄數(shù)據(jù)倫理計算機倫理人工智能倫理計算機倫理12345網(wǎng)絡倫理信息倫理機器人倫理6發(fā)展歷程主要問題基本原則2024/2/133計算機倫理(學)(ComputerEthics)是應用倫理學的一個研究領域,研究對象是在計算機的設計開發(fā)和應用以及計算機信息的生產(chǎn)、儲存、交換和傳播中所涉及的倫理道德問題。是關涉計算機及其應用中所固有的涉及文化、社會、法律和倫理等方面問題的研究和分析。1958年,發(fā)生了世界上第一起計算機犯罪。一位程序員能夠使用計算機代碼來防止他的銀行賬戶被標記為透支。然而,當時沒有法律能夠阻止,因此他沒有受到指控。人們意識到,為了確保避免其他人仿效、通過計算機進行類似金融犯罪的發(fā)生,計算機相關道德準則是必要的。2024/2/1343.1計算機倫理發(fā)展歷程計算機倫理最早可追溯到20世紀40年代的二戰(zhàn)時期:1948年,美國數(shù)學家和哲學家、麻省理工學院教授維納(NorbertWiener)在他的《控制論》(Cybernetics)一書中指出:“像眾所周知的原子彈一樣……超高速計算機器給人類帶來的是美好還是罪惡?”1950年,他的另外一本書《人有人的用處》(TheHumanUseofHumanBeings),深入討論了圍繞信息技術的倫理問題。維納的觀點為研究計算機倫理學奠定了基礎,作為第一位就計算機對人類價值的影響進行嚴肅研究的學者,維納被尊為“計算機倫理學”的創(chuàng)始人。計算機倫理的起源

發(fā)展歷程20世紀50年代至60年代中期是計算機倫理研究的沉寂時期。由于計算機技術的發(fā)展在當時處于起步階段,計算機技術尚未得到普遍應用,其間許多倫理學問題還沒有充分暴露出來。因而,維納于40年代末提出的計算機倫理問題的見解在學術界并沒有引起太大的反響。20世紀60年代中期,隨著計算機技術的飛速發(fā)展及其在各個領域內的廣泛應用,與之相關的許多社會、倫理問題也逐漸明朗化。計算機應用中出現(xiàn)的兩個問題直接促進了計算機倫理學研究的廣泛開展。第一個問題是隱私問題。20世紀60年代中期,美國政府的許多部門已經(jīng)開始為個人建立計算機信息數(shù)據(jù)庫,美國國會也曾認真考慮,根據(jù)這些數(shù)據(jù)庫給每一位公民指定一個身份證號。當時,由于許多人擔心這樣的身份證號碼會干涉?zhèn)€人的隱私權而使得這項動議被擱置。然而,信息技術與隱私的關系問題無疑成了此時期計算機倫理問題研究的第一位動因,也成為學者們深思的一個重要課題。3.1計算機倫理2024/2/135第二個問題是計算機和信息技術的濫用和計算機犯罪問題。20世紀60年代之后,西方計算機應用過程中出現(xiàn)的因個人數(shù)據(jù)被盜用而在信用消費方面引起的問題,以及新聞媒體對大量計算機從業(yè)人員職業(yè)犯罪案例的報道引起了各方面人士的關注。有的學者把計算機犯罪問題形象地概括為“當人們進入計算中心時,他們把倫理丟在門口了”。計算機倫理研究的起步發(fā)展歷程在政府層面上,世界各國政府部門做出了積極地反應。1970年,美國成立了由蘭德公司的威爾和哥倫比亞大學的沃斯頓各自領導的獨立專家組,從倫理學等方面對隱私和計算機數(shù)據(jù)庫問題進行了專門研究。專家組的研究成果對于美國1974年的聯(lián)邦隱私法案產(chǎn)生了很大的影響;英國政府于1971年成立了一個專門委員會,對隱私和計算機問題進行研究;瑞典于1974年在歐洲率先實施了國家性的數(shù)據(jù)保護法;1981年,歐洲委員會通過了歐洲數(shù)據(jù)保護條約,這個條約為整個西歐的數(shù)據(jù)保護法的建立奠定了基礎。3.1計算機倫理諸多學者也投入到相關問題的研究。1968年,帕克(DonnParker)發(fā)表了《信息處理中的倫理規(guī)則》一文,闡明了建立計算計倫理規(guī)則的必要性,并初步擬訂了一些規(guī)則。該規(guī)則于1973年被美國計算機協(xié)會(ACM,AssociationforComputingMachinery)所采用。1976年,魏森鮑姆(JosephWeizenbaum)出版了《計算機能力與人類理性》(ComputerPowerandHumanReason)一書,闡明了人類思維與本質上作為機器的計算機運行程序的差異。他指出,人不應當被視為機器,僅僅從機器層面理解人,是對人自身價值的否定。該書被列為西方計算機倫理學的經(jīng)典之作。2024/2/136計算機倫理研究的起步發(fā)展歷程1976年,著名應用倫理學家曼娜(WalterManer)正式提出“計算機倫理學”這一概念。他闡述了建立計算機倫理學這一學科的必要性和可行性,并率先將自己的理論用于教學實踐。邁納仿照醫(yī)學倫理學、商業(yè)倫理學等應用倫理學學科,開設了計算機倫理學課程,取得了非常好的教學效果。20世紀70年代末,計算機倫理學最終確立一門新的應用倫理學,計算機倫理教育在歐美等國家諸多院校中得到推廣實施。3.1計算機倫理2024/2/137計算機倫理的地位確立計算機倫理研究的興起20世紀70年代中期以后,計算機倫理學的研究和推廣得到逐步完善和深化。發(fā)表和出版了大量的學術研究論文、專著和文集,計算機倫理學研究成為應用倫理學研究的一個新熱點。1985年,美國著名哲學雜志《形而上學》(Metaphilo-sophy)發(fā)表了泰雷爾·貝奈姆的《計算機與倫理學》(Acomputerethicsbibliography)和詹姆斯·摩爾的《什么是計算機倫理學》(WhatisComputerEthics?)兩篇論文。這兩篇文章成為西方計算機倫理學興起的重要理論標志。出版有影響的專著包括:大衛(wèi)·歐曼等的《計算機、倫理與社會》(1990)羅伊等的《信息系統(tǒng)的倫理問題》(1991)福雷斯特等的《計算機倫理》(1994)發(fā)展歷程摩爾在《什么是計算機倫理學》一文中提出了計算機倫理學“四步法”:第一步,計算機倫理學要考察由于計算機技術的應用而導致的“政策真空”;第二步,計算機倫理學要有助于澄清由于計算機技術的應用所改變的一些核心倫理條款的意義而出現(xiàn)的觀念混亂;第三步,計算機倫理學要制定“倫理”政策以填補相應的“政策真空”;第四步,計算機倫理學要根據(jù)人們的價值取向而證明新政策的合理性。摩爾“四步法”的提出,為計算機倫理規(guī)則或原理的制定提供了可循的基本思路,具有示范性意義。編寫出版了有影響的教科書,促進了計算機倫理的教育。1985年,約翰遜的《計算機倫理學》以及約翰遜與斯耐普合著的《計算機應用中的倫理問題》相繼出版。其中《計算機倫理學》被譽為計算機倫理學教學史上的標準教材。2003年,拜納姆和羅杰森出版了《計算機倫理與專業(yè)責任》。在國內,2003年,殷正坤編寫了教材《計算機倫理與法律》;2006年,姜媛媛等編寫了教材《計算機社會與職業(yè)問題》;2011年,馮繼宣等編寫了教材《計算機倫理學》。3.1計算機倫理1992年10月,美國計算機協(xié)會(ACM)通過并發(fā)布了《倫理與職業(yè)行為準則》。2024/2/138計算機倫理研究的興起個人隱私問題

隨著計算機信息管理系統(tǒng)的普及,越來越多的計算機從業(yè)者能夠接觸到各種各樣的保密數(shù)據(jù)。這些數(shù)據(jù)不僅僅局限為個人信息,更多的是企業(yè)或單位用戶的業(yè)務數(shù)據(jù),它們同樣是需要保護的對象。計算機使某些人更容易獲得他人的個人機密和信息,個人隱私受到計算機應用系統(tǒng)在采集、檢索、處理、重組、傳播等能力大大增強的嚴重挑戰(zhàn)和空前威脅。知識產(chǎn)權問題知識產(chǎn)權是指創(chuàng)造性智力成果的完成人或商業(yè)標志的所有人依法所享有的權利的統(tǒng)稱。計算機技術的發(fā)展,軟件開發(fā)者可以輕而易舉地移植、復制他人的源碼。大量的計算機用戶都在已知或不知的情況下使用著盜版軟件。軟件著作權的客體是指計算機軟件,即計算機程序及其有關文檔。某衛(wèi)生系統(tǒng)“內鬼”泄露新生嬰兒和預產(chǎn)孕婦信息2018年1月,某警方偵破了一起新生嬰兒信息倒賣鏈條。從新學嬰兒數(shù)據(jù)泄露的源頭來看:某社區(qū)衛(wèi)生服務中心工作人員徐某,掌握了某市“婦幼信息某管理系統(tǒng)”市級權限賬號密碼,利用職務之便,多次將2016年至2017年的某市新生嬰兒信息及預產(chǎn)信息導出。被抓獲前,他累計非法下載新生嬰兒數(shù)據(jù)50余萬條,販賣新生嬰兒信息數(shù)萬余條。合作公司員工泄露防偽數(shù)據(jù)2018年2月,某警方偵破了知名酒被仿造的案件。蔡某拿任職于某公司的“國酒防偽溯源系統(tǒng)”項目專項經(jīng)理,多次利用職務之便通過拍照、直接用U盤拷貝的方式竊取某知名酒企股份有限公司防偽溯源數(shù)據(jù),并將竊取的數(shù)據(jù)泄露給蔡某剛。蔡某拿披露數(shù)據(jù)量共計700余萬條(可制作成700萬瓶能夠通過防偽溯源驗證的假冒酒)。防偽數(shù)據(jù)庫泄露直接導致貴州茅臺經(jīng)濟損失約105.7萬元?!吧汉飨x”侵權案“珊瑚蟲”QQ對正版QQ進行了非法改動,并放置于互聯(lián)網(wǎng)上供他人下載以獲取巨額利益,侵犯了騰訊的著作權。2008年,騰迅將原作者陳壽福告上法庭,法院判決:被告人犯侵犯著作權罪,被判處有期徒刑3年,并處罰金120萬元;對被告人違法所得總計117.28萬元予以追繳。2024/2/1393.1計算機倫理主要問題計算機犯罪問題以計算機為犯罪工具或以計算機為犯罪對象的犯罪行為,其概念有廣義和狹義之分。職業(yè)道德問題涉及參與計算機軟件、計算機硬件、網(wǎng)絡技術的設計、制造的專業(yè)技術和管理人員對消費者和社會的道德與法律責任,其中包括產(chǎn)品的技術質量、設計的合理性和最優(yōu)化等復雜的技術因素和專業(yè)技術人員個人的道德文化價值取向。案例1:呂某,25歲,廣州市人。1997年4月加入國內“黑客”組織。他盜用他人網(wǎng)絡賬號以及使用非法賬號上網(wǎng)活動,并攻擊中國公眾多媒體通信網(wǎng)廣州主機(即“視聆通”廣州主機)。成功入侵后,他取得了該主機系統(tǒng)的最高權限,并非法開設了兩個具有最高權限的賬號。此后,他又多次非法入侵該主機,對其部分文件進行刪除、修改、增加等一系列非法操作,包括非法開設四個賬號作為自己上網(wǎng)之用和送給他人使用、安裝并調試網(wǎng)絡安全監(jiān)測軟件(未遂)。同時,他為掩蓋自己的行為,還將上網(wǎng)的部分記錄刪除、修改。更為嚴重的是,三次修改了該主機系統(tǒng)最高權限的密碼,致使密碼三次失效,造成主機系統(tǒng)管理失控共計15個小時的嚴重后果。廣州市中級人民法院經(jīng)審理認為,被告人呂某已構成破壞計算機信息系統(tǒng)罪。案例2:兩名中國大陸的網(wǎng)絡黑客入侵銀行的網(wǎng)絡系統(tǒng),竊取人民幣260,000元(約合美金三萬一千四百元)的金額。據(jù)報導指出,這兩個黑客是兄弟檔。哥哥郝金龍(譯音),是某工商銀行的會計,管理該銀行的網(wǎng)絡系統(tǒng)。他們用不同的戶名在該銀行的某分行開了十六個帳戶。并且在銀行計算機終端機植入一個控制的裝置。他們利用該裝置,將虛擬存款720,000人民幣(約合美金$86,975)電匯進入銀行帳戶內。之后,他們成功地從該銀行的八個分行領出真實的鈔票--人民幣260,000元。后來這兩名黑客遭江蘇省的楊州法院判處一名未死刑、另一名為無期。2024/2/13103.1計算機倫理主要問題廣義的計算機犯罪是指行為人故意直接對計算機實施侵入或破壞,或者利用計算機實施有關金融詐騙、盜竊、貪污、挪用公款、竊取國家秘密或其他犯罪行為的總稱。狹義的計算機犯罪僅指行為人違反國家規(guī)定,故意侵入國家事務、國防建設等計算機信息系統(tǒng),或者利用各種技術手段對計算機信息系統(tǒng)功能及有關數(shù)據(jù)、應用程序等進行破壞,制作、傳播計算機病毒,影響計算機系統(tǒng)正常運行且造成嚴重后果?;驹瓌t美國學者斯平內洛在《信息技術的倫理方面》中提出了計算機倫理道德的一般規(guī)范性原則:①自主原則,尊重自我與他人的平等價值與尊嚴,尊重自我與他人的自主權利;②無害原則,人們不應該用計算機和信息技術給他人造成直接或間接地損害;③知情同意原則,人們在信息交換中,有權知道誰會得到這些數(shù)據(jù)以及如何利用它們,沒有信息權利人的同意,他人無權擅自使用這些信息。學者們對計算機“職業(yè)”、“職業(yè)人員”、“職業(yè)道德”的特殊性問題作了探討。韋克特和愛德尼在《計算機與信息倫理學》中提出:“一個真正的計算機職業(yè)人員,不僅應當是自我領域的專家,而且也應當使自己的工作適應人類文明的一般準則,具有這方面的道德自律能力與渴望?!?.1計算機倫理2024/2/1311美國學者羅伯特·巴格認為,隨著計算機與信息技術的發(fā)展,人類的基本道德價值觀念和行為準則并沒有過時。他在1993年于華盛頓召開的第二屆計算機倫理學年會上提出了計算機倫理學的三條基本原則:①一致同意的原則,如誠實、公正和真實等;②把這些原則應用到對不道德行為的禁止上;③通過對不道德行為的懲處和對遵守規(guī)則行為的鼓勵,來對不道德行為進行防范?;驹瓌t美國的一些專門研究機構制定了簡明通曉的道德戒律。如美國計算機倫理協(xié)會制定了“計算機倫理十誡”:①不應當用計算機去傷害別人;②不應當干擾別人的計算機工作;③不應當偷窺別人的文件;④不應當用計算機進行偷盜;⑤不應當用計算機作偽證;⑥不應當使用或拷貝沒有付過錢的軟件;⑦不應當未經(jīng)許可而使用別人的計算機資源;⑧不應當盜用別人的智力成果;⑨應當考慮所編制的程序的社會后果;⑩應當用深思熟慮和審慎的態(tài)度來使用計算機?!疤厥獾穆殬I(yè)責任”包括:①努力在職業(yè)工作的程序中,使產(chǎn)品實現(xiàn)最高的質量、最高的效益和高度的尊嚴;②獲得和保持職業(yè)技能;③了解和尊重現(xiàn)有的與職業(yè)工作有關的法律;④接受和提出恰當?shù)穆殬I(yè)評價;⑤對計算機系統(tǒng)和它們包括可能引起的危機等方面作出綜合的理解和徹底的評估;⑥重視合同、協(xié)議和指定的責任。3.1計算機倫理2024/2/1312美國計算機協(xié)會《倫理與職業(yè)行為準則》“基本道德規(guī)則”包括:①為社會和人類的美好生活做出貢獻;②避免傷害其他人;③做到誠實可信;④恪守公正并在行為上無歧視;⑤敬重包括版權和專利在內的財產(chǎn)權;⑥對智力財產(chǎn)賦予必要的信用;⑦尊重其他人的隱私;⑧保守機密。美國許多公司、學校和政府機構,明確制定了各種網(wǎng)絡倫理準則。如,南加州大學的網(wǎng)絡倫理聲明中明確譴責“六種網(wǎng)絡不道德行為”:①有意地造成網(wǎng)絡交通混亂或擅自闖入其他網(wǎng)絡及其相關的系統(tǒng);②商業(yè)性或欺騙性地利用大學計算機資源;③偷竊資料、設備或智力成果;④未經(jīng)許可接近他人的文件;⑤公共用戶場合做出引起混亂或造成破壞的行為;⑥偽造電子郵件信息。目錄數(shù)據(jù)倫理計算機倫理人工智能倫理12345網(wǎng)絡倫理信息倫理機器人倫理6發(fā)展歷程主要問題基本原則發(fā)展歷程主要問題信息法律2024/2/13133.2信息倫理發(fā)展歷程信息倫理(學)

(InformationEthic)是規(guī)范倫理學中的應用倫理學分支,是從倫理學角度研究和探討信息以及信息傳遞過程中的道德倫理問題,以揭示信息傳遞中的道德倫理規(guī)律。信息倫理學最初以計算機倫理學的面目出現(xiàn)。1985年,德國的信息科學家卡普羅(RafaelCapurro)發(fā)表了“信息科學的道德問題”的論文,研究了電子形式下專門信息的生產(chǎn)、存儲、傳播和使用問題。從宏觀和微觀兩個角度探討了信息倫理學問題,包括信息研究、信息科學教育、信息工作中的倫理問題。1986年,美國南部衛(wèi)理公會大學梅森(RichardO.Mason)在《信息時代的四個倫理問題》論文中,提出了著名的“PAPA”理論,即,信息隱私(Privacy)、信息正確(Accuracy)、信息產(chǎn)權(Property)、信息存?。ˋccessibility)。20世紀90年代初期,計算機倫理學研究范圍擴大,這時的研究包括與非專業(yè)性計算機使用和計算機網(wǎng)絡不斷發(fā)展有關的一些問題,研究對象也更加明確地確定為信息領域的倫理問題,在概念和名稱的使用上直接使用了“信息倫理學”這一術語。2024/2/13141996年,羅格森·西蒙和貝耐姆共同發(fā)表了《信息倫理:第二代》。他們認為:計算機倫理學是第一代信息倫理學,它所研究的范圍有限,研究的深度不夠,只是對計算機現(xiàn)象的解釋,缺乏全面的倫理學理論,對與信息技術和信息系統(tǒng)有關的倫理問題和社會問題,以及解決這些問題的方法缺乏深層次的研究和認識。2000年,卡普羅在“Ethicalchallengesoftheinformationsocietyinthe21stcentury”一文中專門論述了信息社會的倫理問題,將信息倫理從計算機倫理中區(qū)分出來,強調了信息倫理學。3.2信息倫理2024/2/1315主要問題信息倫理的主要問題包括:知識產(chǎn)權、個人隱私、信息污染、信息安全、信息鴻溝和文化侵害。知識產(chǎn)權和個人隱私也是計算機倫理的主要問題。信息倫理的主要問題信息污染問題

信息中混入了有害性、欺騙性、誤導性信息元素,對信息生態(tài)、信息資源及人類身心健康造成破壞、損害等不良影響。信息安全問題信息系統(tǒng)(硬件、軟件、數(shù)據(jù)、物理環(huán)境及基礎設施)不受偶然或惡意原因而遭到破壞、更改、泄露,系統(tǒng)可靠正常地運行。信息鴻溝問題較多擁有信息技術和工具的個體、家庭、商業(yè)組織、地區(qū)和國家,與較少或未曾擁有信息技術和工具者之間,存在信息鴻溝。文化侵害問題互聯(lián)網(wǎng)信息上90%以上的內容使用英語,非英語人群不能使用自己的母語交流,帶來了某種程度上的文化侵害。3.2信息倫理信息倫理學有廣義和狹義之分。狹義的信息倫理學是指信息技術倫理學,世界科技知識與技術倫理委員會信息社會倫理分委員會(COMEST)、斯皮內洛(RichardA.Spinello)早期的工作基本上可歸為這一范疇。廣義的信息倫理學是探討與信息相關的所有方面的倫理問題,而不局限于信息技術的范圍。美國國際信息倫理學中心也認為,信息倫理學有廣義和狹義之分,但是他們的看法與上述觀點不同。他們認為:廣義的信息倫理學是研究一對多等級結構的大眾傳媒(媒體倫理學)(新聞倫理學)、計算機科學(計算機倫理學)和作為平等媒體的因特網(wǎng)(網(wǎng)絡倫理學)中的倫理問題的應用倫理學科。狹義的信息倫理學研究因特網(wǎng)(網(wǎng)絡倫理學)、信息和知識管理(與管理倫理學有關)以及圖書館、檔案領域的倫理問題的應用倫理學科。隨著信息倫理學研究范圍和深度的不斷拓展,人們逐漸認識到:信息倫理學不完全等同于計算機倫理學,信息倫理學有著更廣闊的研究范圍,涵蓋了前者的研究范圍。計算機倫理學側重于計算機及其使用的個體性行為或區(qū)域行為的倫理研究;信息倫理學則立足于一般的信息或信息技術層面,試圖概括計算機倫理學的研究成果,揚棄其特殊性以形成一種在信息領域具有普遍意義的倫理學。計算機倫理學未來融入信息倫理學、被信息倫理學取而代之代表了諸多學者的一種觀點。信息倫理學計算機倫理學2024/2/1316信息倫理vs計算機倫理信息倫理與法律/政策信息法律與信息政策都是與信息倫理密切相關的概念,為信息倫理的實現(xiàn)提供了支持。了解信息倫理、信息法律與信息政策之間的區(qū)別與聯(lián)系,有助于深入理解信息倫理的內涵,找到規(guī)范信息行為的倫理準則和約束機制。法律是一套由社會機構強制執(zhí)行以控制人們行為的規(guī)則與指導方針的體系。法律由政府及其立法機構制定,用于調節(jié)人們之間的政治、經(jīng)濟與社會關系。信息法律指在調整信息活動中所產(chǎn)生的社會關系的法律規(guī)范的總稱。這里的社會關系主要涉及利益、權益的安全問題。信息法律的主要內容包括知識產(chǎn)權法(專利法、著作權法、商標法等)、信息安全法、信息公開法、新聞出版與傳播法、電信法、電子商務法(電子簽名與數(shù)字認證法等)、計算機犯罪的法律等等。政策是指導決策并達到合理目的的原則或規(guī)則。信息政策用于指導信息收集、生產(chǎn)、創(chuàng)建、組織、存儲、獲取、傳播與保存等整個生命周期的活動。信息政策既包括公共信息政策,也包括組織內部的信息政策。信息政策可以劃分為基礎設施信息政策、水平信息政策與垂直信息政策三個層次。信息政策的范圍包括九大類:政府信息資源管理、信息技術、電信與廣播、國際通信、信息公開、保密與隱私、計算機管制與計算機犯罪、知識產(chǎn)權、圖書館與檔案館、政府信息傳播。3.2信息倫理2024/2/1317信息倫理、信息政策與信息法律三者在對信息活動的調控范圍和規(guī)范強度等方面應相互補充,共同發(fā)揮作用,以維持信息社會的秩序,實現(xiàn)共同的價值目標。這些價值目標體現(xiàn)在:相同的義務準則、相同的權利追求和相同的功利主義追求。信息倫理、信息法律與信息政策在指導、約束人們的信息行為以及相互關系方面發(fā)揮著不可替代的作用,但是三者的作用層次和力度有所不同,其影響力的發(fā)揮也各有側重。三者主要的區(qū)別可以歸納為:制定主體的不同、約束強度的不同、問題適應性不同、發(fā)布形式不同和調節(jié)范圍不同。3.2信息倫理2024/2/1318信息倫理與法律/政策“維基解密”分析從“維基解密”事件,分析信息倫理、信息政策、信息法律之間的相互關系?!熬S基解密”作為一種在網(wǎng)絡環(huán)境中誕生的新型傳媒組織,自2010年連續(xù)三次大規(guī)模公布美國軍事外交機密以來飽受國際社會的爭議。其爭議的焦點主要在于政府信息安全的保護和公民信息自由之間的制衡。3.2信息倫理2024/2/1319維基解密(WikiLeaks),是一個國際性非營利媒體組織,專門公開來自匿名來源和網(wǎng)絡泄露的文件。網(wǎng)站成立于2006年12月,創(chuàng)建者為朱利安·阿桑奇(澳大利亞)2010年,這家網(wǎng)站曝光關于阿富汗戰(zhàn)爭和伊拉克戰(zhàn)爭的海量秘密文件。2017年12月,阿桑奇被授予厄瓜多爾國籍。2019年4月,厄瓜多爾不再向阿桑奇提供庇護,英國警方隨即以違反保釋條例為由逮捕阿桑奇。次月,美國檢察官以17項間諜罪和1項濫用計算機罪控告阿桑奇。同年11月,瑞典方面放棄調查對阿桑奇的強奸指控。2021年7月,阿桑奇的厄瓜多爾國籍被取消;12月10日,英國高等法院裁定,阿桑奇將被引渡至美國。2022年4月20日,英國法院已批準將“維基揭秘”創(chuàng)始人朱利安·阿桑奇引渡至美國;當?shù)貢r間6月17日,英國內政大臣帕特爾簽署命令,批準引渡阿桑奇至美國。“維基解密”分析“維基解密”涉及的倫理問題不是它究竟公開了什么,而是它采取了怎樣的方式公開信息。事實上,這樣的公開方式不僅威脅著政府信息安全,也威脅著個人隱私,觸動著整個人類的倫理道德法則。人類賴以生存的不僅是物質資源,還有大多數(shù)人必須遵守的倫理道德規(guī)則,否則社會秩序的混亂將會危及人類生存。黑客出于智慧炫耀、政治立場或竊取利益等目的,威脅著政府、組織和公民個人的信息安全。在“維基解密”事件中,黑客出于揭露政府“丑聞”的目的而侵害政府安全,其中涉及的信息倫理問題包括兩個方面:一是黑客非法獲取政府機密、危害國家信息安全和政府形象的不道德行為;二是有助于更多的人監(jiān)督政府活動的“正義”行為。對于兩種倫理價值的權衡成為人們對“維基解密”事件爭論的焦點。最終,人們對于理性與秩序的追求似乎更占上風。3.2信息倫理2024/2/1320“維基解密”所獲取的秘密資料來自世界各地的匿名人士,已知的提供美國軍事外交機密資料的只有駐伊美軍士兵曼寧。從一般常理判斷,這些人中有能夠合法接觸機密的人士,有通過黑客行為獲取機密的人士,也可能有編造杜撰的人士。從動機來講,有道德人士想通過“維基解密”揭發(fā)政府、企業(yè)的丑惡內幕,有的資料提供者存在自我炫耀的心理,也有持不同政見者想借此打擊異己等??傊?,這些行為都存在著制度約束缺位的不可控性。尤其是黑客行為、富有偏見的告密都是網(wǎng)絡信息倫理普遍難以接受的方式?!熬S基解密”的信息倫理問題

“維基解密”事件發(fā)生之前,美國政府針對信息安全保護已經(jīng)制定了一系列信息政策,例如:《關于保護國家信息基礎設施的第63號總統(tǒng)令》(1998年)《信息系統(tǒng)保護國家計劃》(2000年)《網(wǎng)絡空間安全計劃》(2003年)《保護關鍵基礎設施和關鍵資產(chǎn)國家戰(zhàn)略》(2003年)3.2信息倫理2024/2/1321“維基解密”分析“維基解密”相關的信息政策

“維基解密”事件所表現(xiàn)的主要是政府信息安全和公民信息自由之間的博弈。在這兩個方面都有相關的美國法律法規(guī),如:《信息自由法(1966、1996)》《陽光政府法(1976)》《總統(tǒng)檔案法(1978)》等是為了保障公民獲取政府信息的自由。其中尤以《信息自由法》影響最為深遠,它在保障公民個人信息自由的同時,也對國家的信息安全予以保障,通過豁免條款將需要保護的信息加以列舉?!稅蹏叻ò福?001)》為防止恐怖主義,擴張了美國警察機關的權限。警察機關有權搜索電話、電子郵件通信、醫(yī)療、財務和其他種類的記錄?!堵?lián)邦信息安全管理法案(2002)》則要在整個政府范疇內為有關的信息安全風險提供有效的管理和監(jiān)督?!斗撮g諜法(1917)》《計算機安全法案(1987)》《電子政務法(2002)》都涉及國家信息安全問題?!熬S基解密”相關的信息法律

由于上述法律適用性局限,最終以強奸罪而非信息安全罪對“維基解密”創(chuàng)始人阿桑奇提出指控,而對“維基解密”網(wǎng)站則采取了經(jīng)濟封殺。這表明當時美國的信息法律在協(xié)調政府信息安全與公民信息自由之間的矛盾方面仍存在欠缺。美國政府和軍方曾試圖援引《反間諜法》起訴“維基解密”,并通過國務院網(wǎng)絡安保措施加強對白宮數(shù)據(jù)庫的控制,以避免造成更多的損失。美國國會計劃通過立法使政府敏感部門的員工有渠道報告腐敗、浪費和管理失誤的問題,而不必尋求“維基解密”等外部網(wǎng)站的幫助。維基解密也沒有觸犯言論自由的法律底線。面對發(fā)生的泄密事件,信息法律顯得相對滯后,沒有任何法律能夠預見到一種新興傳媒組織可以對政府信息安全造成如此嚴重的威脅。對于此類沖突,僅僅依靠義務原則或美德原則是遠遠不夠的,需要依據(jù)功利主義的結果原則來判斷什么樣的對策更有利于絕大多數(shù)人乃至全人類的長遠福祉。美國政府出于維護自身信息安全的考慮,制定了臨時信息政策,包括對政府數(shù)據(jù)庫進行安全維護、起草相關法律等措施,體現(xiàn)出信息政策的靈活性和針對性。從“維基解密”事件也可以清晰地看到三者之間的異同和互補關系,它們共同構建、調節(jié)和維護信息社會的秩序,以實現(xiàn)信息社會的價值目標。信息倫理、信息政策與信息法律具有相同的價值追求。因此,三者在作用時間、作用范圍、作用人群、作用強度等方面相互補充,共同發(fā)揮作用。3.2信息倫理2024/2/1322“維基解密”分析“維基解密”事件發(fā)生之后,人們爭論的焦點在于政府信息安全保護和公民信息自由各自的底線和邊界究竟在哪里,如何確保在合理的范圍內解決兩者之間的沖突。目錄數(shù)據(jù)倫理計算機倫理人工智能倫理12345網(wǎng)絡倫理信息倫理機器人倫理6發(fā)展歷程主要問題基本原則發(fā)展歷程主要問題信息法律發(fā)展歷程主要問題2024/2/13233.3網(wǎng)絡倫理發(fā)展歷程2024/2/1324網(wǎng)絡倫理學,又稱計算機網(wǎng)絡倫理學,是計算機信息網(wǎng)絡專門領域調節(jié)人與人、人與社會特殊利益關系的道德價值觀念和行為規(guī)范。20世紀90年代,網(wǎng)絡技術促使世界各地計算機用戶相互連接,加快了信息的傳播和獲取速度。不僅僅遇到傳統(tǒng)計算機倫理問題,還出現(xiàn)了新的倫理問題,計算機倫理學的外延得到進一步拓展。1996年,英國學者羅格森和貝奈姆的《信息倫理學:第二代》指出,第一代計算機倫理學存在研究范圍有限、深度不夠和應用領域狹窄等問題。高尼亞科倡導建立有力的信息倫理理論來為網(wǎng)絡社會提供指南和決策。為了更加全面、深入地研究和解決信息網(wǎng)絡技術和信息網(wǎng)絡系統(tǒng)相關的倫理問題,學術界將計算機倫理學的研究范圍向外拓展到互聯(lián)網(wǎng),進入計算機倫理學的第二個階段,為了凸顯網(wǎng)絡信息這一專門領域的特點,一些學者將該階段稱為網(wǎng)絡倫理階段,稱為網(wǎng)絡倫理學。網(wǎng)絡倫理vs信息倫理vs計算機倫理信息倫理學計算機倫理學網(wǎng)絡倫理學從研究的視野、范圍和問題域角度:計算機倫理學與網(wǎng)絡倫理學的研究范圍既有相似和重合的地方,又有不同之處。信息倫理學的研究范圍最廣,試圖概括計算機倫理學和網(wǎng)絡倫理學涉及的所有倫理問題,以形成一種信息領域的普適倫理學。案例1:網(wǎng)絡謠言之食鹽搶購風波

2011年3月11日,日本東海岸發(fā)生9.0級地震,地震造成日本福島第一核電站1-4號機組發(fā)生核泄漏事故。這起嚴重的核事故竟然在中國引起了一場搶鹽風波。從3月16日開始,部分地區(qū)開始瘋狂搶購食鹽,許多地區(qū)的食鹽在一天之內被搶光。3月21日,杭州市公安局西湖分局發(fā)布消息稱,已查到“謠鹽”信息源頭,并對始作俑者“漁翁”作出行政拘留10天,罰款500元的處罰。案例2:”人肉搜索”第一案2007年12月29日,姜某因其丈夫王某感情原因跳樓身亡。自殺前在博客中記載了自殺前兩個月的心路歷程。2008年1月,大旗網(wǎng)、天涯社區(qū)等網(wǎng)站披露了含王某私人信息的博客內容。2008年3月18日,王某將相關網(wǎng)站起訴至法院。2009年12月23日,北京二中院作出終審宣判:公民依法享有名譽權,公民人格尊嚴受法律保護。對王某批評和譴責應在法律允許的范圍內進行,披露、宣揚其隱私,構成對隱私權和名譽權的侵犯。責令相關網(wǎng)站刪除文章及照片、刊登道歉函、進行賠償。案例3:熱播劇《掃黑風暴》反盜版2021年8月9日,根據(jù)真實案例改變的電視連續(xù)劇《掃黑風暴》在北京衛(wèi)視等視頻媒體播出,播出后影響強烈,收視率和網(wǎng)播量飆升。但播出內容尚未過半,網(wǎng)上便流出《掃黑風暴》全集資源,以1元左右價格售賣。8月21日上午,該劇官方微博發(fā)布反盜版聲明,指出互聯(lián)網(wǎng)上有人未經(jīng)許可非法傳播、銷售該劇的盜版內容,并已經(jīng)第一時間向公安機關報案,追查盜版來源。最高人民檢察院提醒:在互聯(lián)網(wǎng)上非法傳播、銷售《掃黑風暴》的盜版內容,侵犯了出品方以及播出平臺的合法權益,涉嫌構成刑事犯罪。3.3網(wǎng)絡倫理2024/2/1325主要問題①具體問題:在網(wǎng)絡使用過程中遇到的現(xiàn)實問題,包括網(wǎng)絡行為的具體規(guī)范、網(wǎng)絡行為具體性質的界定和網(wǎng)絡具體問題的研究。②交叉問題:網(wǎng)絡與社會其他現(xiàn)象相關聯(lián)而出現(xiàn)的問題,這些問題不僅影響網(wǎng)絡本身的運作和操作問題,而且影響到社會生活的方方面面,如,社會分層、民主體制、數(shù)字鴻溝、文化及意識形態(tài)沖突等。目錄數(shù)據(jù)倫理計算機倫理人工智能倫理12345網(wǎng)絡倫理信息倫理機器人倫理6發(fā)展歷程主要問題基本原則發(fā)展歷程主要問題信息法律發(fā)展歷程主要問題發(fā)展歷程主要問題基本原則治理對策2024/2/13263.4數(shù)據(jù)倫理發(fā)展歷程大數(shù)據(jù)(bigdata)是,“由科學儀器、感應設備、電子郵件、多媒體軟件、網(wǎng)絡點擊流和移動互聯(lián)交易等多種數(shù)據(jù)源生成的大規(guī)模、多元化、長期的和復雜的分布式數(shù)據(jù)集”。大數(shù)據(jù)是相對于一般數(shù)據(jù)而言的,大數(shù)據(jù)的基本特征可以歸納為4個“V”。第一,大量化(volumebig),即數(shù)據(jù)規(guī)模龐大。大數(shù)據(jù)是大型數(shù)據(jù)集,不再像之前TB級別的數(shù)據(jù)那么簡單,而是PB甚至是EB級別的數(shù)據(jù),其容量和規(guī)模遠遠超過傳統(tǒng)數(shù)據(jù)。第二,多樣化(varietytype),即數(shù)據(jù)類型繁多。大數(shù)據(jù)所包含的數(shù)據(jù)類型多種多樣,既有不同的媒體形態(tài),也有不同的編碼結構。除了結構化編碼數(shù)據(jù)之外,還包括圖片、視頻、報表和XML、HTML等半結構化或非結構化數(shù)據(jù)。第三,快速化(velocityfast),即處理速度快。大數(shù)據(jù)時代,數(shù)據(jù)生成無時不刻,其規(guī)模正在以指數(shù)級速度增長,對于數(shù)據(jù)的分析和處理也需要快速,這樣才能滿足實時性的需求。因此,即時處理己是大數(shù)據(jù)時代的趨勢之一。第四,價值化(value),即價值密度較低,數(shù)據(jù)總量與其產(chǎn)生的價值密度呈反比例函數(shù)。大數(shù)據(jù)本身的價值密度相對較低,需要不斷從海量數(shù)據(jù)中挖掘分析真正有用的信息才能真正實現(xiàn)“用戶價值”。2007年,計算機圖靈獎獲得者吉姆·格雷在演講中提出,數(shù)據(jù)密集型科學正在從計算科學中分離出來,成為科學研究的“第四范式”。他指出,像理論科學、實驗科學和計算科學一樣,以數(shù)據(jù)為中心,以協(xié)同進化、數(shù)據(jù)驅動和網(wǎng)絡化成長為主要特征的數(shù)據(jù)密集型科學必將深刻影響人們的思維模式和科學研究方式。1980年,美國未來學家阿爾文·托夫勒在《第三次浪潮》一書中指出,“如果說IBM主機拉開了信息化革命的大幕,那么‘大數(shù)據(jù)’則是第三次浪潮的精彩華章”。2024/2/1327發(fā)展歷程3.4數(shù)據(jù)倫理2024/2/1328(大)數(shù)據(jù)倫理(bigdataethics),是大型數(shù)據(jù)采集、開發(fā)、利用和保護的道德規(guī)范。2012年9月,美國學者戴維斯和帕特森出版的《大數(shù)據(jù)倫理學》詳細討論了大數(shù)據(jù)技術的興起,人類將面臨的倫理挑戰(zhàn)。同年,庫克耶在其著作《大數(shù)據(jù)時代》中將大數(shù)據(jù)倫理界定為新的隱私問題、數(shù)據(jù)安全問題、虛假數(shù)據(jù)問題。2016年11月、2021年6月和2021年8月,我國分別頒布了:《網(wǎng)絡安全法》《數(shù)據(jù)安全法》《個人信息保護法》2018年5月,歐盟頒布《通用數(shù)據(jù)保護條例》(GDPR)。2018年6月,英國頒布了《數(shù)據(jù)倫理框架》,對數(shù)據(jù)倫理的七條原則進行了界定。主要問題3.4數(shù)據(jù)倫理2024/2/1329數(shù)據(jù)隱私問題

數(shù)據(jù)信息蘊含的潛在價值得到空前的開發(fā)和利用,數(shù)據(jù)隱私問題更加突出。數(shù)據(jù)獨裁問題

人們的決策逐漸完全依賴于數(shù)據(jù)的預測,使人們徹底走向唯數(shù)據(jù)主義。數(shù)字身份問題一組獨一無二地描述一個人的數(shù)據(jù),是有關一個人在數(shù)字上可獲取信息的總和。數(shù)據(jù)權利問題

個人或組織對數(shù)據(jù)所擁有的占有權、使用權、支配權、知情權等。數(shù)字鴻溝問題

數(shù)字鴻溝也稱為信息鴻溝,不同地域和不同的群體對社會信息資源占有、使用、收益、分配過程中的地位、權利和機會存在顯著差距?!氨M管大數(shù)據(jù)的力量是那么耀眼,但我們必須避免被它的光芒誘惑,并善于發(fā)現(xiàn)它固有的瑕疵”?!S克托·舍恩伯格(大)數(shù)據(jù)倫理vs網(wǎng)絡倫理vs信息倫理vs計算機倫理現(xiàn)代信息技術是信息倫理學演進的邏輯依據(jù):20世紀70年代,因計算機技術引發(fā)的倫理問題,產(chǎn)生了計算機倫理學。20世紀90年代,信息技術拓展到互聯(lián)網(wǎng)領域,與信息相關的倫理研究發(fā)展為網(wǎng)絡倫理學。進入21世紀,大數(shù)據(jù)作為信息化發(fā)展的高級階段,引發(fā)新的倫理問題,逐步形成了新的道德價值和道德規(guī)范,即(大)數(shù)據(jù)倫理學。信息技術的推進和信息化程度的加深,促使信息倫理學的研究范圍不斷拓展,超出了傳統(tǒng)計算機倫理與網(wǎng)絡倫理的邊界。信息倫理經(jīng)歷計算機倫理、網(wǎng)絡倫理到大數(shù)據(jù)時代信息倫理(數(shù)據(jù)倫理)的歷史演變,逐步形成了具有整體視野和普遍意義的信息倫理學。信息倫理計算機倫理網(wǎng)絡倫理數(shù)據(jù)倫理目錄數(shù)據(jù)倫理計算機倫理人工智能倫理12345網(wǎng)絡倫理信息倫理機器人倫理6發(fā)展歷程主要問題基本原則發(fā)展歷程主要問題信息法律發(fā)展歷程主要問題發(fā)展歷程主要問題基本原則治理對策發(fā)展歷程主要問題基本原則2024/2/13303.5機器人倫理2024/2/1331發(fā)展歷程機器人倫理學(robotethics,roboethics)是以人類為中心,關于機器人建造和使用的倫理學。機器倫理(Machineethics)是如何確保使用人工智能的人工機器或人工智能體(ArtificialMoralAgents)具有道德的行為,是人工道德智能體、機器或人工智能計算機行為的道德規(guī)范或倫理準則。機器倫理學主要關注“機器如何對人類表現(xiàn)出符合倫理道德的行為”;機器人倫理學主要關注“人類如何在設計和使用操作階段與這些機器進行聯(lián)系交互”。機器人倫理學屬于“以人為中心”的倫理學,責任主體是人,主要研究設計者在機器人設計、使用中的倫理規(guī)范以及把人類道德規(guī)范嵌入到機器人系統(tǒng)等問題;機器倫理學是機器具有了人類智能后應該遵循的倫理規(guī)范,機器倫理學是“以機器為中心”的倫理學,責任主體是機器。英國作家巴特勒在1863年就開始考慮機器成為人類繼任者的可能性。對機器的倫理方面(即利用倫理原則對機器行為進行規(guī)約和引導)做了深刻的考察。1936年,捷克著名科幻劇作家恰佩克在喜劇《羅素姆的萬能機器人》首次使用“Robota(機器人)”,后來演化為“robot”。該詞原意是“勞動”或“奴役”,為倫理道德引入提供了對象載體。1942年,阿西莫夫的短篇小說《轉圈圈》首次明確闡述了著名的“機器人三定律”。20世紀50年代后期,恩格爾伯格(JosephF.Engelberger)研制出第一臺工業(yè)機器人。20世紀60年代,機器人進入了全面發(fā)展時期,隨著人工智能的應用,機器越來越像人,甚至超過了人類的能力。如何設計與對待機器人也進入學者視野,機器人倫理學因此而誕生。3.5機器人倫理2024/2/1332發(fā)展歷程1987年,沃爾德羅普在論文“AQuestionofResponsi-bility”中正式提出機器倫理這一術語,并指出“智能機器將包含價值、假設和目的,不管它們的程序員是否有意這樣做。我們必須仔細而明確地思考這些內在價值是什么,也許我們需要的是一套符合阿西莫夫機器人三定律的機器倫理理論和實踐?!?992年,英屬哥倫比亞大學的應用倫理學教授彼特

丹尼爾森(PeterDanielson)出版了《技術人工物道德:善良機器人的美德游戲》一書,他第一次在倫理設計框架內對使用計算機技術進行構造道德推理模型進行了嘗試性探索,這相對于以往幾乎空白的研究來說具有前瞻性和開創(chuàng)性,從現(xiàn)在觀點看,他對機器人倫理思想的探索仍然很具深度。可以說,丹尼爾森的研究工作代表了當時機器人倫理領域的最高成就。2002年在意大利召開的

“國際機器人倫理學研討會”上,首次使用了“機器人倫理學”(roboethics),并提出把“機器人倫理學”細化為兩個應用分支學科:“機器倫理學”和“機器人倫理學”。2007年4月14日,IEEE-RAS(RoboticsandAutomationSociety)技術委員會在意大利的羅馬大學召開了ICRA(IEEEInternationalConferenceonRoboticsandAutomation)的機器人倫理學研討會,擬定并頒布了《歐洲機器人倫理學路線圖》(TheEURONRoboethicsRoadmap),為機器人倫理學研究開發(fā)提供了參考文本。發(fā)展歷程美國佐治亞理工學院羅伯特

阿爾金(RonaldArkin)教授于2009年3月,出版了《自治機器人致命行為的管理》,他認為,“機器人倫理學的核心問題是責任主體限定,機器人是作為人類社會的奴仆和服務者角色而存在的”

。3.5機器人倫理2024/2/13332009年,耶魯大學溫德爾

瓦拉赫(Wendellwallach)和科林

艾倫(ColinAllen)合著出版《機器倫理:教機器人區(qū)分善惡》,對狹義機器人以及廣義人工道德行為體等進行了探討。如,人工道德行為體能否獲得合法道德行為體資格;自治(主)系統(tǒng)是否能夠“真正地”滿足和具備自治行為的需要等

。2011年,美國加州理工學院帕特里克

林(PatrickLin)領銜,聯(lián)合同事基思

阿布尼(KeithAbney),以及南加州大學計算機科學教授喬治

拜柯(GeorgeA.Bekey)三人出版了首部《機器人倫理學》(RobotEthics)學術專著,提出了“機器人倫理學(Roboethics)作為應用倫理學的新學科”的論斷。該書對機器人倫理問題進行了系統(tǒng)、全面的探討。諸如,軍用機器人應用到戰(zhàn)爭中的法律和政策問題;在“人-機情感交互”實踐中,作為護工、伴侶角色的機器人應當遵守哪些倫理規(guī)范;具有賽博格(生物-計算機混合體)形態(tài)的機器應享有和肩負何種權利和道德責任。發(fā)展歷程2011年,美國哈特福德大學計算機科學教授邁克爾

安德森(MichaelAnderson)與康涅狄格大學的哲學教授蘇珊

安德森(SusanLeighAnderson)合作主編出版了《機器倫理》(MachineEthics),該書介紹了機器人倫理學領域的研究綱領和最新進展狀況,并入選了沃茲沃思哲學家系列(WadsworthPhilosophersSeries))。3.5機器人倫理2024/2/13342015年,尼克·博斯特羅姆出版《超級智能:路徑、危險、策略》一書,該書中指出,機器倫理是人類迄今為止面臨的最重大的問題,該書列《紐約時報》最暢銷科學書籍排行榜第17位。雅典國立技術大學的施皮羅斯

尼亞費斯塔(SpyrosG.Tzafestas)教授于2016年率先出版了國際上第一本通識教材《機器人倫理學:學科導論》對“機器人倫理學”的基本概念、研究對象、基本倫理原則、主要倫理問題以及研究方法等作了介紹。2017年的利雅得未來投資峰會,機器人索菲亞被授予沙特阿拉伯國籍(來第一個擁有國籍的機器人)。引起了爭議,如,索菲亞是否可以投票或結婚?故意關閉系統(tǒng)是否視為謀殺等。發(fā)展歷程聯(lián)合國教育、科學及文化組織的下設委員會(theWorldCommissionontheEthicsofScientificKnowledgeandTechnologyofUNESCO,簡稱COMEST)歷時兩年完成并于2017年9月發(fā)布了《機器人倫理報告》(ReportofCOMESTonroboticsethics),建議制定國家和國際層面的倫理準則。從學術價值的角度看,機器人倫理開拓了科技倫理研究的新領域,對于加深與變革包括人、生命、智能與機器等基本哲學概念的理解與認識具有重要意義。從實踐意義的角度看,對于社會大眾來說,機器人倫理研究有助于建構起人類與機器人互動的道德觀念與道德規(guī)范,實現(xiàn)人與機器人的和諧相處。對機器人技術的研發(fā)人員來說,機器人倫理設計原則與方法的研究成果,可以為其提供技術研發(fā)的倫理依據(jù)與理論支撐;而且,機器人倫理研究也有助于加強科技人員的道德責任感,培養(yǎng)科技人員的道德想象力與實踐能力。對科技管理人員來說,機器人倫理研究成果可以為機器人產(chǎn)業(yè)政策的制定提供理論參考?!皺C器人在可預見的未來將面臨人類道德的拷問,也面臨擔負著人類道德和法律的責任”?!皶伎嫉臋C器人擁有人工智能,使它們可以復制自身,而不加控制的自我復制是這些新技術的危險之一”。人類作為社會的締造者和主導者,對其擔負著不可逃脫的重要責任。人類必須正視機器人的倫理問題和社會影響,通過哲學、心理學、法律和其他專業(yè)領域的智力支持和理論支撐,以一種跨學科多領域的復合知識系統(tǒng)指導設計,構建“善”的機器人。3.5機器人倫理2024/2/1335智能機器人已從科幻文學作品走進現(xiàn)實生活,開始逐漸成為人們所熟知的事物。正如計算機對人類生活世界沖擊一樣,智能機器人對人類社會產(chǎn)生著深遠影響。主要問題3.5機器人倫理2024/2/1336機器人權利問題。什么樣的機器人可以擁有權利?可以擁有哪些權利?機器人為何可以擁有權利?機器人的權利與人的權利、動物權利有哪些異同?如何賦予、保護、限制甚至剝奪機器人的權利?人與機器人關系。如何看待人與機器人的差異?應該如何對待機器人?如何建立某些機制來避免人類對機器人的過度依賴?在許多方面已經(jīng)超過自己的機器人面前,人類如何保持自身主體性地位?機器人法律問題。在解決機器人倫理問題中,道德與法律手段的應用范圍與限度如何界定?哪些機器人倫理相關問題需要通過法律手段來解決?軍用機器人看護機器人服務機器人情侶機器人領域機器人倫理問題機器人倫理的普遍性問題不同領域機器人倫理問題軍用機器人在戰(zhàn)場上出現(xiàn)了錯誤,將由誰承擔責任?如何保證軍用機器人在戰(zhàn)場上不會濫殺無辜?如何限制軍用機器人的使用范圍?已婚人士可否擁有情侶機器人?情侶機器人是否破壞婚姻倫理的忠誠原則?不同的人是否可以共享、出借與交換情侶機器人?是否可對同性戀者提供情侶機器人?把孩子交給機器人看護,會產(chǎn)生哪些負面效應?人類對助老機器人的依賴是否會沖淡人類的親情?如何保證兒童看護與助老機器人的安全性問題?服務機器人如何與人類產(chǎn)生情感聯(lián)系?性別、年齡、職業(yè)、受教育程度等是否會影響人與機器人之間的情感聯(lián)系?3.5機器人倫理2024/2/1337機器(人)倫理vs(大)數(shù)據(jù)倫理vs網(wǎng)絡倫理vs信息倫理vs計算機倫理信息倫理計算機倫理網(wǎng)絡倫理數(shù)據(jù)倫理機器人倫理機器人倫理學和機器倫理學兩者的重疊程度在一定意義上將取決于“機器人”如何被定義:如果“機器人”被給予寬泛的定義,即包括虛擬機和固定物理實體系統(tǒng)的話,那么,這兩者將有很大部分的重疊;如果我們對“機器人”進行嚴格狹義地定義,排除虛擬機和固定物理實體系統(tǒng)的話,那么“機器倫理學”的主題將比“機器人倫理學”更寬泛。從學術價值角度看,機器人倫理開拓了科技倫理研究新領域,并且對于我們加深與變革包括人、生命、智能與機器等基本哲學概念的理解與認識具有重要意義。從實踐意義角度看,對于社會大眾來說,機器人倫理研究有助于建構起人類與機器人互動的道德觀念與道德規(guī)范,實現(xiàn)人與機器人的和諧相處;對機器人技術的研發(fā)人員來說,機器人倫理設計原則與方法的研究成果,可以為其提供技術研發(fā)的倫理依據(jù)與理論支撐,而且也有助于加強科技人員的道德責任感、道德想象力與實踐能力;對科技管理人員來說,機器人倫理研究成果可以為機器人產(chǎn)業(yè)政策的制定提供理論參考。目錄數(shù)據(jù)倫理計算機倫理人工智能倫理12345網(wǎng)絡倫理信息倫理機器人倫理6發(fā)展歷程主要問題基本原則發(fā)展歷程主要問題信息法律發(fā)展歷程主要問題發(fā)展歷程主要問題基本原則治理對策發(fā)展歷程主要問題基本原則發(fā)展歷程主要問題治理措施2024/2/1338發(fā)展歷程3.6人工智能倫理2024/2/1339人工智能倫理淵源時間脈絡圖機器倫理機器人倫理計算機倫理信息倫理網(wǎng)絡倫理數(shù)據(jù)倫理人工智能倫理1948年1936年1863年1996年2012年2016年1985年發(fā)展歷程3.6人工智能倫理2024/2/1340人工智能倫理學(Ethicsofartificialintelligence)是針對人工智能系統(tǒng)的應用倫理學的一個分支。人工智能倫理是人類設計、制造、使用和對待人工智能系統(tǒng)的道德,機器倫理中的機器行為,以及超級人工智能的奇點問題。2016年,阿爾法狗贏得人機圍棋大戰(zhàn)為標志,人工智能倫理由此成為世界各國政府、組織機構以及大型科技企業(yè)的人工智能政策的核心內容之一。學者們也對人工智能倫理及相關問題開著了積極廣泛的研究和探討。2016年,IEEE標準協(xié)會啟動了——倫理自主系統(tǒng)設計的全球行動倡議,旨在從實際需求出發(fā)建立社會公認的人工智能倫理標準、職業(yè)認證及道德規(guī)范。其發(fā)布的“人工智能設計的倫理準則”白皮書目前已迭代到第二版。2016年,博諾佛等在《Science》發(fā)文“TheSocialDilemmaofAutonomousVehicles”,對自動駕駛汽車的社會困境進行了討論,指出定義有助于自動駕駛汽車作出道德決策的算法是一項艱巨的挑戰(zhàn)。2017年,伯德丁頓出版了首部AI倫理著作《TowardsaCodeofEthicsforArtificialIntelligence》,闡述了如何借鑒其他領域的經(jīng)驗教訓制定人工智能倫理規(guī)范或其他法規(guī),并介紹了人工智能職業(yè)道德的特點。發(fā)展歷程2017年1月初舉行的“BeneficialAI”會議,在此基礎上建立起來的“阿西洛馬人工智能原則”,名稱來自此次會議的地點——美國加州的阿西洛馬市,旨在確保AI為人類利益服務。阿西洛馬人工智能原則的第6至18條,指出了人工智能的倫理和價值。牛津大學、劍橋大學和OpenAI公司等7家機構于2018年共同發(fā)布《人工智能的惡意使用:預測、預防和緩解》,分析了人工智能可能帶來的安全威脅并提出應對建議。微軟、谷歌、IBM等科技企業(yè)制定了人工智能開發(fā)的倫理原則,F(xiàn)acebook在2019年初在慕尼黑工業(yè)大學建立了AI倫理研究所。3.6人工智能倫理2024/2/13412018年1月,微軟發(fā)布了《未來計算》(TheFutureComputed)一書,其中提出了開發(fā)人工智能的六大原則:公平、可靠和安全、隱私和保障、包容、透明、責任。2018年3月,歐洲科學與新技術倫理組織(EuropeanGrouponEthicsinScienceandNewTechnologies)發(fā)布《關于人工智能、機器人及“自主”系統(tǒng)的聲明》(StatementonArtificialIntelligence,Roboticsand‘Autonomous’Systems),呼吁為人工智能、機器人和“自主”系統(tǒng)的設計、生產(chǎn)、使用和治理制定共同的、國際公認的道德和法律框架。發(fā)展歷程2019年2月,中國國家新一代人工智能治理專業(yè)委員會成立,并發(fā)布《新一代人工智能治理原則——發(fā)展負責任的人工智能》。同年4月,國家人工智能標準化總體組發(fā)布了《人工智能倫理風險分析報告》。3.6人工智能倫理2024/2/1342中國政府高度重視人工智能產(chǎn)業(yè)發(fā)展中的倫理問題。2017年7月國務院發(fā)布的《新一代人工智能發(fā)展規(guī)劃》,要求“制定促進人工智能發(fā)展的法律法規(guī)和倫理規(guī)范;開展人工智能行為科學和倫理等問題研究;制定人工智能產(chǎn)品研發(fā)設計人員的道德規(guī)范和行為守則”。在該戰(zhàn)略文件中,倫理一詞出現(xiàn)15次之多,足見我國對人工智能倫理的高度重視。2018年1月18日,在國家人工智能標準化總體組的成立大會上,《人工智能標準化白皮書2018》正式發(fā)布。白皮書論述了人工智能的安全、倫理和隱私問題,認為設定人工智能技術的倫理要求,要依托于社會和公眾對人工智能倫理的深入思考和廣泛共識,并遵循一些共識原則。2017年11月,騰訊研究院與中國信通院互聯(lián)網(wǎng)法律研究中心、騰訊AI實驗室、騰訊開放平臺一起出版了《人工智能:國家人工智能戰(zhàn)略行動抓手》一書,書中戰(zhàn)略篇、法律篇、倫理篇以及治理篇著重討論人工智能的社會和倫理影響,呼吁為人工智能的發(fā)展和應用制定共同的倫理框架。發(fā)展歷程3.6人工智能倫理2024/2/13432019年4月歐盟委員會發(fā)布《可信賴AI的倫理指導原則》。弗吉尼亞

迪格南在2018年3月的《倫理學與信息技術》雜志上發(fā)文指出,人工智能倫理具有如下三個目標:①設計倫理(Ethics

by

Design),倫理推理能力的技術/算法集成,作為人工自主系統(tǒng)行為的一部分;②設計中的倫理(Ethics

in

Design),當人工智能系統(tǒng)整合或取代傳統(tǒng)社會結構時,支持分析和評估其倫理影響的監(jiān)管和工程方法;③為了設計的倫理(Ethics

for

design),確保開發(fā)人員和用戶在研究、設計、建造、使用和管理人工智能系統(tǒng)時完整性的行為規(guī)范、標準和認證過程。2021年11月,聯(lián)合國教科文組織通過首個全球性的AI倫理協(xié)議《人工智能倫理建議書》。2019年6月,美國發(fā)布《國家人工智能研究和發(fā)展戰(zhàn)略規(guī)劃》提出“理解人工智能的倫理、法律和社會影響,開發(fā)用于設計與倫理、法律和社會目標一致的人工智能研發(fā)方法。”發(fā)展歷程2020年至今,學者們陸續(xù)出版了一些人工智能倫理方面的學術著作和教材:在國外,馬克

柯克伯格的《人工智能倫理》(AIEthics)(2020年),馬庫斯德克·杜伯、佛蘭科

帕斯奎爾和蘇尼特

丹斯的《牛津人工智能倫理手冊》(TheOxfordhandbookofethicsofAI)(2020年),馬修·廖的《人工智能倫理》(Ethicsofartificialintelligence)(2020年),克里斯托夫

巴特內克、克里斯托夫

路特德、阿蘭

瓦格納和肖恩

沃爾什的《機器人和人工智能倫理導論》(AnIntroductiontoEthicsinRoboticsandAI)(2021年)。3.6人工智能倫理2024/2/1344在國內,郭銳出版了《人工智能的倫理和治理》(2020年8月)、杜嚴勇出版了《人工智能倫理引論》(2020年6月)、陳小平出版了《人工智能倫理導引》(2021年2月)、古天龍出版了《人工智能倫理導論》(2022年8月)。3.6人工智能倫理2024/2/1345機器人通常被認為是人工智能系統(tǒng)的載體,機器人是人工智能的承載者。不是所有的機器人都通過人工智能系統(tǒng)發(fā)揮作用,也不是所有的人工智能系統(tǒng)都是機器人。人工智能倫理與機器人倫理相互交叉。機器學習是人工智能的核心技術,機器學習被譽為“算法+算力+數(shù)據(jù)”。由此,人工智能倫理與數(shù)據(jù)倫理、網(wǎng)絡倫理、計算機倫理、信息倫理具有密切的關系。人工智能倫理源于計算機倫理、網(wǎng)絡倫理、信息倫理、數(shù)據(jù)倫理和機器人倫理。從計算機倫理、信息倫理、網(wǎng)絡倫理、數(shù)據(jù)倫理、機器人倫理到人工智能倫理,有其發(fā)展的繼承性,有很多相似之處,但也有不同。AI倫理vs機器(人)倫理vs(大)數(shù)據(jù)倫理vs網(wǎng)絡倫理vs信息倫理vs計算機倫理主要問題人工智能的主要倫理問題包括:隱私泄露偏見歧視技術濫用責任歸屬技術層面主要包括算法及系統(tǒng)的安全問題、可解釋性問題、算法歧視問題和算法決策問題。算法及系統(tǒng)的安全問題,主要是指算法或系統(tǒng)的漏洞被攻擊和惡意利用的情形;可解釋性問題,則主要關注人類的知情利益和主體地位;算法歧視問題,來自算法研究人員的認知偏見或者訓練數(shù)據(jù)集不完美導致的歧視性的決策結果;算法決策問題,則是人工智能自學習導致的不可預見性結果。數(shù)據(jù)層面人工智能在許多領域獲得重大進展依賴于海量數(shù)據(jù),人工智能技術的快速發(fā)展以及大量應用案例實施,提供了豐富的個人信息收集場景、范圍和數(shù)量,數(shù)據(jù)采集日益成為引發(fā)人工智能倫理問題的重要原因之一。應用層面人工智能算法的濫用和誤用。人們在社會活動時容易出現(xiàn)使用目的、方式、范圍等偏差,從而導致不良的影響和后果。3.6人工智能倫理2024/2/1346特朗普團隊借助Facebook干預大選虛擬社交網(wǎng)絡中的隱私泄露據(jù)《紐約時報》和《英國觀察家報》報道,劍橋分析公司(CambridgeAnalytica)與2016年特朗普競選團隊合作,在未經(jīng)用戶許可的情況下,CambridgeAnalytica獲取了5000名Facebook賬號的信息,并將之濫用于2016美國總統(tǒng)大選期間的政治廣告,利用個人檔案建立起個人信息系統(tǒng),預測和影響民意的選擇,來幫助自己贏得大選。新冠疫情相關人員信息遭泄露2020年1月,新冠疫情期間,近7000多名武漢返鄉(xiāng)人員的信息被泄露。不少人在信息遭遇泄露后,被微信騷擾,甚至誤認作新冠攜帶者被人打電話辱罵。2020年2月9日,中央網(wǎng)信辦發(fā)布了《關于做好個人信息保護利用大數(shù)據(jù)支撐聯(lián)防聯(lián)控工作的通知》,除衛(wèi)生部門依法授權機構外,任何單位、個人都不得借疫情防控為由未經(jīng)同意收集個人信息,不得未經(jīng)被收集者同意公開姓名、年齡、身份證號碼等個人信息。智能音箱被爆“偷聽”用戶隱私2018年8月,一名名叫馬丁的智能音箱用戶,要求亞馬遜給出自己使用的亞馬遜智能音箱的語音記錄,想不到,亞馬遜向他發(fā)送相關錄音鏈接時,還發(fā)送了一位陌生人的1700個音頻文件。這些錄音來自另一名男子家中,該男子和一名女性同伴的活動被錄了下來,甚至還包括洗澡時音頻。也一度爆發(fā)了智能音箱“監(jiān)聽門”。現(xiàn)實社交生活中的隱私泄露家居/辦公場景中的隱私泄露隱私泄露是指正當?shù)?、而又不能或不愿示人的事、物及情感活動等被非法竊取或使用。主要問題3.6人工智能倫理2024/2/1347價格歧視性別歧視種族歧視2019年3月,一位網(wǎng)友稱自己疑似被攜程“殺熟”。一開始他購買了一張價格為17548元的機票,由于忘記選擇報銷憑證取消訂單重選,但隨后發(fā)現(xiàn)系統(tǒng)顯示無票,再次搜索時價格就變成了18987元。2020年3月,有網(wǎng)友爆料,天貓超市88VIP看到的商品價格居然比普通會員還高。同一款豆奶,88VIP顯示的價格為73.3元,非88VIP顯示的價格才62.8元。2018年2月,麻省理工學院的JoyBuolamwini發(fā)現(xiàn),IBM、微軟和中國公司Megvii的三個最新的性別識別AI可以在99%的情況下準確從照片中識別一個人的性別,但這僅限于白人。對于女性黑人來說,這個準確率會降至35%。在2015年的一項研究中顯示,使用Google搜索“CEO”的圖片,其中只有11%的人是女性。COMPAS是一種在美國廣泛使用的算法,通過預測罪犯再次犯罪的可能性來指導判刑,而這個算法或許是最臭名昭著的人工智能偏見。根據(jù)美國新聞機構ProPublica在2016年5月的報道,COMPAS算法存在明顯的偏見。根據(jù)分析,該系統(tǒng)預測的黑人被告再次犯罪的風險要遠遠高于白人,甚至達到了后者的兩倍。大數(shù)據(jù)殺熟現(xiàn)象人臉識別、搜素引擎結果存在差異犯罪預測系統(tǒng)判定結果存在差異偏見是指以不正確或不充分的信息為根據(jù)而形成的對他人或群體的片面甚至錯誤的認識和態(tài)度。歧視是指由偏見引起的,直接指向偏見目標或受害者的否定性消極行為表現(xiàn)。主要問題3.6人工智能倫理2024/2/1348Uber無人駕駛汽車致人死亡AI造成的事故責任由誰承擔?2018年3月,美國當?shù)貢r間晚上22點,亞利桑那州坦佩市郊區(qū),一輛Uber自動駕駛測試車在由南向北行進過程中,撞上推著自行車在人行道之外橫穿馬路的49歲女子伊萊·赫茲柏格(ElaineHerzberg),該女子送醫(yī)后搶救無效宣告死亡。這是全球首例無人駕駛汽車致死事故。微軟小冰的繪畫作品通過學習人類歷史上236位頂尖畫家,在訓練22個月之后,微軟智能程序“小冰”可以將人類給到的文字轉換成一幅全新的、油畫質感的藝術圖像,完成藝術創(chuàng)作。此外,小冰通過學習519位中國現(xiàn)代詩人而習得了寫詩,而微軟為了測試其寫詩能力,曾化名將小冰生成的詩篇投稿給文學社、詩歌競賽;藏身在網(wǎng)易云音樂的評論區(qū),假扮熱心網(wǎng)友;或是當電臺的實習主播,朗讀一段文字……擁有公民身份的Sophia機器人索菲亞(Sophia)是由香港漢森機器人技術公司(HansonRobotics)開發(fā)的類人機器人。2017年10月26日,沙特阿拉伯授予索菲亞公民身份。索菲亞的創(chuàng)始人DavidHanson曾經(jīng)問索菲亞:Doyouwanttodestroyhumans?Pleasesayno.而索菲亞的回答是:OK.Iwilldestroyhumans.AI“作品”的著作權歸誰?機器人是否該成為道德主體?責權歸屬是指責任與權利的合理界定與劃分。主要問題3.6人工智能倫理2024/2/1349人臉數(shù)據(jù)被過度采集人臉識別技術濫用中央網(wǎng)信辦、工信部、公安部、市場監(jiān)管總局四部門聯(lián)合成立的App專項治理工作組2020年發(fā)布的《人臉識別應用公眾調研報告》顯示,在2萬多名受訪者中,94.07%的受訪者用過人臉識別技術,64.39%的受訪者認為人臉識別技術有被濫用的趨勢,30.86%的受訪者已經(jīng)因為人臉信息泄露、濫用等遭受損失或者隱私被侵犯。Deepfake當Deepfake在2017年首次流行起來時,絕大多數(shù)被用于在互聯(lián)網(wǎng)論壇上生成名人的假色情作品。即使在2019年,根據(jù)公司Sensity所做的調查,96%的公開發(fā)布的Deepfake都是色情內容。各種各樣的創(chuàng)作者將Deepfake應用于聲音、圖像、視頻等各種形式的媒體。例如,在Y

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論