




版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認(rèn)領(lǐng)
文檔簡介
人工智能倫理Lecture32024/2/1212如果有人設(shè)計計算機病毒,那么就有人設(shè)計不斷自我完善、直到最終超越人類的人工智能,其結(jié)果將是一種新的生命形式。這種超級人類一出現(xiàn),未改進的人類就再也不是他們的對手,嚴(yán)重的問題由此產(chǎn)生。原版人類將逐漸滅絕,或變得無足輕重。……人工智能的真正風(fēng)險不是它的惡意,而是它的能力。超人工智能在完成目標(biāo)方面非常出色,如果這些目標(biāo)與我們的目標(biāo)不一致,我們就會陷入困境?!艚穑⊿tephenHawking)目錄數(shù)據(jù)倫理計算機倫理人工智能倫理計算機倫理12345網(wǎng)絡(luò)倫理信息倫理機器人倫理6發(fā)展歷程主要問題基本原則2024/2/123計算機倫理(學(xué))(ComputerEthics)是應(yīng)用倫理學(xué)的一個研究領(lǐng)域,研究對象是在計算機的設(shè)計開發(fā)和應(yīng)用以及計算機信息的生產(chǎn)、儲存、交換和傳播中所涉及的倫理道德問題。是關(guān)涉計算機及其應(yīng)用中所固有的涉及文化、社會、法律和倫理等方面問題的研究和分析。1958年,發(fā)生了世界上第一起計算機犯罪。一位程序員能夠使用計算機代碼來防止他的銀行賬戶被標(biāo)記為透支。然而,當(dāng)時沒有法律能夠阻止,因此他沒有受到指控。人們意識到,為了確保避免其他人仿效、通過計算機進行類似金融犯罪的發(fā)生,計算機相關(guān)道德準(zhǔn)則是必要的。2024/2/1243.1計算機倫理發(fā)展歷程計算機倫理最早可追溯到20世紀(jì)40年代的二戰(zhàn)時期:1948年,美國數(shù)學(xué)家和哲學(xué)家、麻省理工學(xué)院教授維納(NorbertWiener)在他的《控制論》(Cybernetics)一書中指出:“像眾所周知的原子彈一樣……超高速計算機器給人類帶來的是美好還是罪惡?”1950年,他的另外一本書《人有人的用處》(TheHumanUseofHumanBeings),深入討論了圍繞信息技術(shù)的倫理問題。維納的觀點為研究計算機倫理學(xué)奠定了基礎(chǔ),作為第一位就計算機對人類價值的影響進行嚴(yán)肅研究的學(xué)者,維納被尊為“計算機倫理學(xué)”的創(chuàng)始人。計算機倫理的起源
發(fā)展歷程20世紀(jì)50年代至60年代中期是計算機倫理研究的沉寂時期。由于計算機技術(shù)的發(fā)展在當(dāng)時處于起步階段,計算機技術(shù)尚未得到普遍應(yīng)用,其間許多倫理學(xué)問題還沒有充分暴露出來。因而,維納于40年代末提出的計算機倫理問題的見解在學(xué)術(shù)界并沒有引起太大的反響。20世紀(jì)60年代中期,隨著計算機技術(shù)的飛速發(fā)展及其在各個領(lǐng)域內(nèi)的廣泛應(yīng)用,與之相關(guān)的許多社會、倫理問題也逐漸明朗化。計算機應(yīng)用中出現(xiàn)的兩個問題直接促進了計算機倫理學(xué)研究的廣泛開展。第一個問題是隱私問題。20世紀(jì)60年代中期,美國政府的許多部門已經(jīng)開始為個人建立計算機信息數(shù)據(jù)庫,美國國會也曾認(rèn)真考慮,根據(jù)這些數(shù)據(jù)庫給每一位公民指定一個身份證號。當(dāng)時,由于許多人擔(dān)心這樣的身份證號碼會干涉?zhèn)€人的隱私權(quán)而使得這項動議被擱置。然而,信息技術(shù)與隱私的關(guān)系問題無疑成了此時期計算機倫理問題研究的第一位動因,也成為學(xué)者們深思的一個重要課題。3.1計算機倫理2024/2/125第二個問題是計算機和信息技術(shù)的濫用和計算機犯罪問題。20世紀(jì)60年代之后,西方計算機應(yīng)用過程中出現(xiàn)的因個人數(shù)據(jù)被盜用而在信用消費方面引起的問題,以及新聞媒體對大量計算機從業(yè)人員職業(yè)犯罪案例的報道引起了各方面人士的關(guān)注。有的學(xué)者把計算機犯罪問題形象地概括為“當(dāng)人們進入計算中心時,他們把倫理丟在門口了”。計算機倫理研究的起步發(fā)展歷程在政府層面上,世界各國政府部門做出了積極地反應(yīng)。1970年,美國成立了由蘭德公司的威爾和哥倫比亞大學(xué)的沃斯頓各自領(lǐng)導(dǎo)的獨立專家組,從倫理學(xué)等方面對隱私和計算機數(shù)據(jù)庫問題進行了專門研究。專家組的研究成果對于美國1974年的聯(lián)邦隱私法案產(chǎn)生了很大的影響;英國政府于1971年成立了一個專門委員會,對隱私和計算機問題進行研究;瑞典于1974年在歐洲率先實施了國家性的數(shù)據(jù)保護法;1981年,歐洲委員會通過了歐洲數(shù)據(jù)保護條約,這個條約為整個西歐的數(shù)據(jù)保護法的建立奠定了基礎(chǔ)。3.1計算機倫理諸多學(xué)者也投入到相關(guān)問題的研究。1968年,帕克(DonnParker)發(fā)表了《信息處理中的倫理規(guī)則》一文,闡明了建立計算計倫理規(guī)則的必要性,并初步擬訂了一些規(guī)則。該規(guī)則于1973年被美國計算機協(xié)會(ACM,AssociationforComputingMachinery)所采用。1976年,魏森鮑姆(JosephWeizenbaum)出版了《計算機能力與人類理性》(ComputerPowerandHumanReason)一書,闡明了人類思維與本質(zhì)上作為機器的計算機運行程序的差異。他指出,人不應(yīng)當(dāng)被視為機器,僅僅從機器層面理解人,是對人自身價值的否定。該書被列為西方計算機倫理學(xué)的經(jīng)典之作。2024/2/126計算機倫理研究的起步發(fā)展歷程1976年,著名應(yīng)用倫理學(xué)家曼娜(WalterManer)正式提出“計算機倫理學(xué)”這一概念。他闡述了建立計算機倫理學(xué)這一學(xué)科的必要性和可行性,并率先將自己的理論用于教學(xué)實踐。邁納仿照醫(yī)學(xué)倫理學(xué)、商業(yè)倫理學(xué)等應(yīng)用倫理學(xué)學(xué)科,開設(shè)了計算機倫理學(xué)課程,取得了非常好的教學(xué)效果。20世紀(jì)70年代末,計算機倫理學(xué)最終確立一門新的應(yīng)用倫理學(xué),計算機倫理教育在歐美等國家諸多院校中得到推廣實施。3.1計算機倫理2024/2/127計算機倫理的地位確立計算機倫理研究的興起20世紀(jì)70年代中期以后,計算機倫理學(xué)的研究和推廣得到逐步完善和深化。發(fā)表和出版了大量的學(xué)術(shù)研究論文、專著和文集,計算機倫理學(xué)研究成為應(yīng)用倫理學(xué)研究的一個新熱點。1985年,美國著名哲學(xué)雜志《形而上學(xué)》(Metaphilo-sophy)發(fā)表了泰雷爾·貝奈姆的《計算機與倫理學(xué)》(Acomputerethicsbibliography)和詹姆斯·摩爾的《什么是計算機倫理學(xué)》(WhatisComputerEthics?)兩篇論文。這兩篇文章成為西方計算機倫理學(xué)興起的重要理論標(biāo)志。出版有影響的專著包括:大衛(wèi)·歐曼等的《計算機、倫理與社會》(1990)羅伊等的《信息系統(tǒng)的倫理問題》(1991)福雷斯特等的《計算機倫理》(1994)發(fā)展歷程摩爾在《什么是計算機倫理學(xué)》一文中提出了計算機倫理學(xué)“四步法”:第一步,計算機倫理學(xué)要考察由于計算機技術(shù)的應(yīng)用而導(dǎo)致的“政策真空”;第二步,計算機倫理學(xué)要有助于澄清由于計算機技術(shù)的應(yīng)用所改變的一些核心倫理條款的意義而出現(xiàn)的觀念混亂;第三步,計算機倫理學(xué)要制定“倫理”政策以填補相應(yīng)的“政策真空”;第四步,計算機倫理學(xué)要根據(jù)人們的價值取向而證明新政策的合理性。摩爾“四步法”的提出,為計算機倫理規(guī)則或原理的制定提供了可循的基本思路,具有示范性意義。編寫出版了有影響的教科書,促進了計算機倫理的教育。1985年,約翰遜的《計算機倫理學(xué)》以及約翰遜與斯耐普合著的《計算機應(yīng)用中的倫理問題》相繼出版。其中《計算機倫理學(xué)》被譽為計算機倫理學(xué)教學(xué)史上的標(biāo)準(zhǔn)教材。2003年,拜納姆和羅杰森出版了《計算機倫理與專業(yè)責(zé)任》。在國內(nèi),2003年,殷正坤編寫了教材《計算機倫理與法律》;2006年,姜媛媛等編寫了教材《計算機社會與職業(yè)問題》;2011年,馮繼宣等編寫了教材《計算機倫理學(xué)》。3.1計算機倫理1992年10月,美國計算機協(xié)會(ACM)通過并發(fā)布了《倫理與職業(yè)行為準(zhǔn)則》。2024/2/128計算機倫理研究的興起個人隱私問題
隨著計算機信息管理系統(tǒng)的普及,越來越多的計算機從業(yè)者能夠接觸到各種各樣的保密數(shù)據(jù)。這些數(shù)據(jù)不僅僅局限為個人信息,更多的是企業(yè)或單位用戶的業(yè)務(wù)數(shù)據(jù),它們同樣是需要保護的對象。計算機使某些人更容易獲得他人的個人機密和信息,個人隱私受到計算機應(yīng)用系統(tǒng)在采集、檢索、處理、重組、傳播等能力大大增強的嚴(yán)重挑戰(zhàn)和空前威脅。知識產(chǎn)權(quán)問題知識產(chǎn)權(quán)是指創(chuàng)造性智力成果的完成人或商業(yè)標(biāo)志的所有人依法所享有的權(quán)利的統(tǒng)稱。計算機技術(shù)的發(fā)展,軟件開發(fā)者可以輕而易舉地移植、復(fù)制他人的源碼。大量的計算機用戶都在已知或不知的情況下使用著盜版軟件。軟件著作權(quán)的客體是指計算機軟件,即計算機程序及其有關(guān)文檔。某衛(wèi)生系統(tǒng)“內(nèi)鬼”泄露新生嬰兒和預(yù)產(chǎn)孕婦信息2018年1月,某警方偵破了一起新生嬰兒信息倒賣鏈條。從新學(xué)嬰兒數(shù)據(jù)泄露的源頭來看:某社區(qū)衛(wèi)生服務(wù)中心工作人員徐某,掌握了某市“婦幼信息某管理系統(tǒng)”市級權(quán)限賬號密碼,利用職務(wù)之便,多次將2016年至2017年的某市新生嬰兒信息及預(yù)產(chǎn)信息導(dǎo)出。被抓獲前,他累計非法下載新生嬰兒數(shù)據(jù)50余萬條,販賣新生嬰兒信息數(shù)萬余條。合作公司員工泄露防偽數(shù)據(jù)2018年2月,某警方偵破了知名酒被仿造的案件。蔡某拿任職于某公司的“國酒防偽溯源系統(tǒng)”項目專項經(jīng)理,多次利用職務(wù)之便通過拍照、直接用U盤拷貝的方式竊取某知名酒企股份有限公司防偽溯源數(shù)據(jù),并將竊取的數(shù)據(jù)泄露給蔡某剛。蔡某拿披露數(shù)據(jù)量共計700余萬條(可制作成700萬瓶能夠通過防偽溯源驗證的假冒酒)。防偽數(shù)據(jù)庫泄露直接導(dǎo)致貴州茅臺經(jīng)濟損失約105.7萬元。“珊瑚蟲”侵權(quán)案“珊瑚蟲”QQ對正版QQ進行了非法改動,并放置于互聯(lián)網(wǎng)上供他人下載以獲取巨額利益,侵犯了騰訊的著作權(quán)。2008年,騰迅將原作者陳壽福告上法庭,法院判決:被告人犯侵犯著作權(quán)罪,被判處有期徒刑3年,并處罰金120萬元;對被告人違法所得總計117.28萬元予以追繳。2024/2/1293.1計算機倫理主要問題計算機犯罪問題以計算機為犯罪工具或以計算機為犯罪對象的犯罪行為,其概念有廣義和狹義之分。職業(yè)道德問題涉及參與計算機軟件、計算機硬件、網(wǎng)絡(luò)技術(shù)的設(shè)計、制造的專業(yè)技術(shù)和管理人員對消費者和社會的道德與法律責(zé)任,其中包括產(chǎn)品的技術(shù)質(zhì)量、設(shè)計的合理性和最優(yōu)化等復(fù)雜的技術(shù)因素和專業(yè)技術(shù)人員個人的道德文化價值取向。案例1:呂某,25歲,廣州市人。1997年4月加入國內(nèi)“黑客”組織。他盜用他人網(wǎng)絡(luò)賬號以及使用非法賬號上網(wǎng)活動,并攻擊中國公眾多媒體通信網(wǎng)廣州主機(即“視聆通”廣州主機)。成功入侵后,他取得了該主機系統(tǒng)的最高權(quán)限,并非法開設(shè)了兩個具有最高權(quán)限的賬號。此后,他又多次非法入侵該主機,對其部分文件進行刪除、修改、增加等一系列非法操作,包括非法開設(shè)四個賬號作為自己上網(wǎng)之用和送給他人使用、安裝并調(diào)試網(wǎng)絡(luò)安全監(jiān)測軟件(未遂)。同時,他為掩蓋自己的行為,還將上網(wǎng)的部分記錄刪除、修改。更為嚴(yán)重的是,三次修改了該主機系統(tǒng)最高權(quán)限的密碼,致使密碼三次失效,造成主機系統(tǒng)管理失控共計15個小時的嚴(yán)重后果。廣州市中級人民法院經(jīng)審理認(rèn)為,被告人呂某已構(gòu)成破壞計算機信息系統(tǒng)罪。案例2:兩名中國大陸的網(wǎng)絡(luò)黑客入侵銀行的網(wǎng)絡(luò)系統(tǒng),竊取人民幣260,000元(約合美金三萬一千四百元)的金額。據(jù)報導(dǎo)指出,這兩個黑客是兄弟檔。哥哥郝金龍(譯音),是某工商銀行的會計,管理該銀行的網(wǎng)絡(luò)系統(tǒng)。他們用不同的戶名在該銀行的某分行開了十六個帳戶。并且在銀行計算機終端機植入一個控制的裝置。他們利用該裝置,將虛擬存款720,000人民幣(約合美金$86,975)電匯進入銀行帳戶內(nèi)。之后,他們成功地從該銀行的八個分行領(lǐng)出真實的鈔票--人民幣260,000元。后來這兩名黑客遭江蘇省的楊州法院判處一名未死刑、另一名為無期。2024/2/12103.1計算機倫理主要問題廣義的計算機犯罪是指行為人故意直接對計算機實施侵入或破壞,或者利用計算機實施有關(guān)金融詐騙、盜竊、貪污、挪用公款、竊取國家秘密或其他犯罪行為的總稱。狹義的計算機犯罪僅指行為人違反國家規(guī)定,故意侵入國家事務(wù)、國防建設(shè)等計算機信息系統(tǒng),或者利用各種技術(shù)手段對計算機信息系統(tǒng)功能及有關(guān)數(shù)據(jù)、應(yīng)用程序等進行破壞,制作、傳播計算機病毒,影響計算機系統(tǒng)正常運行且造成嚴(yán)重后果?;驹瓌t美國學(xué)者斯平內(nèi)洛在《信息技術(shù)的倫理方面》中提出了計算機倫理道德的一般規(guī)范性原則:①自主原則,尊重自我與他人的平等價值與尊嚴(yán),尊重自我與他人的自主權(quán)利;②無害原則,人們不應(yīng)該用計算機和信息技術(shù)給他人造成直接或間接地?fù)p害;③知情同意原則,人們在信息交換中,有權(quán)知道誰會得到這些數(shù)據(jù)以及如何利用它們,沒有信息權(quán)利人的同意,他人無權(quán)擅自使用這些信息。學(xué)者們對計算機“職業(yè)”、“職業(yè)人員”、“職業(yè)道德”的特殊性問題作了探討。韋克特和愛德尼在《計算機與信息倫理學(xué)》中提出:“一個真正的計算機職業(yè)人員,不僅應(yīng)當(dāng)是自我領(lǐng)域的專家,而且也應(yīng)當(dāng)使自己的工作適應(yīng)人類文明的一般準(zhǔn)則,具有這方面的道德自律能力與渴望?!?.1計算機倫理2024/2/1211美國學(xué)者羅伯特·巴格認(rèn)為,隨著計算機與信息技術(shù)的發(fā)展,人類的基本道德價值觀念和行為準(zhǔn)則并沒有過時。他在1993年于華盛頓召開的第二屆計算機倫理學(xué)年會上提出了計算機倫理學(xué)的三條基本原則:①一致同意的原則,如誠實、公正和真實等;②把這些原則應(yīng)用到對不道德行為的禁止上;③通過對不道德行為的懲處和對遵守規(guī)則行為的鼓勵,來對不道德行為進行防范?;驹瓌t美國的一些專門研究機構(gòu)制定了簡明通曉的道德戒律。如美國計算機倫理協(xié)會制定了“計算機倫理十誡”:①不應(yīng)當(dāng)用計算機去傷害別人;②不應(yīng)當(dāng)干擾別人的計算機工作;③不應(yīng)當(dāng)偷窺別人的文件;④不應(yīng)當(dāng)用計算機進行偷盜;⑤不應(yīng)當(dāng)用計算機作偽證;⑥不應(yīng)當(dāng)使用或拷貝沒有付過錢的軟件;⑦不應(yīng)當(dāng)未經(jīng)許可而使用別人的計算機資源;⑧不應(yīng)當(dāng)盜用別人的智力成果;⑨應(yīng)當(dāng)考慮所編制的程序的社會后果;⑩應(yīng)當(dāng)用深思熟慮和審慎的態(tài)度來使用計算機。“特殊的職業(yè)責(zé)任”包括:①努力在職業(yè)工作的程序中,使產(chǎn)品實現(xiàn)最高的質(zhì)量、最高的效益和高度的尊嚴(yán);②獲得和保持職業(yè)技能;③了解和尊重現(xiàn)有的與職業(yè)工作有關(guān)的法律;④接受和提出恰當(dāng)?shù)穆殬I(yè)評價;⑤對計算機系統(tǒng)和它們包括可能引起的危機等方面作出綜合的理解和徹底的評估;⑥重視合同、協(xié)議和指定的責(zé)任。3.1計算機倫理2024/2/1212美國計算機協(xié)會《倫理與職業(yè)行為準(zhǔn)則》“基本道德規(guī)則”包括:①為社會和人類的美好生活做出貢獻(xiàn);②避免傷害其他人;③做到誠實可信;④恪守公正并在行為上無歧視;⑤敬重包括版權(quán)和專利在內(nèi)的財產(chǎn)權(quán);⑥對智力財產(chǎn)賦予必要的信用;⑦尊重其他人的隱私;⑧保守機密。美國許多公司、學(xué)校和政府機構(gòu),明確制定了各種網(wǎng)絡(luò)倫理準(zhǔn)則。如,南加州大學(xué)的網(wǎng)絡(luò)倫理聲明中明確譴責(zé)“六種網(wǎng)絡(luò)不道德行為”:①有意地造成網(wǎng)絡(luò)交通混亂或擅自闖入其他網(wǎng)絡(luò)及其相關(guān)的系統(tǒng);②商業(yè)性或欺騙性地利用大學(xué)計算機資源;③偷竊資料、設(shè)備或智力成果;④未經(jīng)許可接近他人的文件;⑤公共用戶場合做出引起混亂或造成破壞的行為;⑥偽造電子郵件信息。目錄數(shù)據(jù)倫理計算機倫理人工智能倫理12345網(wǎng)絡(luò)倫理信息倫理機器人倫理6發(fā)展歷程主要問題基本原則發(fā)展歷程主要問題信息法律2024/2/12133.2信息倫理發(fā)展歷程信息倫理(學(xué))
(InformationEthic)是規(guī)范倫理學(xué)中的應(yīng)用倫理學(xué)分支,是從倫理學(xué)角度研究和探討信息以及信息傳遞過程中的道德倫理問題,以揭示信息傳遞中的道德倫理規(guī)律。信息倫理學(xué)最初以計算機倫理學(xué)的面目出現(xiàn)。1985年,德國的信息科學(xué)家卡普羅(RafaelCapurro)發(fā)表了“信息科學(xué)的道德問題”的論文,研究了電子形式下專門信息的生產(chǎn)、存儲、傳播和使用問題。從宏觀和微觀兩個角度探討了信息倫理學(xué)問題,包括信息研究、信息科學(xué)教育、信息工作中的倫理問題。1986年,美國南部衛(wèi)理公會大學(xué)梅森(RichardO.Mason)在《信息時代的四個倫理問題》論文中,提出了著名的“PAPA”理論,即,信息隱私(Privacy)、信息正確(Accuracy)、信息產(chǎn)權(quán)(Property)、信息存?。ˋccessibility)。20世紀(jì)90年代初期,計算機倫理學(xué)研究范圍擴大,這時的研究包括與非專業(yè)性計算機使用和計算機網(wǎng)絡(luò)不斷發(fā)展有關(guān)的一些問題,研究對象也更加明確地確定為信息領(lǐng)域的倫理問題,在概念和名稱的使用上直接使用了“信息倫理學(xué)”這一術(shù)語。2024/2/12141996年,羅格森·西蒙和貝耐姆共同發(fā)表了《信息倫理:第二代》。他們認(rèn)為:計算機倫理學(xué)是第一代信息倫理學(xué),它所研究的范圍有限,研究的深度不夠,只是對計算機現(xiàn)象的解釋,缺乏全面的倫理學(xué)理論,對與信息技術(shù)和信息系統(tǒng)有關(guān)的倫理問題和社會問題,以及解決這些問題的方法缺乏深層次的研究和認(rèn)識。2000年,卡普羅在“Ethicalchallengesoftheinformationsocietyinthe21stcentury”一文中專門論述了信息社會的倫理問題,將信息倫理從計算機倫理中區(qū)分出來,強調(diào)了信息倫理學(xué)。3.2信息倫理2024/2/1215主要問題信息倫理的主要問題包括:知識產(chǎn)權(quán)、個人隱私、信息污染、信息安全、信息鴻溝和文化侵害。知識產(chǎn)權(quán)和個人隱私也是計算機倫理的主要問題。信息倫理的主要問題信息污染問題
信息中混入了有害性、欺騙性、誤導(dǎo)性信息元素,對信息生態(tài)、信息資源及人類身心健康造成破壞、損害等不良影響。信息安全問題信息系統(tǒng)(硬件、軟件、數(shù)據(jù)、物理環(huán)境及基礎(chǔ)設(shè)施)不受偶然或惡意原因而遭到破壞、更改、泄露,系統(tǒng)可靠正常地運行。信息鴻溝問題較多擁有信息技術(shù)和工具的個體、家庭、商業(yè)組織、地區(qū)和國家,與較少或未曾擁有信息技術(shù)和工具者之間,存在信息鴻溝。文化侵害問題互聯(lián)網(wǎng)信息上90%以上的內(nèi)容使用英語,非英語人群不能使用自己的母語交流,帶來了某種程度上的文化侵害。3.2信息倫理信息倫理學(xué)有廣義和狹義之分。狹義的信息倫理學(xué)是指信息技術(shù)倫理學(xué),世界科技知識與技術(shù)倫理委員會信息社會倫理分委員會(COMEST)、斯皮內(nèi)洛(RichardA.Spinello)早期的工作基本上可歸為這一范疇。廣義的信息倫理學(xué)是探討與信息相關(guān)的所有方面的倫理問題,而不局限于信息技術(shù)的范圍。美國國際信息倫理學(xué)中心也認(rèn)為,信息倫理學(xué)有廣義和狹義之分,但是他們的看法與上述觀點不同。他們認(rèn)為:廣義的信息倫理學(xué)是研究一對多等級結(jié)構(gòu)的大眾傳媒(媒體倫理學(xué))(新聞倫理學(xué))、計算機科學(xué)(計算機倫理學(xué))和作為平等媒體的因特網(wǎng)(網(wǎng)絡(luò)倫理學(xué))中的倫理問題的應(yīng)用倫理學(xué)科。狹義的信息倫理學(xué)研究因特網(wǎng)(網(wǎng)絡(luò)倫理學(xué))、信息和知識管理(與管理倫理學(xué)有關(guān))以及圖書館、檔案領(lǐng)域的倫理問題的應(yīng)用倫理學(xué)科。隨著信息倫理學(xué)研究范圍和深度的不斷拓展,人們逐漸認(rèn)識到:信息倫理學(xué)不完全等同于計算機倫理學(xué),信息倫理學(xué)有著更廣闊的研究范圍,涵蓋了前者的研究范圍。計算機倫理學(xué)側(cè)重于計算機及其使用的個體性行為或區(qū)域行為的倫理研究;信息倫理學(xué)則立足于一般的信息或信息技術(shù)層面,試圖概括計算機倫理學(xué)的研究成果,揚棄其特殊性以形成一種在信息領(lǐng)域具有普遍意義的倫理學(xué)。計算機倫理學(xué)未來融入信息倫理學(xué)、被信息倫理學(xué)取而代之代表了諸多學(xué)者的一種觀點。信息倫理學(xué)計算機倫理學(xué)2024/2/1216信息倫理vs計算機倫理信息倫理與法律/政策信息法律與信息政策都是與信息倫理密切相關(guān)的概念,為信息倫理的實現(xiàn)提供了支持。了解信息倫理、信息法律與信息政策之間的區(qū)別與聯(lián)系,有助于深入理解信息倫理的內(nèi)涵,找到規(guī)范信息行為的倫理準(zhǔn)則和約束機制。法律是一套由社會機構(gòu)強制執(zhí)行以控制人們行為的規(guī)則與指導(dǎo)方針的體系。法律由政府及其立法機構(gòu)制定,用于調(diào)節(jié)人們之間的政治、經(jīng)濟與社會關(guān)系。信息法律指在調(diào)整信息活動中所產(chǎn)生的社會關(guān)系的法律規(guī)范的總稱。這里的社會關(guān)系主要涉及利益、權(quán)益的安全問題。信息法律的主要內(nèi)容包括知識產(chǎn)權(quán)法(專利法、著作權(quán)法、商標(biāo)法等)、信息安全法、信息公開法、新聞出版與傳播法、電信法、電子商務(wù)法(電子簽名與數(shù)字認(rèn)證法等)、計算機犯罪的法律等等。政策是指導(dǎo)決策并達(dá)到合理目的的原則或規(guī)則。信息政策用于指導(dǎo)信息收集、生產(chǎn)、創(chuàng)建、組織、存儲、獲取、傳播與保存等整個生命周期的活動。信息政策既包括公共信息政策,也包括組織內(nèi)部的信息政策。信息政策可以劃分為基礎(chǔ)設(shè)施信息政策、水平信息政策與垂直信息政策三個層次。信息政策的范圍包括九大類:政府信息資源管理、信息技術(shù)、電信與廣播、國際通信、信息公開、保密與隱私、計算機管制與計算機犯罪、知識產(chǎn)權(quán)、圖書館與檔案館、政府信息傳播。3.2信息倫理2024/2/1217信息倫理、信息政策與信息法律三者在對信息活動的調(diào)控范圍和規(guī)范強度等方面應(yīng)相互補充,共同發(fā)揮作用,以維持信息社會的秩序,實現(xiàn)共同的價值目標(biāo)。這些價值目標(biāo)體現(xiàn)在:相同的義務(wù)準(zhǔn)則、相同的權(quán)利追求和相同的功利主義追求。信息倫理、信息法律與信息政策在指導(dǎo)、約束人們的信息行為以及相互關(guān)系方面發(fā)揮著不可替代的作用,但是三者的作用層次和力度有所不同,其影響力的發(fā)揮也各有側(cè)重。三者主要的區(qū)別可以歸納為:制定主體的不同、約束強度的不同、問題適應(yīng)性不同、發(fā)布形式不同和調(diào)節(jié)范圍不同。3.2信息倫理2024/2/1218信息倫理與法律/政策“維基解密”分析從“維基解密”事件,分析信息倫理、信息政策、信息法律之間的相互關(guān)系?!熬S基解密”作為一種在網(wǎng)絡(luò)環(huán)境中誕生的新型傳媒組織,自2010年連續(xù)三次大規(guī)模公布美國軍事外交機密以來飽受國際社會的爭議。其爭議的焦點主要在于政府信息安全的保護和公民信息自由之間的制衡。3.2信息倫理2024/2/1219維基解密(WikiLeaks),是一個國際性非營利媒體組織,專門公開來自匿名來源和網(wǎng)絡(luò)泄露的文件。網(wǎng)站成立于2006年12月,創(chuàng)建者為朱利安·阿桑奇(澳大利亞)2010年,這家網(wǎng)站曝光關(guān)于阿富汗戰(zhàn)爭和伊拉克戰(zhàn)爭的海量秘密文件。2017年12月,阿桑奇被授予厄瓜多爾國籍。2019年4月,厄瓜多爾不再向阿桑奇提供庇護,英國警方隨即以違反保釋條例為由逮捕阿桑奇。次月,美國檢察官以17項間諜罪和1項濫用計算機罪控告阿桑奇。同年11月,瑞典方面放棄調(diào)查對阿桑奇的強奸指控。2021年7月,阿桑奇的厄瓜多爾國籍被取消;12月10日,英國高等法院裁定,阿桑奇將被引渡至美國。2022年4月20日,英國法院已批準(zhǔn)將“維基揭秘”創(chuàng)始人朱利安·阿桑奇引渡至美國;當(dāng)?shù)貢r間6月17日,英國內(nèi)政大臣帕特爾簽署命令,批準(zhǔn)引渡阿桑奇至美國?!熬S基解密”分析“維基解密”涉及的倫理問題不是它究竟公開了什么,而是它采取了怎樣的方式公開信息。事實上,這樣的公開方式不僅威脅著政府信息安全,也威脅著個人隱私,觸動著整個人類的倫理道德法則。人類賴以生存的不僅是物質(zhì)資源,還有大多數(shù)人必須遵守的倫理道德規(guī)則,否則社會秩序的混亂將會危及人類生存。黑客出于智慧炫耀、政治立場或竊取利益等目的,威脅著政府、組織和公民個人的信息安全。在“維基解密”事件中,黑客出于揭露政府“丑聞”的目的而侵害政府安全,其中涉及的信息倫理問題包括兩個方面:一是黑客非法獲取政府機密、危害國家信息安全和政府形象的不道德行為;二是有助于更多的人監(jiān)督政府活動的“正義”行為。對于兩種倫理價值的權(quán)衡成為人們對“維基解密”事件爭論的焦點。最終,人們對于理性與秩序的追求似乎更占上風(fēng)。3.2信息倫理2024/2/1220“維基解密”所獲取的秘密資料來自世界各地的匿名人士,已知的提供美國軍事外交機密資料的只有駐伊美軍士兵曼寧。從一般常理判斷,這些人中有能夠合法接觸機密的人士,有通過黑客行為獲取機密的人士,也可能有編造杜撰的人士。從動機來講,有道德人士想通過“維基解密”揭發(fā)政府、企業(yè)的丑惡內(nèi)幕,有的資料提供者存在自我炫耀的心理,也有持不同政見者想借此打擊異己等。總之,這些行為都存在著制度約束缺位的不可控性。尤其是黑客行為、富有偏見的告密都是網(wǎng)絡(luò)信息倫理普遍難以接受的方式?!熬S基解密”的信息倫理問題
“維基解密”事件發(fā)生之前,美國政府針對信息安全保護已經(jīng)制定了一系列信息政策,例如:《關(guān)于保護國家信息基礎(chǔ)設(shè)施的第63號總統(tǒng)令》(1998年)《信息系統(tǒng)保護國家計劃》(2000年)《網(wǎng)絡(luò)空間安全計劃》(2003年)《保護關(guān)鍵基礎(chǔ)設(shè)施和關(guān)鍵資產(chǎn)國家戰(zhàn)略》(2003年)3.2信息倫理2024/2/1221“維基解密”分析“維基解密”相關(guān)的信息政策
“維基解密”事件所表現(xiàn)的主要是政府信息安全和公民信息自由之間的博弈。在這兩個方面都有相關(guān)的美國法律法規(guī),如:《信息自由法(1966、1996)》《陽光政府法(1976)》《總統(tǒng)檔案法(1978)》等是為了保障公民獲取政府信息的自由。其中尤以《信息自由法》影響最為深遠(yuǎn),它在保障公民個人信息自由的同時,也對國家的信息安全予以保障,通過豁免條款將需要保護的信息加以列舉。《愛國者法案(2001)》為防止恐怖主義,擴張了美國警察機關(guān)的權(quán)限。警察機關(guān)有權(quán)搜索電話、電子郵件通信、醫(yī)療、財務(wù)和其他種類的記錄?!堵?lián)邦信息安全管理法案(2002)》則要在整個政府范疇內(nèi)為有關(guān)的信息安全風(fēng)險提供有效的管理和監(jiān)督。《反間諜法(1917)》《計算機安全法案(1987)》《電子政務(wù)法(2002)》都涉及國家信息安全問題?!熬S基解密”相關(guān)的信息法律
由于上述法律適用性局限,最終以強奸罪而非信息安全罪對“維基解密”創(chuàng)始人阿桑奇提出指控,而對“維基解密”網(wǎng)站則采取了經(jīng)濟封殺。這表明當(dāng)時美國的信息法律在協(xié)調(diào)政府信息安全與公民信息自由之間的矛盾方面仍存在欠缺。美國政府和軍方曾試圖援引《反間諜法》起訴“維基解密”,并通過國務(wù)院網(wǎng)絡(luò)安保措施加強對白宮數(shù)據(jù)庫的控制,以避免造成更多的損失。美國國會計劃通過立法使政府敏感部門的員工有渠道報告腐敗、浪費和管理失誤的問題,而不必尋求“維基解密”等外部網(wǎng)站的幫助。維基解密也沒有觸犯言論自由的法律底線。面對發(fā)生的泄密事件,信息法律顯得相對滯后,沒有任何法律能夠預(yù)見到一種新興傳媒組織可以對政府信息安全造成如此嚴(yán)重的威脅。對于此類沖突,僅僅依靠義務(wù)原則或美德原則是遠(yuǎn)遠(yuǎn)不夠的,需要依據(jù)功利主義的結(jié)果原則來判斷什么樣的對策更有利于絕大多數(shù)人乃至全人類的長遠(yuǎn)福祉。美國政府出于維護自身信息安全的考慮,制定了臨時信息政策,包括對政府?dāng)?shù)據(jù)庫進行安全維護、起草相關(guān)法律等措施,體現(xiàn)出信息政策的靈活性和針對性。從“維基解密”事件也可以清晰地看到三者之間的異同和互補關(guān)系,它們共同構(gòu)建、調(diào)節(jié)和維護信息社會的秩序,以實現(xiàn)信息社會的價值目標(biāo)。信息倫理、信息政策與信息法律具有相同的價值追求。因此,三者在作用時間、作用范圍、作用人群、作用強度等方面相互補充,共同發(fā)揮作用。3.2信息倫理2024/2/1222“維基解密”分析“維基解密”事件發(fā)生之后,人們爭論的焦點在于政府信息安全保護和公民信息自由各自的底線和邊界究竟在哪里,如何確保在合理的范圍內(nèi)解決兩者之間的沖突。目錄數(shù)據(jù)倫理計算機倫理人工智能倫理12345網(wǎng)絡(luò)倫理信息倫理機器人倫理6發(fā)展歷程主要問題基本原則發(fā)展歷程主要問題信息法律發(fā)展歷程主要問題2024/2/12233.3網(wǎng)絡(luò)倫理發(fā)展歷程2024/2/1224網(wǎng)絡(luò)倫理學(xué),又稱計算機網(wǎng)絡(luò)倫理學(xué),是計算機信息網(wǎng)絡(luò)專門領(lǐng)域調(diào)節(jié)人與人、人與社會特殊利益關(guān)系的道德價值觀念和行為規(guī)范。20世紀(jì)90年代,網(wǎng)絡(luò)技術(shù)促使世界各地計算機用戶相互連接,加快了信息的傳播和獲取速度。不僅僅遇到傳統(tǒng)計算機倫理問題,還出現(xiàn)了新的倫理問題,計算機倫理學(xué)的外延得到進一步拓展。1996年,英國學(xué)者羅格森和貝奈姆的《信息倫理學(xué):第二代》指出,第一代計算機倫理學(xué)存在研究范圍有限、深度不夠和應(yīng)用領(lǐng)域狹窄等問題。高尼亞科倡導(dǎo)建立有力的信息倫理理論來為網(wǎng)絡(luò)社會提供指南和決策。為了更加全面、深入地研究和解決信息網(wǎng)絡(luò)技術(shù)和信息網(wǎng)絡(luò)系統(tǒng)相關(guān)的倫理問題,學(xué)術(shù)界將計算機倫理學(xué)的研究范圍向外拓展到互聯(lián)網(wǎng),進入計算機倫理學(xué)的第二個階段,為了凸顯網(wǎng)絡(luò)信息這一專門領(lǐng)域的特點,一些學(xué)者將該階段稱為網(wǎng)絡(luò)倫理階段,稱為網(wǎng)絡(luò)倫理學(xué)。網(wǎng)絡(luò)倫理vs信息倫理vs計算機倫理信息倫理學(xué)計算機倫理學(xué)網(wǎng)絡(luò)倫理學(xué)從研究的視野、范圍和問題域角度:計算機倫理學(xué)與網(wǎng)絡(luò)倫理學(xué)的研究范圍既有相似和重合的地方,又有不同之處。信息倫理學(xué)的研究范圍最廣,試圖概括計算機倫理學(xué)和網(wǎng)絡(luò)倫理學(xué)涉及的所有倫理問題,以形成一種信息領(lǐng)域的普適倫理學(xué)。案例1:網(wǎng)絡(luò)謠言之食鹽搶購風(fēng)波
2011年3月11日,日本東海岸發(fā)生9.0級地震,地震造成日本福島第一核電站1-4號機組發(fā)生核泄漏事故。這起嚴(yán)重的核事故竟然在中國引起了一場搶鹽風(fēng)波。從3月16日開始,部分地區(qū)開始瘋狂搶購食鹽,許多地區(qū)的食鹽在一天之內(nèi)被搶光。3月21日,杭州市公安局西湖分局發(fā)布消息稱,已查到“謠鹽”信息源頭,并對始作俑者“漁翁”作出行政拘留10天,罰款500元的處罰。案例2:”人肉搜索”第一案2007年12月29日,姜某因其丈夫王某感情原因跳樓身亡。自殺前在博客中記載了自殺前兩個月的心路歷程。2008年1月,大旗網(wǎng)、天涯社區(qū)等網(wǎng)站披露了含王某私人信息的博客內(nèi)容。2008年3月18日,王某將相關(guān)網(wǎng)站起訴至法院。2009年12月23日,北京二中院作出終審宣判:公民依法享有名譽權(quán),公民人格尊嚴(yán)受法律保護。對王某批評和譴責(zé)應(yīng)在法律允許的范圍內(nèi)進行,披露、宣揚其隱私,構(gòu)成對隱私權(quán)和名譽權(quán)的侵犯。責(zé)令相關(guān)網(wǎng)站刪除文章及照片、刊登道歉函、進行賠償。案例3:熱播劇《掃黑風(fēng)暴》反盜版2021年8月9日,根據(jù)真實案例改變的電視連續(xù)劇《掃黑風(fēng)暴》在北京衛(wèi)視等視頻媒體播出,播出后影響強烈,收視率和網(wǎng)播量飆升。但播出內(nèi)容尚未過半,網(wǎng)上便流出《掃黑風(fēng)暴》全集資源,以1元左右價格售賣。8月21日上午,該劇官方微博發(fā)布反盜版聲明,指出互聯(lián)網(wǎng)上有人未經(jīng)許可非法傳播、銷售該劇的盜版內(nèi)容,并已經(jīng)第一時間向公安機關(guān)報案,追查盜版來源。最高人民檢察院提醒:在互聯(lián)網(wǎng)上非法傳播、銷售《掃黑風(fēng)暴》的盜版內(nèi)容,侵犯了出品方以及播出平臺的合法權(quán)益,涉嫌構(gòu)成刑事犯罪。3.3網(wǎng)絡(luò)倫理2024/2/1225主要問題①具體問題:在網(wǎng)絡(luò)使用過程中遇到的現(xiàn)實問題,包括網(wǎng)絡(luò)行為的具體規(guī)范、網(wǎng)絡(luò)行為具體性質(zhì)的界定和網(wǎng)絡(luò)具體問題的研究。②交叉問題:網(wǎng)絡(luò)與社會其他現(xiàn)象相關(guān)聯(lián)而出現(xiàn)的問題,這些問題不僅影響網(wǎng)絡(luò)本身的運作和操作問題,而且影響到社會生活的方方面面,如,社會分層、民主體制、數(shù)字鴻溝、文化及意識形態(tài)沖突等。目錄數(shù)據(jù)倫理計算機倫理人工智能倫理12345網(wǎng)絡(luò)倫理信息倫理機器人倫理6發(fā)展歷程主要問題基本原則發(fā)展歷程主要問題信息法律發(fā)展歷程主要問題發(fā)展歷程主要問題基本原則治理對策2024/2/12263.4數(shù)據(jù)倫理發(fā)展歷程大數(shù)據(jù)(bigdata)是,“由科學(xué)儀器、感應(yīng)設(shè)備、電子郵件、多媒體軟件、網(wǎng)絡(luò)點擊流和移動互聯(lián)交易等多種數(shù)據(jù)源生成的大規(guī)模、多元化、長期的和復(fù)雜的分布式數(shù)據(jù)集”。大數(shù)據(jù)是相對于一般數(shù)據(jù)而言的,大數(shù)據(jù)的基本特征可以歸納為4個“V”。第一,大量化(volumebig),即數(shù)據(jù)規(guī)模龐大。大數(shù)據(jù)是大型數(shù)據(jù)集,不再像之前TB級別的數(shù)據(jù)那么簡單,而是PB甚至是EB級別的數(shù)據(jù),其容量和規(guī)模遠(yuǎn)遠(yuǎn)超過傳統(tǒng)數(shù)據(jù)。第二,多樣化(varietytype),即數(shù)據(jù)類型繁多。大數(shù)據(jù)所包含的數(shù)據(jù)類型多種多樣,既有不同的媒體形態(tài),也有不同的編碼結(jié)構(gòu)。除了結(jié)構(gòu)化編碼數(shù)據(jù)之外,還包括圖片、視頻、報表和XML、HTML等半結(jié)構(gòu)化或非結(jié)構(gòu)化數(shù)據(jù)。第三,快速化(velocityfast),即處理速度快。大數(shù)據(jù)時代,數(shù)據(jù)生成無時不刻,其規(guī)模正在以指數(shù)級速度增長,對于數(shù)據(jù)的分析和處理也需要快速,這樣才能滿足實時性的需求。因此,即時處理己是大數(shù)據(jù)時代的趨勢之一。第四,價值化(value),即價值密度較低,數(shù)據(jù)總量與其產(chǎn)生的價值密度呈反比例函數(shù)。大數(shù)據(jù)本身的價值密度相對較低,需要不斷從海量數(shù)據(jù)中挖掘分析真正有用的信息才能真正實現(xiàn)“用戶價值”。2007年,計算機圖靈獎獲得者吉姆·格雷在演講中提出,數(shù)據(jù)密集型科學(xué)正在從計算科學(xué)中分離出來,成為科學(xué)研究的“第四范式”。他指出,像理論科學(xué)、實驗科學(xué)和計算科學(xué)一樣,以數(shù)據(jù)為中心,以協(xié)同進化、數(shù)據(jù)驅(qū)動和網(wǎng)絡(luò)化成長為主要特征的數(shù)據(jù)密集型科學(xué)必將深刻影響人們的思維模式和科學(xué)研究方式。1980年,美國未來學(xué)家阿爾文·托夫勒在《第三次浪潮》一書中指出,“如果說IBM主機拉開了信息化革命的大幕,那么‘大數(shù)據(jù)’則是第三次浪潮的精彩華章”。2024/2/1227發(fā)展歷程3.4數(shù)據(jù)倫理2024/2/1228(大)數(shù)據(jù)倫理(bigdataethics),是大型數(shù)據(jù)采集、開發(fā)、利用和保護的道德規(guī)范。2012年9月,美國學(xué)者戴維斯和帕特森出版的《大數(shù)據(jù)倫理學(xué)》詳細(xì)討論了大數(shù)據(jù)技術(shù)的興起,人類將面臨的倫理挑戰(zhàn)。同年,庫克耶在其著作《大數(shù)據(jù)時代》中將大數(shù)據(jù)倫理界定為新的隱私問題、數(shù)據(jù)安全問題、虛假數(shù)據(jù)問題。2016年11月、2021年6月和2021年8月,我國分別頒布了:《網(wǎng)絡(luò)安全法》《數(shù)據(jù)安全法》《個人信息保護法》2018年5月,歐盟頒布《通用數(shù)據(jù)保護條例》(GDPR)。2018年6月,英國頒布了《數(shù)據(jù)倫理框架》,對數(shù)據(jù)倫理的七條原則進行了界定。主要問題3.4數(shù)據(jù)倫理2024/2/1229數(shù)據(jù)隱私問題
數(shù)據(jù)信息蘊含的潛在價值得到空前的開發(fā)和利用,數(shù)據(jù)隱私問題更加突出。數(shù)據(jù)獨裁問題
人們的決策逐漸完全依賴于數(shù)據(jù)的預(yù)測,使人們徹底走向唯數(shù)據(jù)主義。數(shù)字身份問題一組獨一無二地描述一個人的數(shù)據(jù),是有關(guān)一個人在數(shù)字上可獲取信息的總和。數(shù)據(jù)權(quán)利問題
個人或組織對數(shù)據(jù)所擁有的占有權(quán)、使用權(quán)、支配權(quán)、知情權(quán)等。數(shù)字鴻溝問題
數(shù)字鴻溝也稱為信息鴻溝,不同地域和不同的群體對社會信息資源占有、使用、收益、分配過程中的地位、權(quán)利和機會存在顯著差距。“盡管大數(shù)據(jù)的力量是那么耀眼,但我們必須避免被它的光芒誘惑,并善于發(fā)現(xiàn)它固有的瑕疵”?!S克托·舍恩伯格(大)數(shù)據(jù)倫理vs網(wǎng)絡(luò)倫理vs信息倫理vs計算機倫理現(xiàn)代信息技術(shù)是信息倫理學(xué)演進的邏輯依據(jù):20世紀(jì)70年代,因計算機技術(shù)引發(fā)的倫理問題,產(chǎn)生了計算機倫理學(xué)。20世紀(jì)90年代,信息技術(shù)拓展到互聯(lián)網(wǎng)領(lǐng)域,與信息相關(guān)的倫理研究發(fā)展為網(wǎng)絡(luò)倫理學(xué)。進入21世紀(jì),大數(shù)據(jù)作為信息化發(fā)展的高級階段,引發(fā)新的倫理問題,逐步形成了新的道德價值和道德規(guī)范,即(大)數(shù)據(jù)倫理學(xué)。信息技術(shù)的推進和信息化程度的加深,促使信息倫理學(xué)的研究范圍不斷拓展,超出了傳統(tǒng)計算機倫理與網(wǎng)絡(luò)倫理的邊界。信息倫理經(jīng)歷計算機倫理、網(wǎng)絡(luò)倫理到大數(shù)據(jù)時代信息倫理(數(shù)據(jù)倫理)的歷史演變,逐步形成了具有整體視野和普遍意義的信息倫理學(xué)。信息倫理計算機倫理網(wǎng)絡(luò)倫理數(shù)據(jù)倫理目錄數(shù)據(jù)倫理計算機倫理人工智能倫理12345網(wǎng)絡(luò)倫理信息倫理機器人倫理6發(fā)展歷程主要問題基本原則發(fā)展歷程主要問題信息法律發(fā)展歷程主要問題發(fā)展歷程主要問題基本原則治理對策發(fā)展歷程主要問題基本原則2024/2/12303.5機器人倫理2024/2/1231發(fā)展歷程機器人倫理學(xué)(robotethics,roboethics)是以人類為中心,關(guān)于機器人建造和使用的倫理學(xué)。機器倫理(Machineethics)是如何確保使用人工智能的人工機器或人工智能體(ArtificialMoralAgents)具有道德的行為,是人工道德智能體、機器或人工智能計算機行為的道德規(guī)范或倫理準(zhǔn)則。機器倫理學(xué)主要關(guān)注“機器如何對人類表現(xiàn)出符合倫理道德的行為”;機器人倫理學(xué)主要關(guān)注“人類如何在設(shè)計和使用操作階段與這些機器進行聯(lián)系交互”。機器人倫理學(xué)屬于“以人為中心”的倫理學(xué),責(zé)任主體是人,主要研究設(shè)計者在機器人設(shè)計、使用中的倫理規(guī)范以及把人類道德規(guī)范嵌入到機器人系統(tǒng)等問題;機器倫理學(xué)是機器具有了人類智能后應(yīng)該遵循的倫理規(guī)范,機器倫理學(xué)是“以機器為中心”的倫理學(xué),責(zé)任主體是機器。英國作家巴特勒在1863年就開始考慮機器成為人類繼任者的可能性。對機器的倫理方面(即利用倫理原則對機器行為進行規(guī)約和引導(dǎo))做了深刻的考察。1936年,捷克著名科幻劇作家恰佩克在喜劇《羅素姆的萬能機器人》首次使用“Robota(機器人)”,后來演化為“robot”。該詞原意是“勞動”或“奴役”,為倫理道德引入提供了對象載體。1942年,阿西莫夫的短篇小說《轉(zhuǎn)圈圈》首次明確闡述了著名的“機器人三定律”。20世紀(jì)50年代后期,恩格爾伯格(JosephF.Engelberger)研制出第一臺工業(yè)機器人。20世紀(jì)60年代,機器人進入了全面發(fā)展時期,隨著人工智能的應(yīng)用,機器越來越像人,甚至超過了人類的能力。如何設(shè)計與對待機器人也進入學(xué)者視野,機器人倫理學(xué)因此而誕生。3.5機器人倫理2024/2/1232發(fā)展歷程1987年,沃爾德羅普在論文“AQuestionofResponsi-bility”中正式提出機器倫理這一術(shù)語,并指出“智能機器將包含價值、假設(shè)和目的,不管它們的程序員是否有意這樣做。我們必須仔細(xì)而明確地思考這些內(nèi)在價值是什么,也許我們需要的是一套符合阿西莫夫機器人三定律的機器倫理理論和實踐。”1992年,英屬哥倫比亞大學(xué)的應(yīng)用倫理學(xué)教授彼特
丹尼爾森(PeterDanielson)出版了《技術(shù)人工物道德:善良機器人的美德游戲》一書,他第一次在倫理設(shè)計框架內(nèi)對使用計算機技術(shù)進行構(gòu)造道德推理模型進行了嘗試性探索,這相對于以往幾乎空白的研究來說具有前瞻性和開創(chuàng)性,從現(xiàn)在觀點看,他對機器人倫理思想的探索仍然很具深度??梢哉f,丹尼爾森的研究工作代表了當(dāng)時機器人倫理領(lǐng)域的最高成就。2002年在意大利召開的
“國際機器人倫理學(xué)研討會”上,首次使用了“機器人倫理學(xué)”(roboethics),并提出把“機器人倫理學(xué)”細(xì)化為兩個應(yīng)用分支學(xué)科:“機器倫理學(xué)”和“機器人倫理學(xué)”。2007年4月14日,IEEE-RAS(RoboticsandAutomationSociety)技術(shù)委員會在意大利的羅馬大學(xué)召開了ICRA(IEEEInternationalConferenceonRoboticsandAutomation)的機器人倫理學(xué)研討會,擬定并頒布了《歐洲機器人倫理學(xué)路線圖》(TheEURONRoboethicsRoadmap),為機器人倫理學(xué)研究開發(fā)提供了參考文本。發(fā)展歷程美國佐治亞理工學(xué)院羅伯特
阿爾金(RonaldArkin)教授于2009年3月,出版了《自治機器人致命行為的管理》,他認(rèn)為,“機器人倫理學(xué)的核心問題是責(zé)任主體限定,機器人是作為人類社會的奴仆和服務(wù)者角色而存在的”
。3.5機器人倫理2024/2/12332009年,耶魯大學(xué)溫德爾
瓦拉赫(Wendellwallach)和科林
艾倫(ColinAllen)合著出版《機器倫理:教機器人區(qū)分善惡》,對狹義機器人以及廣義人工道德行為體等進行了探討。如,人工道德行為體能否獲得合法道德行為體資格;自治(主)系統(tǒng)是否能夠“真正地”滿足和具備自治行為的需要等
。2011年,美國加州理工學(xué)院帕特里克
林(PatrickLin)領(lǐng)銜,聯(lián)合同事基思
阿布尼(KeithAbney),以及南加州大學(xué)計算機科學(xué)教授喬治
拜柯(GeorgeA.Bekey)三人出版了首部《機器人倫理學(xué)》(RobotEthics)學(xué)術(shù)專著,提出了“機器人倫理學(xué)(Roboethics)作為應(yīng)用倫理學(xué)的新學(xué)科”的論斷。該書對機器人倫理問題進行了系統(tǒng)、全面的探討。諸如,軍用機器人應(yīng)用到戰(zhàn)爭中的法律和政策問題;在“人-機情感交互”實踐中,作為護工、伴侶角色的機器人應(yīng)當(dāng)遵守哪些倫理規(guī)范;具有賽博格(生物-計算機混合體)形態(tài)的機器應(yīng)享有和肩負(fù)何種權(quán)利和道德責(zé)任。發(fā)展歷程2011年,美國哈特福德大學(xué)計算機科學(xué)教授邁克爾
安德森(MichaelAnderson)與康涅狄格大學(xué)的哲學(xué)教授蘇珊
利
安德森(SusanLeighAnderson)合作主編出版了《機器倫理》(MachineEthics),該書介紹了機器人倫理學(xué)領(lǐng)域的研究綱領(lǐng)和最新進展?fàn)顩r,并入選了沃茲沃思哲學(xué)家系列(WadsworthPhilosophersSeries))。3.5機器人倫理2024/2/12342015年,尼克·博斯特羅姆出版《超級智能:路徑、危險、策略》一書,該書中指出,機器倫理是人類迄今為止面臨的最重大的問題,該書列《紐約時報》最暢銷科學(xué)書籍排行榜第17位。雅典國立技術(shù)大學(xué)的施皮羅斯
尼亞費斯塔(SpyrosG.Tzafestas)教授于2016年率先出版了國際上第一本通識教材《機器人倫理學(xué):學(xué)科導(dǎo)論》對“機器人倫理學(xué)”的基本概念、研究對象、基本倫理原則、主要倫理問題以及研究方法等作了介紹。2017年的利雅得未來投資峰會,機器人索菲亞被授予沙特阿拉伯國籍(來第一個擁有國籍的機器人)。引起了爭議,如,索菲亞是否可以投票或結(jié)婚?故意關(guān)閉系統(tǒng)是否視為謀殺等。發(fā)展歷程聯(lián)合國教育、科學(xué)及文化組織的下設(shè)委員會(theWorldCommissionontheEthicsofScientificKnowledgeandTechnologyofUNESCO,簡稱COMEST)歷時兩年完成并于2017年9月發(fā)布了《機器人倫理報告》(ReportofCOMESTonroboticsethics),建議制定國家和國際層面的倫理準(zhǔn)則。從學(xué)術(shù)價值的角度看,機器人倫理開拓了科技倫理研究的新領(lǐng)域,對于加深與變革包括人、生命、智能與機器等基本哲學(xué)概念的理解與認(rèn)識具有重要意義。從實踐意義的角度看,對于社會大眾來說,機器人倫理研究有助于建構(gòu)起人類與機器人互動的道德觀念與道德規(guī)范,實現(xiàn)人與機器人的和諧相處。對機器人技術(shù)的研發(fā)人員來說,機器人倫理設(shè)計原則與方法的研究成果,可以為其提供技術(shù)研發(fā)的倫理依據(jù)與理論支撐;而且,機器人倫理研究也有助于加強科技人員的道德責(zé)任感,培養(yǎng)科技人員的道德想象力與實踐能力。對科技管理人員來說,機器人倫理研究成果可以為機器人產(chǎn)業(yè)政策的制定提供理論參考?!皺C器人在可預(yù)見的未來將面臨人類道德的拷問,也面臨擔(dān)負(fù)著人類道德和法律的責(zé)任”?!皶伎嫉臋C器人擁有人工智能,使它們可以復(fù)制自身,而不加控制的自我復(fù)制是這些新技術(shù)的危險之一”。人類作為社會的締造者和主導(dǎo)者,對其擔(dān)負(fù)著不可逃脫的重要責(zé)任。人類必須正視機器人的倫理問題和社會影響,通過哲學(xué)、心理學(xué)、法律和其他專業(yè)領(lǐng)域的智力支持和理論支撐,以一種跨學(xué)科多領(lǐng)域的復(fù)合知識系統(tǒng)指導(dǎo)設(shè)計,構(gòu)建“善”的機器人。3.5機器人倫理2024/2/1235智能機器人已從科幻文學(xué)作品走進現(xiàn)實生活,開始逐漸成為人們所熟知的事物。正如計算機對人類生活世界沖擊一樣,智能機器人對人類社會產(chǎn)生著深遠(yuǎn)影響。主要問題3.5機器人倫理2024/2/1236機器人權(quán)利問題。什么樣的機器人可以擁有權(quán)利?可以擁有哪些權(quán)利?機器人為何可以擁有權(quán)利?機器人的權(quán)利與人的權(quán)利、動物權(quán)利有哪些異同?如何賦予、保護、限制甚至剝奪機器人的權(quán)利?人與機器人關(guān)系。如何看待人與機器人的差異?應(yīng)該如何對待機器人?如何建立某些機制來避免人類對機器人的過度依賴?在許多方面已經(jīng)超過自己的機器人面前,人類如何保持自身主體性地位?機器人法律問題。在解決機器人倫理問題中,道德與法律手段的應(yīng)用范圍與限度如何界定?哪些機器人倫理相關(guān)問題需要通過法律手段來解決?軍用機器人看護機器人服務(wù)機器人情侶機器人領(lǐng)域機器人倫理問題機器人倫理的普遍性問題不同領(lǐng)域機器人倫理問題軍用機器人在戰(zhàn)場上出現(xiàn)了錯誤,將由誰承擔(dān)責(zé)任?如何保證軍用機器人在戰(zhàn)場上不會濫殺無辜?如何限制軍用機器人的使用范圍?已婚人士可否擁有情侶機器人?情侶機器人是否破壞婚姻倫理的忠誠原則?不同的人是否可以共享、出借與交換情侶機器人?是否可對同性戀者提供情侶機器人?把孩子交給機器人看護,會產(chǎn)生哪些負(fù)面效應(yīng)?人類對助老機器人的依賴是否會沖淡人類的親情?如何保證兒童看護與助老機器人的安全性問題?服務(wù)機器人如何與人類產(chǎn)生情感聯(lián)系?性別、年齡、職業(yè)、受教育程度等是否會影響人與機器人之間的情感聯(lián)系?3.5機器人倫理2024/2/1237機器(人)倫理vs(大)數(shù)據(jù)倫理vs網(wǎng)絡(luò)倫理vs信息倫理vs計算機倫理信息倫理計算機倫理網(wǎng)絡(luò)倫理數(shù)據(jù)倫理機器人倫理機器人倫理學(xué)和機器倫理學(xué)兩者的重疊程度在一定意義上將取決于“機器人”如何被定義:如果“機器人”被給予寬泛的定義,即包括虛擬機和固定物理實體系統(tǒng)的話,那么,這兩者將有很大部分的重疊;如果我們對“機器人”進行嚴(yán)格狹義地定義,排除虛擬機和固定物理實體系統(tǒng)的話,那么“機器倫理學(xué)”的主題將比“機器人倫理學(xué)”更寬泛。從學(xué)術(shù)價值角度看,機器人倫理開拓了科技倫理研究新領(lǐng)域,并且對于我們加深與變革包括人、生命、智能與機器等基本哲學(xué)概念的理解與認(rèn)識具有重要意義。從實踐意義角度看,對于社會大眾來說,機器人倫理研究有助于建構(gòu)起人類與機器人互動的道德觀念與道德規(guī)范,實現(xiàn)人與機器人的和諧相處;對機器人技術(shù)的研發(fā)人員來說,機器人倫理設(shè)計原則與方法的研究成果,可以為其提供技術(shù)研發(fā)的倫理依據(jù)與理論支撐,而且也有助于加強科技人員的道德責(zé)任感、道德想象力與實踐能力;對科技管理人員來說,機器人倫理研究成果可以為機器人產(chǎn)業(yè)政策的制定提供理論參考。目錄數(shù)據(jù)倫理計算機倫理人工智能倫理12345網(wǎng)絡(luò)倫理信息倫理機器人倫理6發(fā)展歷程主要問題基本原則發(fā)展歷程主要問題信息法律發(fā)展歷程主要問題發(fā)展歷程主要問題基本原則治理對策發(fā)展歷程主要問題基本原則發(fā)展歷程主要問題治理措施2024/2/1238發(fā)展歷程3.6人工智能倫理2024/2/1239人工智能倫理淵源時間脈絡(luò)圖機器倫理機器人倫理計算機倫理信息倫理網(wǎng)絡(luò)倫理數(shù)據(jù)倫理人工智能倫理1948年1936年1863年1996年2012年2016年1985年發(fā)展歷程3.6人工智能倫理2024/2/1240人工智能倫理學(xué)(Ethicsofartificialintelligence)是針對人工智能系統(tǒng)的應(yīng)用倫理學(xué)的一個分支。人工智能倫理是人類設(shè)計、制造、使用和對待人工智能系統(tǒng)的道德,機器倫理中的機器行為,以及超級人工智能的奇點問題。2016年,阿爾法狗贏得人機圍棋大戰(zhàn)為標(biāo)志,人工智能倫理由此成為世界各國政府、組織機構(gòu)以及大型科技企業(yè)的人工智能政策的核心內(nèi)容之一。學(xué)者們也對人工智能倫理及相關(guān)問題開著了積極廣泛的研究和探討。2016年,IEEE標(biāo)準(zhǔn)協(xié)會啟動了——倫理自主系統(tǒng)設(shè)計的全球行動倡議,旨在從實際需求出發(fā)建立社會公認(rèn)的人工智能倫理標(biāo)準(zhǔn)、職業(yè)認(rèn)證及道德規(guī)范。其發(fā)布的“人工智能設(shè)計的倫理準(zhǔn)則”白皮書目前已迭代到第二版。2016年,博諾佛等在《Science》發(fā)文“TheSocialDilemmaofAutonomousVehicles”,對自動駕駛汽車的社會困境進行了討論,指出定義有助于自動駕駛汽車作出道德決策的算法是一項艱巨的挑戰(zhàn)。2017年,伯德丁頓出版了首部AI倫理著作《TowardsaCodeofEthicsforArtificialIntelligence》,闡述了如何借鑒其他領(lǐng)域的經(jīng)驗教訓(xùn)制定人工智能倫理規(guī)范或其他法規(guī),并介紹了人工智能職業(yè)道德的特點。發(fā)展歷程2017年1月初舉行的“BeneficialAI”會議,在此基礎(chǔ)上建立起來的“阿西洛馬人工智能原則”,名稱來自此次會議的地點——美國加州的阿西洛馬市,旨在確保AI為人類利益服務(wù)。阿西洛馬人工智能原則的第6至18條,指出了人工智能的倫理和價值。牛津大學(xué)、劍橋大學(xué)和OpenAI公司等7家機構(gòu)于2018年共同發(fā)布《人工智能的惡意使用:預(yù)測、預(yù)防和緩解》,分析了人工智能可能帶來的安全威脅并提出應(yīng)對建議。微軟、谷歌、IBM等科技企業(yè)制定了人工智能開發(fā)的倫理原則,F(xiàn)acebook在2019年初在慕尼黑工業(yè)大學(xué)建立了AI倫理研究所。3.6人工智能倫理2024/2/12412018年1月,微軟發(fā)布了《未來計算》(TheFutureComputed)一書,其中提出了開發(fā)人工智能的六大原則:公平、可靠和安全、隱私和保障、包容、透明、責(zé)任。2018年3月,歐洲科學(xué)與新技術(shù)倫理組織(EuropeanGrouponEthicsinScienceandNewTechnologies)發(fā)布《關(guān)于人工智能、機器人及“自主”系統(tǒng)的聲明》(StatementonArtificialIntelligence,Roboticsand‘Autonomous’Systems),呼吁為人工智能、機器人和“自主”系統(tǒng)的設(shè)計、生產(chǎn)、使用和治理制定共同的、國際公認(rèn)的道德和法律框架。發(fā)展歷程2019年2月,中國國家新一代人工智能治理專業(yè)委員會成立,并發(fā)布《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》。同年4月,國家人工智能標(biāo)準(zhǔn)化總體組發(fā)布了《人工智能倫理風(fēng)險分析報告》。3.6人工智能倫理2024/2/1242中國政府高度重視人工智能產(chǎn)業(yè)發(fā)展中的倫理問題。2017年7月國務(wù)院發(fā)布的《新一代人工智能發(fā)展規(guī)劃》,要求“制定促進人工智能發(fā)展的法律法規(guī)和倫理規(guī)范;開展人工智能行為科學(xué)和倫理等問題研究;制定人工智能產(chǎn)品研發(fā)設(shè)計人員的道德規(guī)范和行為守則”。在該戰(zhàn)略文件中,倫理一詞出現(xiàn)15次之多,足見我國對人工智能倫理的高度重視。2018年1月18日,在國家人工智能標(biāo)準(zhǔn)化總體組的成立大會上,《人工智能標(biāo)準(zhǔn)化白皮書2018》正式發(fā)布。白皮書論述了人工智能的安全、倫理和隱私問題,認(rèn)為設(shè)定人工智能技術(shù)的倫理要求,要依托于社會和公眾對人工智能倫理的深入思考和廣泛共識,并遵循一些共識原則。2017年11月,騰訊研究院與中國信通院互聯(lián)網(wǎng)法律研究中心、騰訊AI實驗室、騰訊開放平臺一起出版了《人工智能:國家人工智能戰(zhàn)略行動抓手》一書,書中戰(zhàn)略篇、法律篇、倫理篇以及治理篇著重討論人工智能的社會和倫理影響,呼吁為人工智能的發(fā)展和應(yīng)用制定共同的倫理框架。發(fā)展歷程3.6人工智能倫理2024/2/12432019年4月歐盟委員會發(fā)布《可信賴AI的倫理指導(dǎo)原則》。弗吉尼亞
迪格南在2018年3月的《倫理學(xué)與信息技術(shù)》雜志上發(fā)文指出,人工智能倫理具有如下三個目標(biāo):①設(shè)計倫理(Ethics
by
Design),倫理推理能力的技術(shù)/算法集成,作為人工自主系統(tǒng)行為的一部分;②設(shè)計中的倫理(Ethics
in
Design),當(dāng)人工智能系統(tǒng)整合或取代傳統(tǒng)社會結(jié)構(gòu)時,支持分析和評估其倫理影響的監(jiān)管和工程方法;③為了設(shè)計的倫理(Ethics
for
design),確保開發(fā)人員和用戶在研究、設(shè)計、建造、使用和管理人工智能系統(tǒng)時完整性的行為規(guī)范、標(biāo)準(zhǔn)和認(rèn)證過程。2021年11月,聯(lián)合國教科文組織通過首個全球性的AI倫理協(xié)議《人工智能倫理建議書》。2019年6月,美國發(fā)布《國家人工智能研究和發(fā)展戰(zhàn)略規(guī)劃》提出“理解人工智能的倫理、法律和社會影響,開發(fā)用于設(shè)計與倫理、法律和社會目標(biāo)一致的人工智能研發(fā)方法?!卑l(fā)展歷程2020年至今,學(xué)者們陸續(xù)出版了一些人工智能倫理方面的學(xué)術(shù)著作和教材:在國外,馬克
柯克伯格的《人工智能倫理》(AIEthics)(2020年),馬庫斯德克·杜伯、佛蘭科
帕斯奎爾和蘇尼特
丹斯的《牛津人工智能倫理手冊》(TheOxfordhandbookofethicsofAI)(2020年),馬修·廖的《人工智能倫理》(Ethicsofartificialintelligence)(2020年),克里斯托夫
巴特內(nèi)克、克里斯托夫
路特德、阿蘭
瓦格納和肖恩
沃爾什的《機器人和人工智能倫理導(dǎo)論》(AnIntroductiontoEthicsinRoboticsandAI)(2021年)。3.6人工智能倫理2024/2/1244在國內(nèi),郭銳出版了《人工智能的倫理和治理》(2020年8月)、杜嚴(yán)勇出版了《人工智能倫理引論》(2020年6月)、陳小平出版了《人工智能倫理導(dǎo)引》(2021年2月)、古天龍出版了《人工智能倫理導(dǎo)論》(2022年8月)。3.6人工智能倫理2024/2/1245機器人通常被認(rèn)為是人工智能系統(tǒng)的載體,機器人是人工智能的承載者。不是所有的機器人都通過人工智能系統(tǒng)發(fā)揮作用,也不是所有的人工智能系統(tǒng)都是機器人。人工智能倫理與機器人倫理相互交叉。機器學(xué)習(xí)是人工智能的核心技術(shù),機器學(xué)習(xí)被譽為“算法+算力+數(shù)據(jù)”。由此,人工智能倫理與數(shù)據(jù)倫理、網(wǎng)絡(luò)倫理、計算機倫理、信息倫理具有密切的關(guān)系。人工智能倫理源于計算機倫理、網(wǎng)絡(luò)倫理、信息倫理、數(shù)據(jù)倫理和機器人倫理。從計算機倫理、信息倫理、網(wǎng)絡(luò)倫理、數(shù)據(jù)倫理、機器人倫理到人工智能倫理,有其發(fā)展的繼承性,有很多相似之處,但也有不同。AI倫理vs機器(人)倫理vs(大)數(shù)據(jù)倫理vs網(wǎng)絡(luò)倫理vs信息倫理vs計算機倫理主要問題人工智能的主要倫理問題包括:隱私泄露偏見歧視技術(shù)濫用責(zé)任歸屬技術(shù)層面主要包括算法及系統(tǒng)的安全問題、可解釋性問題、算法歧視問題和算法決策問題。算法及系統(tǒng)的安全問題,主要是指算法或系統(tǒng)的漏洞被攻擊和惡意利用的情形;可解釋性問題,則主要關(guān)注人類的知情利益和主體地位;算法歧視問題,來自算法研究人員的認(rèn)知偏見或者訓(xùn)練數(shù)據(jù)集不完美導(dǎo)致的歧視性的決策結(jié)果;算法決策問題,則是人工智能自學(xué)習(xí)導(dǎo)致的不可預(yù)見性結(jié)果。數(shù)據(jù)層面人工智能在許多領(lǐng)域獲得重大進展依賴于海量數(shù)據(jù),人工智能技術(shù)的快速發(fā)展以及大量應(yīng)用案例實施,提供了豐富的個人信息收集場景、范圍和數(shù)量,數(shù)據(jù)采集日益成為引發(fā)人工智能倫理問題的重要原因之一。應(yīng)用層面人工智能算法的濫用和誤用。人們在社會活動時容易出現(xiàn)使用目的、方式、范圍等偏差,從而導(dǎo)致不良的影響和后果。3.6人工智能倫理2024/2/1246特朗普團隊借助Facebook干預(yù)大選虛擬社交網(wǎng)絡(luò)中的隱私泄露據(jù)《紐約時報》和《英國觀察家報》報道,劍橋分析公司(CambridgeAnalytica)與2016年特朗普競選團隊合作,在未經(jīng)用戶許可的情況下,CambridgeAnalytica獲取了5000名Facebook賬號的信息,并將之濫用于2016美國總統(tǒng)大選期間的政治廣告,利用個人檔案建立起個人信息系統(tǒng),預(yù)測和影響民意的選擇,來幫助自己贏得大選。新冠疫情相關(guān)人員信息遭泄露2020年1月,新冠疫情期間,近7000多名武漢返鄉(xiāng)人員的信息被泄露。不少人在信息遭遇泄露后,被微信騷擾,甚至誤認(rèn)作新冠攜帶者被人打電話辱罵。2020年2月9日,中央網(wǎng)信辦發(fā)布了《關(guān)于做好個人信息保護利用大數(shù)據(jù)支撐聯(lián)防聯(lián)控工作的通知》,除衛(wèi)生部門依法授權(quán)機構(gòu)外,任何單位、個人都不得借疫情防控為由未經(jīng)同意收集個人信息,不得未經(jīng)被收集者同意公開姓名、年齡、身份證號碼等個人信息。智能音箱被爆“偷聽”用戶隱私2018年8月,一名名叫馬丁的智能音箱用戶,要求亞馬遜給出自己使用的亞馬遜智能音箱的語音記錄,想不到,亞馬遜向他發(fā)送相關(guān)錄音鏈接時,還發(fā)送了一位陌生人的1700個音頻文件。這些錄音來自另一名男子家中,該男子和一名女性同伴的活動被錄了下來,甚至還包括洗澡時音頻。也一度爆發(fā)了智能音箱“監(jiān)聽門”?,F(xiàn)實社交生活中的隱私泄露家居/辦公場景中的隱私泄露隱私泄露是指正當(dāng)?shù)?、而又不能或不愿示人的事、物及情感活動等被非法竊取或使用。主要問題3.6人工智能倫理2024/2/1247價格歧視性別歧視種族歧視2019年3月,一位網(wǎng)友稱自己疑似被攜程“殺熟”。一開始他購買了一張價格為17548元的機票,由于忘記選擇報銷憑證取消訂單重選,但隨后發(fā)現(xiàn)系統(tǒng)顯示無票,再次搜索時價格就變成了18987元。2020年3月,有網(wǎng)友爆料,天貓超市88VIP看到的商品價格居然比普通會員還高。同一款豆奶,88VIP顯示的價格為73.3元,非88VIP顯示的價格才62.8元。2018年2月,麻省理工學(xué)院的JoyBuolamwini發(fā)現(xiàn),IBM、微軟和中國公司Megvii的三個最新的性別識別AI可以在99%的情況下準(zhǔn)確從照片中識別一個人的性別,但這僅限于白人。對于女性黑人來說,這個準(zhǔn)確率會降至35%。在2015年的一項研究中顯示,使用Google搜索“CEO”的圖片,其中只有11%的人是女性。COMPAS是一種在美國廣泛使用的算法,通過預(yù)測罪犯再次犯罪的可能性來指導(dǎo)判刑,而這個算法或許是最臭名昭著的人工智能偏見。根據(jù)美國新聞機構(gòu)ProPublica在2016年5月的報道,COMPAS算法存在明顯的偏見。根據(jù)分析,該系統(tǒng)預(yù)測的黑人被告再次犯罪的風(fēng)險要遠(yuǎn)遠(yuǎn)高于白人,甚至達(dá)到了后者的兩倍。大數(shù)據(jù)殺熟現(xiàn)象人臉識別、搜素引擎結(jié)果存在差異犯罪預(yù)測系統(tǒng)判定結(jié)果存在差異偏見是指以不正確或不充分的信息為根據(jù)而形成的對他人或群體的片面甚至錯誤的認(rèn)識和態(tài)度。歧視是指由偏見引起的,直接指向偏見目標(biāo)或受害者的否定性消極行為表現(xiàn)。主要問題3.6人工智能倫理2024/2/1248Uber無人駕駛汽車致人死亡AI造成的事故責(zé)任由誰承擔(dān)?2018年3月,美國當(dāng)?shù)貢r間晚上22點,亞利桑那州坦佩市郊區(qū),一輛Uber自動駕駛測試車在由南向北行進過程中,撞上推著自行車在人行道之外橫穿馬路的49歲女子伊萊·赫茲柏格(ElaineHerzberg),該女子送醫(yī)后搶救無效宣告死亡。這是全球首例無人駕駛汽車致死事故。微軟小冰的繪畫作品通過學(xué)習(xí)人類歷史上236位頂尖畫家,在訓(xùn)練22個月之后,微軟智能程序“小冰”可以將人類給到的文字轉(zhuǎn)換成一幅全新的、油畫質(zhì)感的藝術(shù)圖像,完成藝術(shù)創(chuàng)作。此外,小冰通過學(xué)習(xí)519位中國現(xiàn)代詩人而習(xí)得了寫詩,而微軟為了測試其寫詩能力,曾化名將小冰生成的詩篇投稿給文學(xué)社、詩歌競賽;藏身在網(wǎng)易云音樂的評論區(qū),假扮熱心網(wǎng)友;或是當(dāng)電臺的實習(xí)主播,朗讀一段文字……擁有公民身份的Sophia機器人索菲亞(Sophia)是由香港漢森機器人技術(shù)公司(HansonRobotics)開發(fā)的類人機器人。2017年10月26日,沙特阿拉伯授予索菲亞公民身份。索菲亞的創(chuàng)始人DavidHanson曾經(jīng)問索菲亞:Doyouwanttodestroyhumans?Pleasesayno.而索菲亞的回答是:OK.Iwilldestroyhumans.AI“作品”的著作權(quán)歸誰?機器人是否該成為道德主體?責(zé)權(quán)歸屬是指責(zé)任與權(quán)利的合理界定與劃分。主要問題3.6人工智能倫理2024/2/1249人臉數(shù)據(jù)被過度采集人臉識別技術(shù)濫用中央網(wǎng)信辦、工信部、公安部、市場監(jiān)管總局四部門聯(lián)合成立的App專項治理工作組2020年發(fā)布的《人臉識別應(yīng)用公眾調(diào)研報告》顯示,在2萬多名受訪者中,94.07%的受訪者用過人臉識別技術(shù),64.39%的受訪者認(rèn)為人臉識別技術(shù)有被濫用的趨勢,30.86%的受訪者已經(jīng)因為人臉信息泄露、濫用等遭受損失或者隱私被侵犯。Deepfake當(dāng)Deepfake在2017年首次流行起來時,絕大多數(shù)被用于在互聯(lián)網(wǎng)論壇上生成名人的假色情作品。即使在2019年,根據(jù)公司Sensity所做的調(diào)查,96%的公開發(fā)布的Deepfake都是色情內(nèi)容。各種各樣的創(chuàng)作者將Deepfake應(yīng)用于聲音、圖像、視頻等各種形式的媒體。例如,在Y
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 麗江2025年云南麗江市第二人民醫(yī)院招聘第一批編外工作人員20人筆試歷年參考題庫附帶答案詳解
- 游戲合作合同范本
- 碼頭租房合同范本
- Thiophene-2-amidoxime-生命科學(xué)試劑-MCE
- Ibuprofen-arginine-生命科學(xué)試劑-MCE
- 生態(tài)旅游推動環(huán)境保護的綠色力量
- 科技產(chǎn)品如何通過市場定位獲得用戶青睞
- 器材租用合同范本
- 知識版權(quán)在提升企業(yè)核心競爭力的作用
- 電子商務(wù)平臺的移動端開發(fā)與優(yōu)化
- DB32T 4401-2022綜合醫(yī)院建筑設(shè)計標(biāo)準(zhǔn)
- 橋梁鋼筋制作安裝施工方案
- 2025年語言文字工作計劃
- 金融類競聘主管
- 《國防動員準(zhǔn)備》課件
- 2024年688個高考英語高頻詞匯
- 商標(biāo)合資經(jīng)營合同
- 第六講當(dāng)前就業(yè)形勢與實施就業(yè)優(yōu)先戰(zhàn)略-2024年形勢與政策
- 2024-2030年中國家政服務(wù)行業(yè)經(jīng)營策略及投資規(guī)劃分析報告
- 2025年護士資格證考核題庫及答案
評論
0/150
提交評論