人工智能倫理導(dǎo)論 課件 lecture9-倫理道德規(guī)范_第1頁
人工智能倫理導(dǎo)論 課件 lecture9-倫理道德規(guī)范_第2頁
人工智能倫理導(dǎo)論 課件 lecture9-倫理道德規(guī)范_第3頁
人工智能倫理導(dǎo)論 課件 lecture9-倫理道德規(guī)范_第4頁
人工智能倫理導(dǎo)論 課件 lecture9-倫理道德規(guī)范_第5頁
已閱讀5頁,還剩43頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

倫理道德規(guī)范Lecture92024/7/231人工智能倫理-古天龍政府組織人工智能倫理原則/規(guī)范目錄人工智能職業(yè)道德準則企業(yè)機構(gòu)人工智能倫理原則/規(guī)范1231中國:新一代人工智能倫理規(guī)范中國:新一代人工智能治理原則美國:人工智能應(yīng)用規(guī)范指南英國:英國人工智能發(fā)展的計劃、能力與志向歐盟:可信賴人工智能的倫理準則G20:G20人工智能原則“BeneficialAI”會議:阿西洛馬人工智能原則騰訊:智能時代的技術(shù)倫理觀北京智源人工智能研究院:人工智能北京共識微軟:人工智能開發(fā)的六大原則谷歌:人工智能使用原則2024/7/23人工智能倫理-古天龍2中國:人工智能行業(yè)自律公約美國:人工智能學(xué)會職業(yè)道德與行為準則日本:人工智能學(xué)會倫理綱要政府組織人工智能倫理原則/規(guī)范目錄人工智能職業(yè)道德準則企業(yè)機構(gòu)人工智能倫理原則/規(guī)范1231中國:新一代人工智能倫理規(guī)范中國:新一代人工智能治理原則美國:人工智能應(yīng)用規(guī)范指南英國:英國人工智能發(fā)展的計劃、能力與志向歐盟:可信賴人工智能的倫理準則G20:G20人工智能原則政府組織人工智能倫理原則/規(guī)范2024/7/23人工智能倫理-古天龍3中國:新一代人工智能倫理規(guī)范2021年9月25日,國家新一代人工智能治理專業(yè)委員會發(fā)布了《新一代人工智能倫理規(guī)范》,旨在將倫理融入人工智能全生命周期,為從事人工智能相關(guān)活動的自然人、法人和其他相關(guān)機構(gòu)等提供倫理指引,促進人工智能健康發(fā)展。《新一代人工智能倫理規(guī)范》充分考慮當前社會各界有關(guān)隱私、偏見、歧視、公平等倫理關(guān)切,針對人工智能管理、研發(fā)、供應(yīng)、使用等活動提出了六項基本倫理要求和四方面特定倫理規(guī)范。(一)規(guī)范提出目的第一條本規(guī)范旨在將倫理道德融入人工智能全生命周期,促進公平、公正、和諧、安全,避免偏見、歧視、隱私和信息泄露等問題。(二)規(guī)范適用范圍

第二條本規(guī)范適用于從事人工智能管理、研發(fā)、供應(yīng)、使用等相關(guān)活動的自然人、法人和其他相關(guān)機構(gòu)等。(一)管理活動主要指人工智能相關(guān)的戰(zhàn)略規(guī)劃、政策法規(guī)和技術(shù)標準制定實施,資源配置以及監(jiān)督審查等。(二)研發(fā)活動主要指人工智能相關(guān)的科學(xué)研究、技術(shù)開發(fā)、產(chǎn)品研制等。(三)供應(yīng)活動主要指人工智能產(chǎn)品與服務(wù)相關(guān)的生產(chǎn)、運營、銷售等。(四)使用活動主要指人工智能產(chǎn)品與服務(wù)相關(guān)的采購、消費、操作等。9.1政府組織人工智能倫理原則/規(guī)范2024/7/23人工智能倫理-古天龍4中國:新一代人工智能倫理規(guī)范(一)增進人類福祉。堅持以人為本,遵循人類共同價值觀,尊重人權(quán)和人類根本利益訴求,遵守國家或地區(qū)倫理道德。堅持公共利益優(yōu)先,促進人機和諧友好,改善民生,增強獲得感幸福感,推動經(jīng)濟、社會及生態(tài)可持續(xù)發(fā)展,共建人類命運共同體。(二)促進公平公正。堅持普惠性和包容性,切實保護各相關(guān)主體合法權(quán)益,推動全社會公平共享人工智能帶來的益處,促進社會公平正義和機會均等。在提供人工智能產(chǎn)品和服務(wù)時,應(yīng)充分尊重和幫助弱勢群體、特殊群體,并根據(jù)需要提供相應(yīng)替代方案。(三)保護隱私安全。充分尊重個人信息知情、同意等權(quán)利,依照合法、正當、必要和誠信原則處理個人信息,保障個人隱私與數(shù)據(jù)安全,不得損害個人合法數(shù)據(jù)權(quán)益,不得以竊取、篡改、泄露等方式非法收集利用個人信息,不得侵害個人隱私權(quán)。(四)確??煽乜尚拧1U先祟悡碛谐浞肿灾鳑Q策權(quán),有權(quán)選擇是否接受人工智能提供的服務(wù),有權(quán)隨時退出與人工智能的交互,有權(quán)隨時中止人工智能系統(tǒng)的運行,確保人工智能始終處于人類控制之下。(五)強化責(zé)任擔當。堅持人類是最終責(zé)任主體,明確利益相關(guān)者的責(zé)任,全面增強責(zé)任意識,在人工智能全生命周期各環(huán)節(jié)自省自律,建立人工智能問責(zé)機制,不回避責(zé)任審查,不逃避應(yīng)負責(zé)任。(六)提升倫理素養(yǎng)。積極學(xué)習(xí)和普及人工智能倫理知識,客觀認識倫理問題,不低估不夸大倫理風(fēng)險。主動開展或參與人工智能倫理問題討論,深入推動人工智能倫理治理實踐,提升應(yīng)對能力。9.1政府組織人工智能倫理原則/規(guī)范人工智能各類活動應(yīng)遵循的基本倫理規(guī)范2024/7/23人工智能倫理-古天龍5中國:新一代人工智能倫理規(guī)范第五條推動敏捷治理。尊重人工智能發(fā)展規(guī)律,充分認識人工智能的潛力與局限,持續(xù)優(yōu)化治理機制和方式,在戰(zhàn)略決策、制度建設(shè)、資源配置過程中,不脫離實際、不急功近利,有序推動人工智能健康和可持續(xù)發(fā)展。第六條積極實踐示范。遵守人工智能相關(guān)法規(guī)、政策和標準,主動將人工智能倫理道德融入管理全過程,率先成為人工智能倫理治理的實踐者和推動者,及時總結(jié)推廣人工智能治理經(jīng)驗,積極回應(yīng)社會對人工智能的倫理關(guān)切。第七條正確行權(quán)用權(quán)。明確人工智能相關(guān)管理活動的職責(zé)和權(quán)力邊界,規(guī)范權(quán)力運行條件和程序。充分尊重并保障相關(guān)主體的隱私、自由、尊嚴、安全等權(quán)利及其他合法權(quán)益,禁止權(quán)力不當行使對自然人、法人和其他組織合法權(quán)益造成侵害。第八條加強風(fēng)險防范。增強底線思維和風(fēng)險意識,加強人工智能發(fā)展的潛在風(fēng)險研判,及時開展系統(tǒng)的風(fēng)險監(jiān)測和評估,建立有效的風(fēng)險預(yù)警機制,提升人工智能倫理風(fēng)險管控和處置能力。第九條促進包容開放。充分重視人工智能各利益相關(guān)主體的權(quán)益與訴求,鼓勵應(yīng)用多樣化的人工智能技術(shù)解決經(jīng)濟社會發(fā)展實際問題,鼓勵跨學(xué)科、跨領(lǐng)域、跨地區(qū)、跨國界的交流與合作,推動形成具有廣泛共識的人工智能治理框架和標準規(guī)范。9.1政府組織人工智能倫理原則/規(guī)范人工智能特定活動應(yīng)遵守的管理規(guī)范2024/7/23人工智能倫理-古天龍6中國:新一代人工智能倫理規(guī)范第十條強化自律意識。加強人工智能研發(fā)相關(guān)活動的自我約束,主動將人工智能倫理道德融入技術(shù)研發(fā)各環(huán)節(jié),自覺開展自我審查,加強自我管理,不從事違背倫理道德的人工智能研發(fā)。第十一條提升數(shù)據(jù)質(zhì)量。在數(shù)據(jù)收集、存儲、使用、加工、傳輸、提供、公開等環(huán)節(jié),嚴格遵守數(shù)據(jù)相關(guān)法律、標準與規(guī)范,提升數(shù)據(jù)的完整性、及時性、一致性、規(guī)范性和準確性等。第十二條增強安全透明。在算法設(shè)計、實現(xiàn)、應(yīng)用等環(huán)節(jié),提升透明性、可解釋性、可理解性、可靠性、可控性,增強人工智能系統(tǒng)的韌性、自適應(yīng)性和抗干擾能力,逐步實現(xiàn)可驗證、可審核、可監(jiān)督、可追溯、可預(yù)測、可信賴。第十三條避免偏見歧視。在數(shù)據(jù)采集和算法開發(fā)中,加強倫理審查,充分考慮差異化訴求,避免可能存在的數(shù)據(jù)與算法偏見,努力實現(xiàn)人工智能系統(tǒng)的普惠性、公平性和非歧視性。9.1政府組織人工智能倫理原則/規(guī)范人工智能特定活動應(yīng)遵守的研發(fā)規(guī)范2024/7/23人工智能倫理-古天龍7中國:新一代人工智能倫理規(guī)范9.1政府組織人工智能倫理原則/規(guī)范人工智能特定活動應(yīng)遵守的供應(yīng)規(guī)范第十四條尊重市場規(guī)則。嚴格遵守市場準入、競爭、交易等活動的各種規(guī)章制度,積極維護市場秩序,營造有利于人工智能發(fā)展的市場環(huán)境,不得以數(shù)據(jù)壟斷、平臺壟斷等破壞市場有序競爭,禁止以任何手段侵犯其他主體的知識產(chǎn)權(quán)。第十五條加強質(zhì)量管控。強化人工智能產(chǎn)品與服務(wù)的質(zhì)量監(jiān)測和使用評估,避免因設(shè)計和產(chǎn)品缺陷等問題導(dǎo)致的人身安全、財產(chǎn)安全、用戶隱私等侵害,不得經(jīng)營、銷售或提供不符合質(zhì)量標準的產(chǎn)品與服務(wù)。第十六條保障用戶權(quán)益。在產(chǎn)品與服務(wù)中使用人工智能技術(shù)應(yīng)明確告知用戶,應(yīng)標識人工智能產(chǎn)品與服務(wù)的功能與局限,保障用戶知情、同意等權(quán)利。為用戶選擇使用或退出人工智能模式提供簡便易懂的解決方案,不得為用戶平等使用人工智能設(shè)置障礙。第十七條強化應(yīng)急保障。研究制定應(yīng)急機制和損失補償方案或措施,及時監(jiān)測人工智能系統(tǒng),及時響應(yīng)和處理用戶的反饋信息,及時防范系統(tǒng)性故障,隨時準備協(xié)助相關(guān)主體依法依規(guī)對人工智能系統(tǒng)進行干預(yù),減少損失,規(guī)避風(fēng)險。2024/7/23人工智能倫理-古天龍8中國:新一代人工智能倫理規(guī)范第十八條提倡善意使用。加強人工智能產(chǎn)品與服務(wù)使用前的論證和評估,充分了解人工智能產(chǎn)品與服務(wù)帶來的益處,充分考慮各利益相關(guān)主體的合法權(quán)益,更好促進經(jīng)濟繁榮、社會進步和可持續(xù)發(fā)展。第十九條避免誤用濫用。充分了解人工智能產(chǎn)品與服務(wù)的適用范圍和負面影響,切實尊重相關(guān)主體不使用人工智能產(chǎn)品或服務(wù)的權(quán)利,避免不當使用和濫用人工智能產(chǎn)品與服務(wù),避免非故意造成對他人合法權(quán)益的損害。第二十條禁止違規(guī)惡用。禁止使用不符合法律法規(guī)、倫理道德和標準規(guī)范的人工智能產(chǎn)品與服務(wù),禁止使用人工智能產(chǎn)品與服務(wù)從事不法活動,嚴禁危害國家安全、公共安全和生產(chǎn)安全,嚴禁損害社會公共利益等。第二十一條及時主動反饋。積極參與人工智能倫理治理實踐,對使用人工智能產(chǎn)品與服務(wù)過程中發(fā)現(xiàn)的技術(shù)安全漏洞、政策法規(guī)真空、監(jiān)管滯后等問題,應(yīng)及時向相關(guān)主體反饋,并協(xié)助解決。第二十二條提高使用能力。積極學(xué)習(xí)人工智能相關(guān)知識,主動掌握人工智能產(chǎn)品與服務(wù)的運營、維護、應(yīng)急處置等各使用環(huán)節(jié)所需技能,確保人工智能產(chǎn)品與服務(wù)安全使用和高效利用。9.1政府組織人工智能倫理原則/規(guī)范人工智能特定活動應(yīng)遵守的使用規(guī)范2024/7/23人工智能倫理-古天龍9中國:新一代人工智能倫理規(guī)范9.1政府組織人工智能倫理原則/規(guī)范組織實施第二十三條本規(guī)范由國家新一代人工智能治理專業(yè)委員會發(fā)布,并負責(zé)解釋和指導(dǎo)實施。第二十四條各級管理部門、企業(yè)、高校、科研院所、協(xié)會學(xué)會和其他相關(guān)機構(gòu)可依據(jù)本規(guī)范,結(jié)合實際需求,制訂更為具體的倫理規(guī)范和相關(guān)措施。第二十五條本規(guī)范自公布之日起施行,并根據(jù)經(jīng)濟社會發(fā)展需求和人工智能發(fā)展情況適時修訂。2024/7/23人工智能倫理-古天龍10中國:新一代人工智能治理原則2019年6月17日,國家新一代人工智能治理專業(yè)委員會發(fā)布了《發(fā)展負責(zé)任的人工智能:新一代人工智能治理原則》,明確提出人工智能發(fā)展相關(guān)各方應(yīng)遵循以下原則。(1)和諧友好人工智能發(fā)展應(yīng)以增進人類共同福祉為目標;應(yīng)符合人類的價值觀和倫理道德,促進人機和諧,服務(wù)人類文明進步;應(yīng)以保障社會安全、尊重人類權(quán)益為前提,避免誤用,禁止濫用、惡用。(2)公平公正人工智能發(fā)展應(yīng)促進公平公正,保障利益相關(guān)者的權(quán)益,促進機會均等。通過持續(xù)提高技術(shù)水平、改善管理方式,在數(shù)據(jù)獲取、算法設(shè)計、技術(shù)開發(fā)、產(chǎn)品研發(fā)和應(yīng)用過程中消除偏見和歧視。(3)包容共享人工智能應(yīng)促進綠色發(fā)展,符合環(huán)境友好、資源節(jié)約的要求;應(yīng)促進協(xié)調(diào)發(fā)展,推動各行各業(yè)轉(zhuǎn)型升級,縮小區(qū)域差距;應(yīng)促進包容發(fā)展,加強人工智能教育及科普,提升弱勢群體適應(yīng)性,努力消除數(shù)字鴻溝;應(yīng)促進共享發(fā)展,避免數(shù)據(jù)與平臺壟斷,鼓勵開放有序競爭。(4)尊重隱私人工智能發(fā)展應(yīng)尊重和保護個人隱私,充分保障個人的知情權(quán)和選擇權(quán)。在個人信息的收集、存儲、處理、使用等各環(huán)節(jié)應(yīng)設(shè)置邊界,建立規(guī)范。完善個人數(shù)據(jù)授權(quán)撤銷機制,反對任何竊取、篡改、泄露和其他非法收集利用個人信息的行為。9.1政府組織人工智能倫理原則/規(guī)范2024/7/23人工智能倫理-古天龍11中國:新一代人工智能治理原則(5)安全可控人工智能系統(tǒng)應(yīng)不斷提升透明性、可解釋性、可靠性、可控性,逐步實現(xiàn)可審核、可監(jiān)督、可追溯、可信賴。高度關(guān)注人工智能系統(tǒng)的安全,提高人工智能魯棒性及抗干擾性,形成人工智能安全評估和管控能力。(6)共擔責(zé)任人工智能研發(fā)者、使用者及其他相關(guān)方應(yīng)具有高度的社會責(zé)任感和自律意識,嚴格遵守法律法規(guī)、倫理道德和標準規(guī)范。建立人工智能問責(zé)機制,明確研發(fā)者、使用者和受用者等的責(zé)任。人工智能應(yīng)用過程中應(yīng)確保人類知情權(quán),告知可能產(chǎn)生的風(fēng)險和影響,防范利用人工智能進行非法活動。(7)開放協(xié)作鼓勵跨學(xué)科、跨領(lǐng)域、跨地區(qū)、跨國界的交流合作,推動國際組織、政府部門、科研機構(gòu)、教育機構(gòu)、企業(yè)、社會組織、公眾在人工智能發(fā)展與治理中的協(xié)調(diào)互動。開展國際對話與合作,在充分尊重各國人工智能治理原則和實踐的前提下,推動形成具有廣泛共識的國際人工智能治理框架和標準規(guī)范。(8)敏捷治理尊重人工智能發(fā)展規(guī)律,在推動人工智能創(chuàng)新發(fā)展、有序發(fā)展的同時,及時發(fā)現(xiàn)和解決可能引發(fā)的風(fēng)險。不斷提升智能化技術(shù)手段,優(yōu)化管理機制,完善治理體系,推動治理原則貫穿人工智能產(chǎn)品和服務(wù)的全生命周期。對未來更高級人工智能的潛在風(fēng)險持續(xù)開展研究和預(yù)判,確保人工智能始終朝著有利于社會的方向發(fā)展。9.1政府組織人工智能倫理原則/規(guī)范2024/7/23人工智能倫理-古天龍12美國:人工智能應(yīng)用規(guī)范指南2020年1月7日,為監(jiān)管AI發(fā)展應(yīng)用,美國白宮發(fā)布《人工智能應(yīng)用規(guī)范指南(草案)》(GuidanceforRegulationofArtificialIntelligenceApplications)。(2)公眾參與公眾參與,特別是在人工智能使用有關(guān)個人信息的情況下,將改善機構(gòu)的問責(zé)制和監(jiān)管結(jié)果,并增加公眾的信任和信心。機構(gòu)應(yīng)在可行且符合法律要求的范圍內(nèi),為公眾提供充足的機會,參與規(guī)則制定過程的所有階段。鼓勵各機構(gòu)在切實可行的范圍內(nèi),向公眾通報情況,并提高公眾對標準和其他信息性文件的認識和普及。9.1政府組織人工智能倫理原則/規(guī)范2024/7/23人工智能倫理-古天龍13(1)公眾對人工智能的信任人工智能將在社會和經(jīng)濟生活各個領(lǐng)域產(chǎn)生積極影響,包括就業(yè)、交通、教育、金融、醫(yī)療保健、個人保障和制造業(yè)。與此同時,人工智能應(yīng)用可能會對隱私、個人權(quán)利、自主權(quán)和公民自由構(gòu)成風(fēng)險,必須仔細評估并妥善處理這些風(fēng)險。人工智能的繼續(xù)采用和接受將在很大程度上取決于公眾的信任和認可。因此,政府對人工智能的監(jiān)管和非監(jiān)管方法促進可靠、穩(wěn)健和可信的人工智能應(yīng)用是非常重要的,這將有助于公眾對人工智能的信任。對隱私和其他風(fēng)險的適當監(jiān)管或非監(jiān)管響應(yīng)必須取決于所呈現(xiàn)的風(fēng)險的性質(zhì)和適當?shù)木徑獯胧C绹喝斯ぶ悄軕?yīng)用規(guī)范指南(3)科學(xué)誠信與信息質(zhì)量政府對人工智能應(yīng)用的監(jiān)管和非監(jiān)管方法應(yīng)利用科學(xué)技術(shù)信息和流程。各機構(gòu)應(yīng)以高質(zhì)量、高透明度和高合規(guī)性的標準存檔信息,這些信息包括可能對重要的公共政策或私營部門決策(包括消費者的決策)產(chǎn)生明確和實質(zhì)性影響,無論這些信息是由政府提供的還是由政府從第三方獲得的。根據(jù)規(guī)則制定和指導(dǎo)過程中的科學(xué)完整性原則,各機構(gòu)應(yīng)制定有關(guān)人工智能的監(jiān)管方法,既為政策決策提供信息,又可促進公眾對人工智能的信任。最佳實踐包括透明地闡明人工智能應(yīng)用程序的優(yōu)點、缺點、預(yù)期的優(yōu)化或結(jié)果、偏差緩解和結(jié)果的適當使用。各機構(gòu)還應(yīng)注意,為了使人工智能應(yīng)用程序產(chǎn)生可預(yù)測、可靠和優(yōu)化的結(jié)果,用于訓(xùn)練人工智能系統(tǒng)的數(shù)據(jù)必須具有足夠的質(zhì)量,以達到預(yù)期用途。(4)風(fēng)險評估與管理對人工智能的監(jiān)管和非監(jiān)管方法應(yīng)基于風(fēng)險評估和風(fēng)險管理在不同機構(gòu)和不同技術(shù)之間的一致應(yīng)用。沒有必要降低每一個可預(yù)見的風(fēng)險。事實上,監(jiān)管政策的一個基本原則是,所有活動都需要權(quán)衡。應(yīng)采用基于風(fēng)險的方法來確定哪些風(fēng)險是可接受的,哪些風(fēng)險可能造成不可接受的損害,或者損害的預(yù)期成本大于預(yù)期收益。各機構(gòu)對其風(fēng)險評估應(yīng)保持透明,并在適當?shù)臅r間間隔內(nèi)重新評估其假設(shè)和結(jié)論,以促進問責(zé)制。相應(yīng)地,如果人工智能工具失敗或成功,根據(jù)產(chǎn)生的后果以及性質(zhì)可以幫助確定適當?shù)谋O(jiān)管力度和類型,以識別和減輕風(fēng)險。具體而言,各機構(gòu)應(yīng)遵循第12866號行政命令“監(jiān)管規(guī)劃和審查”的指示,考慮其管轄范圍內(nèi)各種活動所構(gòu)成風(fēng)險的程度和性質(zhì)。在適當?shù)那闆r下,五種預(yù)防性監(jiān)管方法將避免因不合理使用而帶來不必要的危害。9.1政府組織人工智能倫理原則/規(guī)范2024/7/23人工智能倫理-古天龍14美國:人工智能應(yīng)用規(guī)范指南(5)收益與成本在制定監(jiān)管和非監(jiān)管方法時,機構(gòu)通常會考慮將人工智能應(yīng)用和部署到已受監(jiān)管的行業(yè)中。據(jù)推測,除非這些投資提供了巨大的經(jīng)濟潛力,否則不會有如此重大的投資。與所有這種性質(zhì)的技術(shù)轉(zhuǎn)變一樣,人工智能的引入也可能帶來獨特的挑戰(zhàn)。例如,雖然更廣泛的法律環(huán)境已經(jīng)應(yīng)用于人工智能應(yīng)用,但在某些情況下,現(xiàn)有法律對責(zé)任和責(zé)任問題的應(yīng)用可能不清楚,這導(dǎo)致一些機構(gòu)需要與他們的當局相一致,來評估利益、成本,與任何確定的或預(yù)期的責(zé)任方法相關(guān)的分配效應(yīng)。行政命令12866呼吁機構(gòu)“選擇那些最大化凈利益的方法(包括潛在的經(jīng)濟、環(huán)境、公共衛(wèi)生和安全,以及其他優(yōu)勢;分配影響和公平性)”。在符合法律規(guī)定的情況下,機構(gòu)在考慮與人工智能應(yīng)用程序的開發(fā)和部署有關(guān)的法規(guī)之前,應(yīng)仔細考慮全面的社會成本、效益和分配效果。與設(shè)計用來補充或替代人工智能的系統(tǒng)相比,這種考慮將包括采用人工智能產(chǎn)生的潛在收益和成本,以及與其他現(xiàn)有的容忍風(fēng)險的程度進行比較。如果無法與當前系統(tǒng)或流程進行比較,也應(yīng)評估不實施系統(tǒng)的風(fēng)險和成本。(6)靈活性在開發(fā)監(jiān)管和非監(jiān)管方法時,機構(gòu)應(yīng)采用基于績效的靈活方法,以適應(yīng)人工智能應(yīng)用的快速變化和更新。在大多數(shù)情況下,試圖規(guī)定僵化的人工智能應(yīng)用技術(shù)規(guī)范、基于設(shè)計的法規(guī)是不切實際和無效的,因為人工智能將以預(yù)期的速度發(fā)展,因此機構(gòu)需要對新的信息和證據(jù)作出反應(yīng)。有針對性的機構(gòu)合格評定計劃,以保護健康和安全、隱私和其他價值,對一個成功、靈活的、基于績效的方法至關(guān)重要。為了推進美國的創(chuàng)新,各機構(gòu)應(yīng)牢記人工智能的國際應(yīng)用,確保美國公司不受美國監(jiān)管制度的不利影響。9.1政府組織人工智能倫理原則/規(guī)范2024/7/23人工智能倫理-古天龍15美國:人工智能應(yīng)用規(guī)范指南(7)公平和不歧視各機構(gòu)應(yīng)以透明的方式考慮人工智能應(yīng)用可能對歧視產(chǎn)生的影響。人工智能的應(yīng)用有可能減少目前由人的主觀性造成的歧視。同時,在某些情況下,應(yīng)用可能會引入現(xiàn)實世界的偏見,產(chǎn)生歧視性的結(jié)果或決定,損害公眾對人工智能的信任和信心。在考慮與人工智能應(yīng)用相關(guān)的法規(guī)或非法規(guī)方法時,各機構(gòu)應(yīng)依法考慮有關(guān)人工智能應(yīng)用產(chǎn)生的結(jié)果和決定的公平和不歧視問題,以及有關(guān)人工智能應(yīng)用是否可能降低非法、不公平的程度,或與現(xiàn)有過程相比,其他意想不到的歧視。(8)披露和透明度除了改進規(guī)則制定過程外,透明度和公開還可以增加公眾對人工智能應(yīng)用的信任和信心。有時,此類公開內(nèi)容可能包括識別人工智能的使用時間。如果適用于解決有關(guān)應(yīng)用程序如何影響人類最終用戶的問題。機構(gòu)應(yīng)該意識到人工智能的一些應(yīng)用可以提高人類的自主性。在考慮采取更多的公開和透明措施之前,機構(gòu)應(yīng)該仔細考慮現(xiàn)有的或正在發(fā)展的法律、政策和監(jiān)管環(huán)境的充分性。(9)安全各機構(gòu)應(yīng)安全,有保障,按預(yù)期運行開發(fā)AI系統(tǒng),并在整個AI設(shè)計、開發(fā)、部署和運行過程中考慮安全問題,此外還應(yīng)特別注意現(xiàn)有的保障措施,以確保人工智能系統(tǒng)處理,存儲和傳輸?shù)男畔⒌谋C苄裕暾院涂捎眯?。各機構(gòu)應(yīng)進一步考慮擔保人的方法監(jiān)測系統(tǒng)的彈性,防止不法人士利用人工智能系統(tǒng)的弱點,包括AI運作中帶來的網(wǎng)絡(luò)安全風(fēng)險,以及對受監(jiān)管機構(gòu)的人工智能技術(shù)進行對抗性使用。(10)機構(gòu)間協(xié)調(diào)各機構(gòu)應(yīng)相互協(xié)調(diào),分享經(jīng)驗,確保人工智能相關(guān)政策的一致性和可預(yù)見性,以促進美國人工智能領(lǐng)域的創(chuàng)新和增長,同時保護隱私,公民自由和美國價值觀,并在適當時允許采取針對具體部門和應(yīng)用的方法。9.1政府組織人工智能倫理原則/規(guī)范2024/7/23人工智能倫理-古天龍16英國:英國人工智能發(fā)展的計劃2018年4月16日,英國議會下屬的人工智能特別委員會發(fā)布了《英國人工智能發(fā)展的計劃、能力與志向》(AIintheUK:ready,willingandable?)。報告幾乎涵蓋了人工智能的方方面面,從其概念、設(shè)計、研發(fā)和其對工作、生活、醫(yī)療等領(lǐng)域的影響以及應(yīng)對人工智能威脅、塑造人工智能未來等層面。報告針對英國議會較為關(guān)注的人工智能法律政策等十大熱點問題進行了討論,并提供了相關(guān)建議。9.1政府組織人工智能倫理原則/規(guī)范2024/7/23人工智能倫理-古天龍17(一)促進數(shù)據(jù)訪問和共享,最大化公共數(shù)據(jù)的價值(二)實現(xiàn)可理解、可信賴的人工智能,避免在特定重要領(lǐng)域采用“黑盒”算法(三)理解算法歧視,配置訓(xùn)練數(shù)據(jù)和算法的審查、測試機制(四)警惕數(shù)據(jù)壟斷,更新倫理、數(shù)據(jù)保護和競爭框架(五)研究并應(yīng)對法律責(zé)任挑戰(zhàn),闡明責(zé)任規(guī)則及其適用性(六)應(yīng)對人工智能和數(shù)據(jù)相關(guān)的新型網(wǎng)絡(luò)犯罪活動(七)統(tǒng)一自主武器的國際概念,就其開發(fā)和使用形成國際共識(八)成立新的人工智能機構(gòu),發(fā)揮全方位的戰(zhàn)略、咨詢和領(lǐng)導(dǎo)作用(九)當前階段沒必要對人工智能采取統(tǒng)一的專門監(jiān)管(十)制定國家人工智能準則,推動形成人工智能研發(fā)和使用的全球共同倫理框架歐盟:可信賴人工智能的倫理準則2018年4月,歐盟委員會于任命由52位學(xué)術(shù)界、工業(yè)界和民間社團的獨立專家組成的歐洲人工智能高級別專家組,專門負責(zé)撰寫人工智能倫理準則并為歐盟提供政策和投資建議。2019年4月8日,歐盟委員會正式發(fā)布了人工智能倫理準則《可信賴人工智能的倫理準則》(ETHICSGUIDELINESFORTRUSTWORTHYAI)。9.1政府組織人工智能倫理原則/規(guī)范2024/7/23人工智能倫理-古天龍18《可信賴人工智能倫理準則》指出,可信賴人工智能包含兩方面要素:第一,其開發(fā)、推廣及使用應(yīng)確保滿足“倫理目標”:與基本權(quán)利及所適用監(jiān)管相符、且尊重核心原則與價值。在技術(shù)方面穩(wěn)健而可信賴。第二,誠然即使保有善意,技術(shù)方面不成熟仍可帶來預(yù)料之外的危害?!犊尚刨嚾斯ぶ悄軅惱頊蕜t》著重提出了可信賴AI的3個基本條件、4條倫理準則及可信賴AI應(yīng)當滿足的7個條件。(一)三個基本條件(1)合法;(2)合乎倫理:(3)魯棒(二)可信賴AI的4條倫理準則(1)尊重人的自主性:AI系統(tǒng)不應(yīng)該、脅迫、欺騙、操縱人類。相反,AI系統(tǒng)的設(shè)計應(yīng)該以增強、補充人類的認知、社會和文化技能為目的。人類和AI系統(tǒng)之間的功能分配應(yīng)遵循以人為中心的設(shè)計原則,而且AI系統(tǒng)的工作過程中要確保人的監(jiān)督。AI系統(tǒng)也可能從根本上改變工作領(lǐng)域。它應(yīng)該在工作環(huán)境中支持人類,并致力于創(chuàng)造有意義的工作。(2)預(yù)防傷害:AI系統(tǒng)不應(yīng)該引發(fā)、加重傷害,或?qū)θ祟惍a(chǎn)生不好的影響。因此需要保護人類的尊嚴和身心健康。AI系統(tǒng)和運行的環(huán)境必須是安全的。因此要求技術(shù)上必須是魯棒的,而且要確保AI技術(shù)不會被惡意使用。尤其要注意可能會惡意使用該技術(shù)的人和可能會造成不良影響的應(yīng)用場景。歐盟:可信賴人工智能的倫理準則9.1政府組織人工智能倫理原則/規(guī)范2024/7/23人工智能倫理-古天龍19(3)公平性:AI系統(tǒng)的開發(fā)、實現(xiàn)和應(yīng)用必須是公平的。雖然對公平性可能會有不同的解讀,但是應(yīng)當確保個人和組織不會受到不公平的偏見、歧視等。如果AI系統(tǒng)可以避免不公平的偏見,就可以增加社會公平性。為此,AI系統(tǒng)做出的決策以及做決策的過程應(yīng)該是可解釋的。(4)可解釋性:可解釋性對構(gòu)建用戶對AI系統(tǒng)的信任是非常關(guān)鍵的。也就是說整個決策的過程、輸入和輸出的關(guān)系都應(yīng)該是可解釋的。但目前的人工智能算法和模型都是以黑盒(blackbox)的形式運行的。歐盟:可信賴人工智能的倫理準則9.1政府組織人工智能倫理原則/規(guī)范(三)可信賴AI應(yīng)當滿足的7個條件(1)人的能動性和監(jiān)督:人工智能不能侵犯人類的自主性。人類不應(yīng)該被人工智能系統(tǒng)操縱或威脅,人類應(yīng)該能夠干預(yù)或監(jiān)督人工智能的每一項決定。(2)技術(shù)魯棒性和安全性:人工智能應(yīng)該是安全和準確的。它不應(yīng)該輕易受外部攻擊的影響,它應(yīng)該非??煽?。(3)隱私和數(shù)據(jù)管理:人工智能收集的個人數(shù)據(jù)應(yīng)該是安全的、私有的。它不應(yīng)該讓任何人接觸,也不應(yīng)該輕易被盜。(4)透明性:用于創(chuàng)建人工智能系統(tǒng)的數(shù)據(jù)和算法應(yīng)該是可訪問的,應(yīng)確保人工智能決策的可追溯性。換言之,運營商應(yīng)該能夠解釋他們的人工智能系統(tǒng)是如何做出決策的。(5)多樣性、非歧視性和公平性:人工智能提供的服務(wù)應(yīng)面向所有人,無論年齡、性別、種族或其他特征。同樣,系統(tǒng)不應(yīng)該有任何偏向。(6)社會和環(huán)境福祉:應(yīng)采用人工智能系統(tǒng)來促進積極的社會變革,增強可持續(xù)性和生態(tài)責(zé)任。(7)問責(zé):應(yīng)建立機制,確保對人工智能系統(tǒng)及其成果負責(zé)和問責(zé)。2024/7/23人工智能倫理-古天龍20G20:G20人工智能原則2019年6月28日,二十國集團(G20)在日本筑波市舉行的部長級會議首次討論了人工智能問題,提出了《G20人工智能原則》?!禛20人工智能原則》主要包含兩個部分信息:第一部分列出了“負責(zé)任地管理可信賴AI的原則”,第二部分為“實現(xiàn)可信人工智能的國家政策和國際合作的建議”。9.1政府組織人工智能倫理原則/規(guī)范(一)負責(zé)任地管理可信賴AI的原則(1)包容性增長、可持續(xù)發(fā)展及福祉利益相關(guān)方應(yīng)積極推動可信人工智能的負責(zé)任管理,共尋人類和地球的美好未來,強化人類能力、激發(fā)創(chuàng)造力、包容和提攜弱者,減少經(jīng)濟、社會、性別及一切不平等,保護自然環(huán)境,促進包容性增長及可持續(xù)發(fā)展并增進人類福祉。(2)以人為本的價值觀及公平性a)人工智能各參與方應(yīng)在整個人工智能系統(tǒng)生命周期中,尊重法治、人權(quán)和民主價值的原則,包括自由與尊嚴;自治與隱私;數(shù)據(jù)保護與不歧視;平等、多樣性、公平與社會正義;國際公認的勞工權(quán)利;b)為此,人工智能各參與方應(yīng)基于當前的技術(shù)水平與現(xiàn)實情況,采取恰當?shù)臋C制與保障措施,如保留人類自主決定的能力。2024/7/23人工智能倫理-古天龍21G20:G20人工智能原則9.1政府組織人工智能倫理原則/規(guī)范(3)透明度和可解釋性人工智能各參與方應(yīng)對事關(guān)人工智能系統(tǒng)透明度的信息進行負責(zé)任地披露,信息應(yīng)當是有意義、切合實際并符合當前的技術(shù)水平。a)增進人們對人工智能系統(tǒng)的普遍認知;b)使利益相關(guān)方認識到他們在和人工智能系統(tǒng)進行交互,工作場所也不例外;c)讓受系統(tǒng)影響的人理解人工智能系統(tǒng)產(chǎn)生的結(jié)果;d)對受到人工智能不利影響的那部分人,能夠根據(jù)以簡單易懂的信息呈現(xiàn)的(系統(tǒng))因素,及(系統(tǒng))進行預(yù)測、建議或決策的邏輯基礎(chǔ),對系統(tǒng)的結(jié)果提出質(zhì)疑。2024/7/23人工智能倫理-古天龍22(4)魯棒性、安全性和保障性a)人工智能系統(tǒng)在其整個生命周期中都應(yīng)該具備健壯性、信息安全性和物理安全性,在正常使用與可預(yù)見的其他條件(錯誤使用或其他不利條件)下,功能運作皆可控,摒除不合理的物理安全風(fēng)險;b)為此,人工智能參與各方應(yīng)確保(系統(tǒng))的可追溯性,包括能夠?qū)θ斯ぶ悄芟到y(tǒng)生命周期中涉及到的所有數(shù)據(jù)集和決策相關(guān)過程的可追溯性,確保能夠在切合實際和符合當前技術(shù)條件下,使人工智能系統(tǒng)運行結(jié)果可分析及響應(yīng)質(zhì)疑;c)人工智能參與各方應(yīng)根據(jù)其角色、實際情況和行為能力,在人工智能系統(tǒng)生命周期的各個階段保持系統(tǒng)風(fēng)險管理方法的持續(xù)性,以應(yīng)對人工智能系統(tǒng)帶來的各類風(fēng)險,包括隱私、信息安全、物理安全及偏見等;(5)問責(zé)制人工智能各參與方應(yīng)根據(jù)其角色、實際情況和當前技術(shù)水平,確保人工智能系統(tǒng)能正常運行,并尊重前述原則。G20:G20人工智能原則9.1政府組織人工智能倫理原則/規(guī)范(二)實現(xiàn)可信人工智能的國家政策和國際合作的建議(1)投資于AI的研究與開發(fā)a)政府應(yīng)當長期投資于研究、開發(fā)及跨學(xué)科活動,同時鼓勵民間投資;促進可信AI領(lǐng)域的創(chuàng)新,如集中力量解決技術(shù)問題及與AI相關(guān)的社會、法律、倫理及政策問題;b)政府還應(yīng)當投資于重要的開放數(shù)據(jù)集,同時鼓勵民間投資,并尊重隱私、加強數(shù)據(jù)保護;從而建立一個有利于AI研究和開發(fā)的環(huán)境,防止非開放數(shù)據(jù)集存在的偏見因素;切實提高數(shù)據(jù)集的互操作性,促進使用共同標準。(2)為AI培養(yǎng)數(shù)字生態(tài)系統(tǒng)政府應(yīng)當創(chuàng)造條件,建立一個可信人工智能的數(shù)字生態(tài)系統(tǒng)。該生態(tài)系統(tǒng)至少應(yīng)包括數(shù)字技術(shù)、基礎(chǔ)設(shè)施和人工智能知識共享機制。為此,政府應(yīng)當倡導(dǎo)數(shù)據(jù)信任機制,使數(shù)據(jù)能夠安全、平等、合法及合乎倫理地共享。(3)為AI創(chuàng)造有利的政策環(huán)境a)政府應(yīng)當建立政策環(huán)境,促使可信人工智能盡快從研發(fā)階段過渡到部署和運營階段。為此,政府應(yīng)建立試點,提供可控環(huán)境,對人工智能系統(tǒng)進行測試、升級;b)在適當情況下,政府應(yīng)當審查和調(diào)整其現(xiàn)行的可信人工智能的創(chuàng)新及競爭政策規(guī)章框架和評估機制。2024/7/23人工智能倫理-古天龍23G20:G20人工智能原則9.1政府組織人工智能倫理原則/規(guī)范(4)培養(yǎng)人的能力和為勞動力市場轉(zhuǎn)型做準備a)政府應(yīng)當與利益相關(guān)方共同做好應(yīng)對社會就業(yè)轉(zhuǎn)型的準備。政府應(yīng)當增強人們有效使用人工智能系統(tǒng)及與系統(tǒng)進行交互的能力,提供必要的技能培訓(xùn);b)政府應(yīng)當采取措施,加強社會溝通,確保在部署AI的過程中,工人們都能實現(xiàn)順利過渡。對工人進行全職業(yè)生涯的技能培訓(xùn),為落后淘汰者提供保障性支持,向提供進入新勞動市場的機會;c)政府應(yīng)當與利益相關(guān)方共同倡導(dǎo)負責(zé)任地使用人工智能,加強工人的安全,提升職業(yè)質(zhì)量,提高團隊意識和生產(chǎn)效率,確保人們能夠廣泛、平等地享受到AI帶來的益處。(5)實現(xiàn)可信賴AI的國際合作a)各國政府(包括發(fā)展中國家)應(yīng)當與利益相關(guān)方一起,積極合作,推進實施上述原則,推進負責(zé)任地部署和應(yīng)用可信人工智能;b)各國政府應(yīng)當在OECD框架或其他全球、地區(qū)性框架下共同促進人工智能知識共享,推動建立跨國、跨部門、開放多元主體的方案,使各國都能獲得長期的人工智能專業(yè)能力;c)政府應(yīng)當倡導(dǎo)為互操作及可信人工智能設(shè)立多元主體、各方一致的全球技術(shù)標準;d)政府應(yīng)鼓勵建立一個評估各國人工智能研發(fā)、部署水平的指標體系;使用該指標體系,充分收集信息,度量各國實施上述可信人工智能原則的程度。2024/7/23人工智能倫理-古天龍24政府組織人工智能倫理原則/規(guī)范目錄人工智能職業(yè)道德準則企業(yè)機構(gòu)人工智能倫理原則/規(guī)范1231中國:新一代人工智能倫理規(guī)范中國:新一代人工智能治理原則美國:人工智能應(yīng)用規(guī)范指南英國:英國人工智能發(fā)展的計劃、能力與志向歐盟:可信賴人工智能的倫理準則G20:G20人工智能原則“BeneficialAI”會議:阿西洛馬人工智能原則騰訊:智能時代的技術(shù)倫理觀北京智源人工智能研究院:人工智能北京共識微軟:人工智能開發(fā)的六大原則谷歌:人工智能使用原則2024/7/23人工智能倫理-古天龍252017年1月,“BeneficialAI”會議在美國加州阿西洛馬市)舉行,參加者多為業(yè)界最富盛名的領(lǐng)袖,如DeepMind首席執(zhí)行官DemisHassabis和Facebook人工智能負責(zé)人YannLeCun等。會議提出了著名的“阿西洛馬人工智能原則”,旨在確保人工智能為人類利益服務(wù)。全球2000多人(包括844名人工智能和機器人領(lǐng)域的專家)聯(lián)合簽署該原則,呼吁全世界的人工智能領(lǐng)域在發(fā)展人工智能技術(shù)的同時嚴格遵守這些原則,共同保障人類未來的利益和安全。“阿西洛馬人工智能原則”主要關(guān)注三大類問題:科研問題、倫理和價值觀以及長期問題。這三類問題又被細分為23項原則?!癇eneficialAI”會議:阿西洛馬人工智能原則9.2企業(yè)機構(gòu)人工智能倫理原則/規(guī)范2024/7/23人工智能倫理-古天龍26(一)科研問題(1)研究目的:人工智能研究的目標不是為了創(chuàng)造不受指揮的智能,而是有益的智能。(2)研究經(jīng)費:對人工智能進行投資的同時,要保證有經(jīng)費用于研究如何有益地使用人工智能,研究包括計算機科學(xué)、經(jīng)濟學(xué)、法律、倫理以及社會研究中的棘手問題,比如:如何使未來的人工智能系統(tǒng)變得高度穩(wěn)健,即系統(tǒng)會執(zhí)行我們所想的而不會發(fā)生故障或被入侵?如何通過自動化提升我們的繁榮程度,同時保持人們的資源和意志?如何升級我們的法制體系使其更公平高效,能夠跟得上人工智能的發(fā)展速度,并且能控制人工智能帶來的風(fēng)險?人工智能該與什么樣的價值體系保持一致?它該有怎樣的法律和倫理地位?(3)科學(xué)與政策的聯(lián)系:在人工智能研究員和政策制定者之間應(yīng)該要有富有建設(shè)性的和健康的交流。(4)科研文化:在人工智能研究員和開發(fā)者中應(yīng)該要培養(yǎng)起一種以合作、信任與透明為基礎(chǔ)的文化。(5)避免競爭:人工智能開發(fā)團隊之間應(yīng)該積極合作,避免有人鉆空子導(dǎo)致安全標準被削弱。“BeneficialAI”會議:阿西洛馬人工智能原則9.2企業(yè)機構(gòu)人工智能倫理原則/規(guī)范2024/7/23人工智能倫理-古天龍27(二)倫理和價值觀

(6)安全性:人工智能系統(tǒng)在它們整個的運轉(zhuǎn)周期內(nèi)應(yīng)該是安全可靠的,并且能可應(yīng)用和可行的被驗證。(7)故障透明性:如果一個人工智能系統(tǒng)造成了損害,那么造成損害的原因要能被確定。(8)司法透明性:任何自動系統(tǒng)參與的司法決策都應(yīng)提供令人滿意的解釋,可被人類監(jiān)管機構(gòu)審核。(9)負責(zé):高級人工智能系統(tǒng)的設(shè)計者和建造者,在道德影響上,是人工智能使用、誤用和動作的利益相關(guān)者,并有責(zé)任和機會去塑造那些影響。(10)價值觀一致:高度自主的人工智能系統(tǒng)應(yīng)該被設(shè)計,確保它們的目標和行為在整個運行過程里與人類的價值觀相一致。(11)人類價值觀:人工智能系統(tǒng)應(yīng)被設(shè)計,使其和人類尊嚴、權(quán)力、自由和文化多樣性的理想相一致。(12)個人隱私:人們應(yīng)該擁有權(quán)力去訪問、管理和控制他們產(chǎn)生的數(shù)據(jù),考慮到人工智能系統(tǒng)有分析和使用那些數(shù)據(jù)的能力。(13)自由和隱私:人工智能在個人數(shù)據(jù)上的應(yīng)用必須不能不當?shù)貏儕Z人們真實的或認為的自由。(14)分享利益:人工智能科技應(yīng)該惠及并賦權(quán)最大可能的多數(shù)人。(15)共同繁榮:由人工智能創(chuàng)造的經(jīng)濟繁榮應(yīng)該被廣泛地分享,惠及全人類。(16)人類控制:人類應(yīng)該來選擇如何和是否委派人工智能系統(tǒng)去完成人類選擇的目標。(17)非顛覆:高級人工智能被授予的權(quán)力應(yīng)該尊重和改進健康的社會所依賴的秩序,而不是顛覆。(18)人工智能軍備競賽:致命的自動化武器的軍備競賽應(yīng)該被禁止。9.2企業(yè)機構(gòu)人工智能倫理原則/規(guī)范2024/7/23人工智能倫理-古天龍28“BeneficialAI”會議:阿西洛馬人工智能原則(三)更長期的問題

(19)能力警惕:我們應(yīng)該避免關(guān)于未來人工智能能力上限的假設(shè),但這一點還沒有達成共識。(20)重要性:高級人工智能能夠代表地球生命歷史的一個重大變化,我們應(yīng)該用與之相稱的警惕和資源來管理。(21)風(fēng)險:人工智能系統(tǒng)造成的風(fēng)險,特別是災(zāi)難性的或有關(guān)人類存亡的風(fēng)險,必須有針對性地計劃和努力減輕可預(yù)見的沖擊。(22)遞歸自我完善:人工智能系統(tǒng)被設(shè)計成能夠以一種可以快速提升質(zhì)量和數(shù)量的方式進行自我升級或自我替代,這種方式必須受制于嚴格的安全和控制標準。(23)公共利益:超級智能的開發(fā)是為了服務(wù)廣泛認可的倫理觀念,并且是為了全人類的利益而不是一個國家和組織的利益。9.2企業(yè)機構(gòu)人工智能倫理原則/規(guī)范2024/7/23人工智能倫理-古天龍29“BeneficialAI”會議:阿西洛馬人工智能原則騰訊:智能時代的技術(shù)倫理觀2019年7月8日,騰訊研究院和騰訊AILab聯(lián)合研究形成了人工智能倫理報告《智能時代的技術(shù)倫理觀》,認為在“科技向善”理念之下,需要倡導(dǎo)面向人工智能的新的技術(shù)倫理觀,包含技術(shù)信任、個體幸福、社會可持續(xù)三個層面。9.2企業(yè)機構(gòu)人工智能倫理原則/規(guī)范(一)信任(trust):人工智能需要價值引導(dǎo),做到“四可”第一,可用(available)。發(fā)展人工智能的首要目的,是促進人類發(fā)展,給人類和人類社會帶來福祉,實現(xiàn)包容、普惠和可持續(xù)發(fā)展??捎眯赃€意味著以人為本的發(fā)展理念、人機共生、包容性以及公平無歧視,要求踐行“設(shè)計倫理”(ethicsbydesign)理念,將倫理價值融入到AI產(chǎn)品、服務(wù)的設(shè)計。第二,可靠(reliable)。人工智能應(yīng)當是安全可靠的,能夠防范網(wǎng)絡(luò)攻擊等惡意干擾和其它意外后果,實現(xiàn)安全、穩(wěn)定與可靠。一方面人工智能系統(tǒng)應(yīng)當經(jīng)過嚴格的測試和驗證,確保其性能達到合理預(yù)期;另一方面人工智能應(yīng)確保數(shù)字網(wǎng)絡(luò)安全、人身財產(chǎn)安全以及社會安全。2024/7/23人工智能倫理-古天龍30第三,可知(comprehensible)。研發(fā)人員需要致力于解決人工智能“黑盒”問題,實現(xiàn)可理解、可解釋的人工智能算法模型。此外,對于由人工智能系統(tǒng)做出的決策和行為,在適當?shù)臅r候應(yīng)能提供說明或者解釋,包括背后的邏輯和數(shù)據(jù),這要求記錄設(shè)計選擇和相關(guān)數(shù)據(jù),而不是一味追求技術(shù)透明。在發(fā)展和應(yīng)用人工智能過程中,應(yīng)為社會公眾參與創(chuàng)造機會,并支持個人權(quán)利的行使。第四,可控(controllable)。短期來看,發(fā)展和應(yīng)用人工智能應(yīng)確保其帶來的社會福祉顯著超過其可能給個人和社會帶來的可預(yù)期的風(fēng)險和負面影響,確保這些風(fēng)險和負面影響是可控的,并在風(fēng)險發(fā)生之后積極采取措施緩解、消除風(fēng)險及其影響。長期來看,雖然人們現(xiàn)在還無法預(yù)料通用人工智能和超級人工智能能否實現(xiàn)以及如何實現(xiàn),也無法完全預(yù)料其影響,但應(yīng)遵循預(yù)警原則,防范未來的風(fēng)險,使未來可能出現(xiàn)的通用人工智能和超級人工智能能夠服務(wù)于全人類的利益。9.2企業(yè)機構(gòu)人工智能倫理原則/規(guī)范(二)幸福(happiness):在人機共生的智能社會,確保人人都有追求數(shù)字福祉、幸福工作的權(quán)利各種智能機器正在成為人類社會不可或缺的一部分,和我們的生活和生產(chǎn)息息相關(guān)。這給人類與技術(shù)之間的關(guān)系提出了新的命題,需要深入思考智能社會如何實現(xiàn)人機共生。第一,保障個人的數(shù)字福祉,人人都有追求數(shù)字福祉的權(quán)利。一方面需要消除技術(shù)鴻溝和數(shù)字鴻溝,全球還有接近一半人口沒有接入互聯(lián)網(wǎng),老年人、殘疾人等弱勢群體未能充分享受到數(shù)字技術(shù)帶來的便利。另一方面減小、防止互聯(lián)網(wǎng)技術(shù)對個人的負面影響,網(wǎng)絡(luò)過度使用、信息繭房、假新聞等現(xiàn)象暴露出了數(shù)字產(chǎn)品對個人健康、認知、生活和工作等方面的負面影響,呼吁互聯(lián)網(wǎng)經(jīng)濟從吸引乃至攫取用戶注意力向維護、促進用戶數(shù)字福祉轉(zhuǎn)變,要求科技公司將對用戶數(shù)字福祉的促進融入到互聯(lián)網(wǎng)服務(wù)的設(shè)計中。2024/7/23人工智能倫理-古天龍31騰訊:智能時代的技術(shù)倫理觀第二,保障個人的工作和自由發(fā)展,人人都有追求幸福工作的權(quán)利。目前人工智能的經(jīng)濟影響依然相對有限,不可能很快造成大規(guī)模失業(yè),也不可能終結(jié)人類工作,因為技術(shù)采納和滲透往往需要數(shù)年甚至數(shù)十年,需要對生產(chǎn)流程、組織設(shè)計、商業(yè)模式、供應(yīng)鏈、法律制度、文化期待等各方面做出調(diào)整和改變。雖然短期內(nèi)人工智能可能影響部分常規(guī)性的、重復(fù)性的工作。長遠來看,以機器學(xué)習(xí)為代表的人工智能技術(shù)對人類社會、經(jīng)濟和工作的影響將是深刻的,但人類的角色和作用不會被削弱,相反會被加強和增強。未來二十年內(nèi),90%以上的工作或多或少都需要數(shù)字技能。人們現(xiàn)在需要做的,就是為當下和未來的勞動者提供適當?shù)募寄芙逃瑸檫^渡期勞動者提供再培訓(xùn)、再教育的公平機會,支持早期教育和終身學(xué)習(xí)。9.2企業(yè)機構(gòu)人工智能倫理原則/規(guī)范(三)可持續(xù)(sustainability):踐行“科技向善”,善用技術(shù)塑造健康包容可持續(xù)的智慧社會技術(shù)創(chuàng)新是推動人類和人類社會發(fā)展的最主要因素。而這一輪技術(shù)革命具有巨大的“向善”潛力,將對人類生活與社會進步帶來突破性的提升。在二十一世紀的今天,人類擁有的技術(shù)能力,以及這些技術(shù)所具有的“向善”潛力,是歷史上任何時候都無法比擬的。換言之,這些技術(shù)本身是“向善”的工具,可以成為一股“向善”的力量,用于解決人類發(fā)展面臨著的各種挑戰(zhàn),助力可持續(xù)發(fā)展目標。與此同時,人類所面臨的挑戰(zhàn)也是歷史上任何時候都無法比擬的。聯(lián)合國制定的《2030可持續(xù)發(fā)展議程》確立了17項可持續(xù)發(fā)展目標,實現(xiàn)這些目標需要解決相應(yīng)的問題和挑戰(zhàn),包括來自生態(tài)環(huán)境的,來自人類健康的,來自社會治理的,來自經(jīng)濟發(fā)展的,等等。2024/7/23人工智能倫理-古天龍32騰訊:智能時代的技術(shù)倫理觀將新技術(shù)應(yīng)用于這些方面,是正確的、“向善”的方向。例如,人工智能與醫(yī)療、教育、金融、政務(wù)民生、交通、城市治理、農(nóng)業(yè)、能源、環(huán)保等領(lǐng)域的結(jié)合,可以更好地改善人類生活,塑造健康包容可持續(xù)的智慧社會。因此,企業(yè)不能只顧財務(wù)表現(xiàn),只追求經(jīng)濟利益,還必須肩負社會責(zé)任,追求社會效益,服務(wù)于好的社會目的和社會福祉,給社會帶來積極貢獻,實現(xiàn)利益與價值的統(tǒng)一。包括有意識有目的地設(shè)計、研發(fā)、應(yīng)用技術(shù)來解決社會挑戰(zhàn)。如今,“人工智能造福人類”(AIforGood)已經(jīng)成為全球發(fā)展趨勢,呼吁與行動并存。以騰訊為例,自2018年1月在國內(nèi)首次提出“科技向善”以來,騰訊已將“科技向善”作為新的愿景與使命,并身體力行地在醫(yī)療、社會治理(如尋找失蹤人口)、FEW(糧食、能源、水源)等方面踐行“科技向善”理念。北京智源:人工智能北京共識2019年5月25日,北京智源人工智能研究院聯(lián)合北京大學(xué)、清華大學(xué)、中國科學(xué)院自動化研究所、中國科學(xué)院計算技術(shù)研究所等單位,共同發(fā)布《人工智能北京共識》。9.2企業(yè)機構(gòu)人工智能倫理原則/規(guī)范(一)研發(fā)人工智能的研究與開發(fā)應(yīng)遵循以下原則。(1)造福:人工智能應(yīng)被用來促進社會與人類文明的進步,推動自然與社會的可持續(xù)發(fā)展,造福全人類與環(huán)境,增進社會與生態(tài)的福祉。(2)服務(wù)于人:人工智能的研發(fā)應(yīng)服務(wù)于人類,符合人類價值觀,符合人類的整體利益;應(yīng)充分尊重人類的隱私、尊嚴、自由、自主、權(quán)利;人工智能不應(yīng)被用來針對、利用或傷害人類。(3)負責(zé):人工智能的研發(fā)者應(yīng)充分考慮并盡力降低、避免其成果所帶來的潛在倫理、法律、社會風(fēng)險與隱患。2024/7/23人工智能倫理-古天龍33(4)控制風(fēng)險:人工智能及產(chǎn)品的研發(fā)者應(yīng)不斷提升模型與系統(tǒng)的成熟度、魯棒性、可靠性、可控性,實現(xiàn)人工智能系統(tǒng)的數(shù)據(jù)安全、系統(tǒng)自身安全及對外部環(huán)境的安全。(5)合乎倫理:人工智能的研發(fā)應(yīng)采用符合倫理的設(shè)計方法以使得系統(tǒng)可信,包括但不限于:使系統(tǒng)盡可能公正,減少系統(tǒng)中的歧視與偏見;提高系統(tǒng)透明性,增強系統(tǒng)可解釋度、可預(yù)測性,使系統(tǒng)可追溯、可核查、可問責(zé)等。(6)多樣與包容:人工智能的發(fā)展應(yīng)該體現(xiàn)多樣性與包容性,盡可能地為惠及更多的人而設(shè)計,尤其是那些技術(shù)應(yīng)用中容易被忽視的、缺乏代表性的群體。(7)開放共享:鼓勵建立人工智能開放平臺,避免數(shù)據(jù)與平臺壟斷,最大范圍共享人工智能發(fā)展成果,促進不同地域、行業(yè)借助人工智能機會均等地發(fā)展。9.2企業(yè)機構(gòu)人工智能倫理原則/規(guī)范(二)使用人工智能的使用應(yīng)遵循以下原則。(8)善用與慎用:人工智能的使用者應(yīng)具備使人工智能系統(tǒng)按照設(shè)計運行所必需的知識和能力,并對其所可能帶來的潛在影響具備充分認識,避免誤用、濫用,以最大化人工智能帶來的益處、最小化其風(fēng)險。(9)知情與同意:應(yīng)采取措施確保人工智能系統(tǒng)的利益相關(guān)者對人工智能系統(tǒng)對其權(quán)益的影響做到充分的知情與同意。在未預(yù)期情況發(fā)生時,應(yīng)建立合理的數(shù)據(jù)與服務(wù)撤銷機制,以確保用戶自身權(quán)益不受侵害。(10)教育與培訓(xùn):人工智能的利益相關(guān)者應(yīng)能夠通過教育與培訓(xùn)在心理、情感、技能等各方面適應(yīng)人工智能發(fā)展帶來的影響。2024/7/23人工智能倫理-古天龍34(三)治理人工智能的治理應(yīng)遵循以下原則。(11)優(yōu)化就業(yè):對于人工智能對人類就業(yè)的潛在影響,應(yīng)采取包容的態(tài)度。對于一些可能對現(xiàn)有人類就業(yè)產(chǎn)生巨大沖擊的人工智能應(yīng)用的推廣,應(yīng)采取謹慎的態(tài)度。鼓勵探索人機協(xié)同,創(chuàng)造更能發(fā)揮人類優(yōu)勢和特點的新工作。(12)和諧與合作:應(yīng)積極開展合作建立跨學(xué)科、跨領(lǐng)域、跨部門、跨機構(gòu)、跨地域、全球性、綜合性的人工智能治理生態(tài)系統(tǒng),避免惡意競爭,共享治理經(jīng)驗,以優(yōu)化共生的理念共同應(yīng)對人工智能帶來的影響。(13)適應(yīng)與適度:應(yīng)積極考慮對人工智能準則、政策法規(guī)等的適應(yīng)性修訂,使之適應(yīng)人工智能的發(fā)展。人工智能治理措施應(yīng)與人工智能發(fā)展狀況相匹配,既不阻礙其合理利用,又確保其對社會和自然有益。(14)細化與落實:應(yīng)積極考慮人工智能不同場景、不同領(lǐng)域發(fā)展的具體情況,制定更加具體、細化的準則;促進人工智能準則及細則的實施,并貫穿于人工智能研發(fā)與應(yīng)用的整個生命周期。(15)長遠規(guī)劃:鼓勵對增強智能、通用智能和超級智能的潛在影響進行持續(xù)研究,以確保未來人工智能始終向?qū)ι鐣妥匀挥幸娴姆较虬l(fā)展。北京智源:人工智能北京共識微軟:人工智能政策建議2018年,《計算未來:人工智能及其社會角色》提出了微軟人工智能開發(fā)的六大原則:公平、可靠和安全、隱私和保障、包容、透明、責(zé)任。9.2企業(yè)機構(gòu)人工智能倫理原則/規(guī)范(一)公平性(Fairness)公平性是指對人而言,不同區(qū)域的人、不同等級的所有人在AI面前是平等的,不應(yīng)該有人被歧視。(二)可靠性和安全性(Reliability&Safety)可靠性和安全性指的是人工智能使用起來是安全的、可靠的、不作惡的。(三)隱私和保障(Privacy&Security)人工智能因為涉及到數(shù)據(jù),所以總是會引起個人隱私和數(shù)據(jù)安全方面的問題。(四)包容(Inclusiveness)人工智能必須考慮到包容性的道德原則,要考慮到世界上各種功能障礙的人群。(五)透明性(Transparency)在現(xiàn)階段,深度學(xué)習(xí)模型的準確度是所有機器學(xué)習(xí)模型中最高的,但在這里存在一個它是否透明的問題。(六)可追責(zé)(Accountability)人類應(yīng)該能夠?qū)θ斯ぶ悄芟到y(tǒng)采取了的行動、做的決策進行追責(zé)。2024/7/23人工智能倫理-古天龍35谷歌:人工智能使用原則2018年谷歌公布了使用人工智能的七項原則,以及四條底線。(一)七項原則涉及AI的七項原則包括對社會有益,避免制造或加強不公平的偏見,提前測試安全性,對人負責(zé),保證隱私,堅持科學(xué)高標準以及從主要用途、技術(shù)獨特性等方面來考慮。對此,谷歌認為人工智能應(yīng)用應(yīng)該實現(xiàn)的目標如下:(1)有益于社會新技術(shù)的擴展對社會的影響越來越大。AI領(lǐng)域的進展將對醫(yī)療、安全、能源、交通、制造業(yè)等大量行業(yè)帶來革命性影響。谷歌考慮AI技術(shù)的潛在開發(fā)和使用,以及大量社會和經(jīng)濟因素,決定將繼續(xù)進行其認為整體益處遠遠大于可預(yù)見風(fēng)險和弊端的領(lǐng)域。9.2企業(yè)機構(gòu)人工智能倫理原則/規(guī)范2024/7/23人工智能倫理-古天龍36(2)避免創(chuàng)造或增強偏見AI算法和數(shù)據(jù)集能夠反映、強化或減少偏見。谷歌意識到區(qū)分公平和不公平偏見不總是那么簡單,且在不同文化和社會背景下有所不同。谷歌將尋求避免對人類的不公平影響,尤其是在敏感話題方面,如種族、民族、性別、國家、收入、性取向、能力和政治或宗教信仰。

(3)為保障安全而建立和測試我們將繼續(xù)開發(fā)和應(yīng)用強大的安全保障和安全的實踐以避免不希望發(fā)生的導(dǎo)致風(fēng)險的結(jié)果。我們將把AI系統(tǒng)設(shè)計得適當?shù)闹斏鳎⑻剿靼凑誂I安全研究的最佳實踐來開發(fā)的方式。在合適的案例中,我們將在受限的環(huán)境中測試AI技術(shù),并在部署之后監(jiān)控它們的運行。谷歌:人工智能使用原則(4)對人們有說明義務(wù)我們將設(shè)計能為反饋、相關(guān)解釋和上訴提供合適機會的AI系統(tǒng)。我們的AI技術(shù)將服從合適的人類指導(dǎo)和控制。

(5)整合隱私設(shè)計原則我們將把我們的隱私原則整合進AI技術(shù)的開發(fā)和使用中。我們將為通知和準許提供機會,鼓勵架構(gòu)中結(jié)合隱私保護,并對數(shù)據(jù)的使用提供合適的透明度和控制。

(6)堅持高標準的科學(xué)探索技術(shù)創(chuàng)新根植于科學(xué)方法和開放式的調(diào)查、嚴謹?shù)乃伎?、誠信和合作。人工智能工具可能在生物、化學(xué)、醫(yī)藥、和環(huán)境科學(xué)等關(guān)鍵領(lǐng)域具有開拓新科學(xué)研究和知識的潛力。我們致力于促進人工智能的發(fā)展,追求高標準的科學(xué)探索。

(7)根據(jù)原則確定合適的應(yīng)用許多技術(shù)有多種用途。我們將努力限制可能有害或濫用的技術(shù)應(yīng)用。(二)四條底線谷歌同時提出不會設(shè)計或者將AI應(yīng)用到以下領(lǐng)域:(1)制造整體傷害之處。如一項技術(shù)可能造成傷害,我們只會在其好處大大超過傷害的情況下進行,并提供安全措施;(2)武器或其他用于直接傷害人類的產(chǎn)品;(3)收集使用信息,以實現(xiàn)違反國際規(guī)范的監(jiān)控的技術(shù);(4)目標違反被廣泛接受的國際法與人權(quán)原則的技術(shù)。9.2企業(yè)機構(gòu)人工智能倫理原則/規(guī)范2024/7/23人工智能倫理-古天龍37政府組織人工智能倫理原則/規(guī)范目錄人工智能職業(yè)道德準則企業(yè)機構(gòu)人工智能倫理原則/規(guī)范1231中國:新一代人工智能倫理規(guī)范中國:新一代人工智能治理原則美國:人工智能應(yīng)用規(guī)范指南英國:英國人工智能發(fā)展的計劃、能力與志向歐盟:可信賴人工智能的倫理準則G20:G20人工智能原則“BeneficialAI”會議:阿西洛馬人工智能原則騰訊:智能時代的技術(shù)倫理觀北京智源人工智能研究院:人工智能北京共識微軟:人工智能開發(fā)的六大原則谷歌:人工智能使用原則2024/7/23人工智能倫理-古天龍38中國:人工智能行業(yè)自律公約美國:人工智能學(xué)會職業(yè)道德與行為準則日本:人工智能學(xué)會倫理綱要中國:人工智能行業(yè)自律公約中國人工智能產(chǎn)業(yè)發(fā)展聯(lián)盟組織相關(guān)專家,研究形成了《人工智能行業(yè)自律公約》9.3人工智能職業(yè)道德準則第一章總則第一條以人為本。人工智能發(fā)展應(yīng)維護人類自由和尊嚴等基本權(quán)利,遵循以人為中心的原則,符合公認的道德倫理觀念,防止人工智能削弱或取代人類地位,確保人機協(xié)同的經(jīng)濟社會背景下人類的自主性和能動性。第二條增進福祉。人工智能發(fā)展應(yīng)促進社會與人類文明進步,推動自然與社會的可持續(xù)發(fā)展,創(chuàng)造更加智能的工作方式和生活方式,增進民生福祉。第三條公平公正。人工智能發(fā)展應(yīng)確保公平公正,促進機會均等,避免對特定群體或個人的偏見歧視,避免將弱勢人群置于更為不利的地位。第四條避免傷害。人工智能發(fā)展應(yīng)避免傷害社會、公眾利益和個人合法權(quán)益,發(fā)展人工智能不應(yīng)加重現(xiàn)有的危害或帶來新的危害。2024/7/23人工智能倫理-古天龍39第二章原則第五條可靠可控。確保人工智能系統(tǒng)在其整個生命周期內(nèi)安全、可靠、可控地運行。評估系統(tǒng)自身安全和潛在風(fēng)險,不斷提高系統(tǒng)的成熟度、穩(wěn)健性和抗干擾能力。確保系統(tǒng)可被人類監(jiān)督和及時接管,避免系統(tǒng)失控的負面影響。第六條透明可釋。不斷提高人工智能系統(tǒng)透明度,促進對人工智能系統(tǒng)的普遍理解。對于系統(tǒng)決策過程、數(shù)據(jù)構(gòu)成、系統(tǒng)開發(fā)者和技術(shù)實施者意圖,能夠在適當場景下予以描述、監(jiān)督和重現(xiàn),積極回應(yīng)遭受人工智能系統(tǒng)不利影響者的質(zhì)疑和意見。第七條保護隱私。堅持以合法、正當、必要的原則收集和使用個人信息,尊重和保護個人隱私,特別加強對于未成年人等特殊數(shù)據(jù)主體的隱私保護,強化技術(shù)手段,確保數(shù)據(jù)安全,防范數(shù)據(jù)泄露等風(fēng)險。中國:人工智能行業(yè)自律公約9.3人工智能職業(yè)道德準則第八條明確責(zé)任。不將人工智能系統(tǒng)用于非法或違反倫理的目的。明確人工智能研發(fā)、設(shè)計、制造、運營和服務(wù)等各環(huán)節(jié)主體的權(quán)利義務(wù),在損害發(fā)生時,能夠及時確定責(zé)任主體。倡導(dǎo)相關(guān)企業(yè)和組織在現(xiàn)有法律框架下創(chuàng)新保險機制,分擔人工智能產(chǎn)業(yè)發(fā)展帶來的社會風(fēng)險。第九條多元包容。促進人工智能系統(tǒng)的包容性、多樣性和普惠性。加強跨領(lǐng)域、跨學(xué)科、跨國界的合作交流,凝聚人工智能治理共識。力爭實現(xiàn)人工智能系統(tǒng)研發(fā)人員多元化,訓(xùn)練數(shù)據(jù)全面化。持續(xù)測試和驗證算法,不因人種、性別、國籍、年齡和宗教信仰等歧視用戶。2024/7/23人工智能倫理-古天龍40第三章行動第十條自律自治。強化企業(yè)的社會責(zé)任意識,在人工智能相關(guān)活動各環(huán)節(jié)中融入倫理原則,實施倫理自查。推動行業(yè)自治,探索制定人工智能行業(yè)從業(yè)人員行為規(guī)范,逐步建立健全行業(yè)監(jiān)督機制。第十一條制定標準。積極參與人工智能相關(guān)的國際、國家、行業(yè)和團體標準規(guī)范制定,增強安全可控、透明可釋、保護隱私、多元包容等倫理原則的可衡量性,并同步建設(shè)相應(yīng)測評能力。第十二條促進共享。鼓勵平臺、工具、數(shù)據(jù)、科教等資源的開源開放,共享人工智能發(fā)展紅利和治理經(jīng)驗,努力破除數(shù)據(jù)孤島和平臺壟斷,不斷縮小智能鴻溝,促進人工智能和實體經(jīng)濟深度融合。第十三條普及教育。積極參與面向公眾的人工智能普及教育、面向相關(guān)從業(yè)人員的道德倫理教育和面向崗位被替代人員的數(shù)字勞動技能再培訓(xùn),減輕公眾對人工智能技術(shù)的擔憂,提高公眾的安全防范意識,主動應(yīng)對現(xiàn)有和未來的勞動力挑戰(zhàn)問題。第十四條持續(xù)推動。在本公約實施過程中,不斷加強對人工智能發(fā)展的潛在風(fēng)險研判,適應(yīng)行業(yè)發(fā)展要求,持續(xù)完善。中國:人工智能行業(yè)自律公約9.3人工智能職業(yè)道德準則第四章附則第十五條公約簽署單位必須在開展人工智能相關(guān)活動中遵守法律法規(guī)和國家有關(guān)規(guī)定。第十六條鼓勵企業(yè)、高校、科研院所、行業(yè)組織和個人等共同踐行公約內(nèi)容,接受社會監(jiān)督。第十七條支持相關(guān)單位或組織基于本公約制訂各細分行業(yè)或領(lǐng)域的自律準則。第十八條本公約由中國人工智能產(chǎn)業(yè)發(fā)展聯(lián)盟負責(zé)制定、修訂和解釋。2024/7/23人工智能倫理-古天龍41美國人工智能學(xué)會職業(yè)道德與行為準則9.3人工智能職業(yè)道德準則美國人工智能學(xué)會(AAAI)提出了美國人工智能學(xué)會職業(yè)道德與行為準則“AAAICodeofProfession

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論