![《從原則到實(shí)踐:在動態(tài)監(jiān)管環(huán)境下負(fù)責(zé)任的人工智能》_第1頁](http://file4.renrendoc.com/view11/M03/28/0B/wKhkGWeTT-iAT7eWAAIQz02A9Iw533.jpg)
![《從原則到實(shí)踐:在動態(tài)監(jiān)管環(huán)境下負(fù)責(zé)任的人工智能》_第2頁](http://file4.renrendoc.com/view11/M03/28/0B/wKhkGWeTT-iAT7eWAAIQz02A9Iw5332.jpg)
![《從原則到實(shí)踐:在動態(tài)監(jiān)管環(huán)境下負(fù)責(zé)任的人工智能》_第3頁](http://file4.renrendoc.com/view11/M03/28/0B/wKhkGWeTT-iAT7eWAAIQz02A9Iw5333.jpg)
![《從原則到實(shí)踐:在動態(tài)監(jiān)管環(huán)境下負(fù)責(zé)任的人工智能》_第4頁](http://file4.renrendoc.com/view11/M03/28/0B/wKhkGWeTT-iAT7eWAAIQz02A9Iw5334.jpg)
![《從原則到實(shí)踐:在動態(tài)監(jiān)管環(huán)境下負(fù)責(zé)任的人工智能》_第5頁](http://file4.renrendoc.com/view11/M03/28/0B/wKhkGWeTT-iAT7eWAAIQz02A9Iw5335.jpg)
版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)
文檔簡介
目錄安全聲明 8前瞻性聲明和人工智能的發(fā)展前景 8文檔摘要 9執(zhí)行摘要 10引言 11范圍和適用性 12生成式人工智能法律和監(jiān)管的重點(diǎn)領(lǐng)域 14數(shù)據(jù)隱私和安全 14通用數(shù)據(jù)保護(hù)條例(GDPR)(歐盟) 14《加州消費(fèi)者隱私法案》/《加州隱私權(quán)法案》(CCPA/CPRA) 17歐盟人工智能法案(EUAIAct/EIAA) 22《醫(yī)療電子交換法案(HIPAA)》 31如何應(yīng)對生成式人工智能的幻覺對數(shù)據(jù)隱私、安全和倫理的影響 36國土安全部政策聲明139-07對生成式人工智能的影響 37聯(lián)邦貿(mào)易委員會政策宣傳與研究指導(dǎo): 37美國白宮管理和預(yù)算辦公室(OMB)在聯(lián)邦機(jī)構(gòu)使用人工智能的治理創(chuàng)新和風(fēng)險管理的政策 拜登總統(tǒng)關(guān)于安全、可靠和負(fù)責(zé)任地開發(fā)和使用人工智能的行政令3.非歧視與公平 部分現(xiàn)行反歧視法律法規(guī) 41監(jiān)管方面的挑戰(zhàn) 44監(jiān)管重點(diǎn)和技術(shù) 45新興監(jiān)管框架、標(biāo)準(zhǔn)和指南 48安全、責(zé)任和問責(zé) 51知識產(chǎn)權(quán) 54負(fù)責(zé)任人工智能的技術(shù)戰(zhàn)略、標(biāo)準(zhǔn)和最佳實(shí)踐 60公平與透明度 60安全與隱私 61魯棒性、可控性和合乎倫理的人工智能實(shí)踐 62組織如何利用這些標(biāo)準(zhǔn) 63負(fù)責(zé)任的生成式人工智能的技術(shù)保障(數(shù)據(jù)管理) 64案例研究--在實(shí)踐中展示透明度和問責(zé)制 66持續(xù)監(jiān)測與合規(guī) 68管理生成式人工智能的法律與倫理考量 69結(jié)論:填補(bǔ)人工智能治理空白,實(shí)現(xiàn)負(fù)責(zé)任的未來 69安全聲明本文僅供參考,不構(gòu)成法律建議。本研究文件由云安全聯(lián)盟編寫,探討了當(dāng)前圍繞人工智能的監(jiān)管治理情況。雖然本文涉及各種法律和監(jiān)管框架,但必須強(qiáng)調(diào)的是,所提供的信息不適用于任何特定情況的法律指導(dǎo)。人工智能的監(jiān)管環(huán)境正在迅速演變,法律法規(guī)的解釋和應(yīng)用會因各種因素而存在很大差異,這些因素包括:管轄范圍(國家或地區(qū))具體的情景(如行業(yè)、應(yīng)用場景等)具體的人工智能技術(shù)或應(yīng)用因此,云安全聯(lián)盟和本文作者強(qiáng)烈建議,如果有任何與人工智能開發(fā)、部署或使用相關(guān)的法律層面的問題或疑慮,應(yīng)單獨(dú)尋求法律顧問的意見。前瞻性聲明和人工智能的發(fā)展前景本文包含了一些可能具有前瞻性的陳述。為確定其適用性,我們鼓勵向相關(guān)的國家監(jiān)管機(jī)構(gòu)和法律顧問尋求指導(dǎo)。需要注意的是,這些陳述是作者和云安全聯(lián)盟基于當(dāng)前的知識和預(yù)期所做,受固有風(fēng)險、不確定性和假設(shè)的影響,部分陳述可能與實(shí)際結(jié)果存在差異。以下是可能影響人工智能領(lǐng)域未來發(fā)展和相關(guān)監(jiān)管環(huán)境的一些重要因素,也是可能影響本文件中前瞻性陳述準(zhǔn)確性的因素所在:技術(shù)的快速進(jìn)步:人工智能領(lǐng)域不斷發(fā)展,新的技術(shù)和應(yīng)用層出不窮,很難預(yù)測這些技術(shù)進(jìn)步的確切軌跡及其對人工智能監(jiān)管各方面的影響。監(jiān)管框架的不確定性:對人工智能的監(jiān)管方法仍在開發(fā),不同管轄范圍內(nèi)對人工智能開發(fā)、部署和使用的具體規(guī)定可能存在較大差異,并可能隨著時間的推移而發(fā)生變化。新興的倫理考量:隨著人工智能應(yīng)用變得越來越復(fù)雜,可能會出現(xiàn)新的倫理考量,促使更多有關(guān)負(fù)責(zé)任的開發(fā)和使用這些技術(shù)的法規(guī)或指導(dǎo)原則出臺。經(jīng)濟(jì)和社會因素:整體經(jīng)濟(jì)環(huán)境和對人工智能的社會態(tài)度,可能會影響新技術(shù)的開發(fā)、采用及監(jiān)管環(huán)境。這些關(guān)于前瞻性的陳述僅反映作者和云安全聯(lián)盟本文件發(fā)布之日的觀點(diǎn),作者和云安全聯(lián)盟不承擔(dān)更新或修改本文檔中任何前瞻性陳述以反映未來事件或情況的任何責(zé)任。請讀者不要過度依賴這些陳述。文檔摘要本文圍繞人工智能和生成式人工智能(GenAI)的法律和監(jiān)管環(huán)境論述。主要強(qiáng)調(diào)了生成式人工智能在復(fù)雜多變的環(huán)境中面臨的挑戰(zhàn),這些挑戰(zhàn)源于生成式人工智能自身的多樣化應(yīng)用、全球監(jiān)管機(jī)構(gòu)采取的不同監(jiān)管方法,以及對現(xiàn)有規(guī)定的延遲適應(yīng)。本文旨在為各組織提供基本知識,幫助其從根本上了解自身的現(xiàn)狀,并為他們在快速變化的負(fù)責(zé)任、合規(guī)地使用人工智能方面的需求提供指導(dǎo)。本文探討了部分現(xiàn)行法規(guī),并闡述了在地區(qū)、國家和國際層面開發(fā)和部署負(fù)責(zé)任的人工智能的注意事項和最佳實(shí)踐。本文高度概括了當(dāng)前人工智能(包括生成式人工智能(GenAI))的法律和監(jiān)管情況。雖然內(nèi)容并非詳盡無遺,但對于組織來說,這是一個了解自身現(xiàn)狀并確定負(fù)責(zé)任和合規(guī)的使用生成式人工智能應(yīng)該考慮哪些關(guān)鍵因素的起點(diǎn)。由于技術(shù)的不斷進(jìn)步以及法律和政策環(huán)境的演變,提供一份完整的概述是具有挑戰(zhàn)性的。因此,我們建議將這些信息作為了解不斷演變的人工智能法規(guī)和監(jiān)管機(jī)構(gòu)的基礎(chǔ)。重要的是要意識到,人工智能法規(guī)來自全球各級政府和司法管轄區(qū)。此外,盡管數(shù)據(jù)隱私和反歧視法規(guī)等法律不是專門為人工智能設(shè)計,但這些法律將決定人工智能的使用范圍和方式。例如,在美國,人工智能將受到城市、州和聯(lián)邦法律、政府行為、行政令、自愿行業(yè)協(xié)議甚至普通法的監(jiān)管。在準(zhǔn)備人工智能項目時,需要考慮到人工智能法規(guī)的起源并不總是直觀的,因此需要細(xì)致分析。首個具有深遠(yuǎn)影響的法律框架是歐盟《人工智能法案》,因為它保障了個人和企業(yè)的安全及基本權(quán)利。如果某些人工智能應(yīng)用干擾或威脅到公民權(quán)利,則會遭到禁止。如大語言模型等高風(fēng)險人工智能系統(tǒng)可能會對健康、安全、基本權(quán)利、環(huán)境、民主和法治造成重大損害,預(yù)計將出臺相關(guān)法規(guī)加以監(jiān)管。執(zhí)行摘要人工智能正在迅速改變我們的世界,并且具有重塑社會基本結(jié)構(gòu)的巨大潛力。然而,這種變革力量也帶來一個嚴(yán)峻的挑戰(zhàn):當(dāng)前的法律和監(jiān)管環(huán)境很難跟上人工智能,尤其是生成式人工智能爆炸性增長的步伐。本文旨在提供現(xiàn)有法律法規(guī)及其對人工智能開發(fā)、部署和使用影響的高層次概覽。我們的目標(biāo)是確定立法滯后的領(lǐng)域,并尋求實(shí)際的方法部署負(fù)責(zé)任的人工智能。當(dāng)前的環(huán)境缺乏完善的立法,在解決日益復(fù)雜的人工智能功能的潛在風(fēng)險方面存在差距。這導(dǎo)致現(xiàn)有規(guī)定,如《通用數(shù)據(jù)保護(hù)條例(GDPR)》和《加州消費(fèi)者隱私法案(CCPA)》/《加州隱私權(quán)法案(CPRA)》,雖然為數(shù)據(jù)隱私提供了基礎(chǔ)保障,但并未針對人工智能開發(fā)的獨(dú)特挑戰(zhàn)提供具體的指導(dǎo),而且不足以滿足例外情況下的需求。隨著大型科技巨頭計劃向人工智能投資數(shù)千億,預(yù)計技術(shù)創(chuàng)新的步伐不會放緩,技術(shù)革新的快速步伐已經(jīng)超出了立法適應(yīng)的能力。一個令人擔(dān)憂的缺口正在出現(xiàn):生成式人工智能的廣泛使用,無論是個人還是專業(yè)用途,都伴隨著治理缺失的問題。惡意行為者已經(jīng)開始利用生成式人工智能執(zhí)行復(fù)雜的攻擊,公司也將生成式人工智能視為一種競爭優(yōu)勢,從而進(jìn)一步加快了生成式人工智能的應(yīng)用。盡管這種快速應(yīng)用令人興奮,但需要伴隨著負(fù)責(zé)任的人工智能開發(fā)實(shí)踐,而這些實(shí)踐不能抑制創(chuàng)新。理想的解決方案是營造一個鼓勵負(fù)責(zé)任的、透明和可解釋的人工智能使用的全球環(huán)境,并輔以清晰實(shí)用的指導(dǎo)原則做支持。為了彌合人工智能的無限潛力與負(fù)責(zé)任開發(fā)需求之間的差距,我們需要一種三管齊下的合作方法:所有科技公司對負(fù)責(zé)任的人工智能做出承諾,政策制定者提供明確的指導(dǎo),立法機(jī)構(gòu)制定有效的法規(guī)。本文以立法和法規(guī)為重點(diǎn),開啟了關(guān)于人工智能治理的重要論述。它為涉足人工智能領(lǐng)域的從業(yè)者和企業(yè)提供了對當(dāng)前人工智能治理環(huán)境及其不足之處的基礎(chǔ)理解。旨在通過強(qiáng)調(diào)這些不足,促進(jìn)一場關(guān)于負(fù)責(zé)任人工智能開發(fā)和應(yīng)用所需法律框架的公開討論。引言人工智能領(lǐng)域的迅速擴(kuò)展,需要法律和監(jiān)管環(huán)境的不斷演變,以確保在保護(hù)個人和社會的同時,負(fù)責(zé)任地發(fā)展、部署和創(chuàng)新。了解人工智能的道德和法律框架有助于組織實(shí)現(xiàn)三個關(guān)鍵目標(biāo):建立信任和品牌聲譽(yù):通過展示透明、負(fù)責(zé)任的人工智能實(shí)踐,與利益相關(guān)者建立信任,并提升品牌聲譽(yù)。降低風(fēng)險:積極采用這些框架并利用基于風(fēng)險的方法,有助于降低與不負(fù)責(zé)任的人工智能使用相關(guān)的潛在的法律、聲譽(yù)和財務(wù)風(fēng)險,從而保護(hù)組織和個人。促進(jìn)負(fù)責(zé)任的創(chuàng)新:通過堅持最佳實(shí)踐、保持透明度、問責(zé)制和建立強(qiáng)大的治理結(jié)構(gòu),組織可以培育一種負(fù)責(zé)任的和安全的人工智能創(chuàng)新文化,確保人工智能在發(fā)展的同時對社會產(chǎn)生積極影響。通過多樣化的團(tuán)隊、全面的文檔記錄和人類監(jiān)督,負(fù)責(zé)任的人工智能將通過減輕偏見、及早發(fā)現(xiàn)問題以及與現(xiàn)實(shí)世界保持一致,增強(qiáng)模型表現(xiàn)。范圍和適用性由于人工智能,更具體地說是生成式人工智能(GenAI)本身具有多樣性,如何應(yīng)對復(fù)雜的法律環(huán)境就成為了一個巨大的挑戰(zhàn)。本文深入探討了圍繞人工智能的監(jiān)管環(huán)境,涵蓋了諸如生成逼真文本格式(代碼、腳本、文章)的深度學(xué)習(xí)模型、處理視覺內(nèi)容(面部識別、深度偽造)的計算機(jī)視覺應(yīng)用、穩(wěn)定擴(kuò)散(文本到圖像模型)以及在自主系統(tǒng)(自動駕駛汽車、機(jī)器人)中使用的強(qiáng)化學(xué)習(xí)算法等多樣化系統(tǒng)。更廣泛的類別,如生成式對抗網(wǎng)絡(luò)和大語言模型等,是眾多生成式人工智能應(yīng)用的基礎(chǔ),要求在監(jiān)管中將其納入考慮。由于現(xiàn)行立法在適應(yīng)這一動態(tài)環(huán)境方面面臨挑戰(zhàn),因此有必要采取細(xì)致入微的方法管理這一廣泛、快速發(fā)展的系統(tǒng)。由于競爭壓力,快速發(fā)展的技術(shù)滲透到我們的生活和商業(yè)實(shí)踐中,但與此同時,法律框架卻不完善且適應(yīng)緩慢,造成了一種嚴(yán)峻的局面。本文將探討:最廣泛使用的現(xiàn)有法規(guī)如何參與解決生成式人工智能的特定領(lǐng)域問題。制定新法規(guī)面臨的一些挑戰(zhàn)和機(jī)遇。使用可解釋的人工智能技術(shù)制定負(fù)責(zé)任的人工智能原則的高級建議和最佳實(shí)踐。本文采用階段性的方法分析人工智能治理,重點(diǎn)關(guān)注以下幾個方面。表1:治理領(lǐng)域范圍現(xiàn)行文件未來考慮因素國家最高級別的政府機(jī)構(gòu)或聯(lián)邦政府的立法:美國:行政令(例如,維持美國在人工智能領(lǐng)域的領(lǐng)導(dǎo)地位,以及關(guān)于安全、可靠和值得信賴的開發(fā)與部署人工智能技術(shù)的行政令)國會法案(例如,2023年算法責(zé)任法案(提案)歐盟委員會政策文件(例如,《可信人工智能倫理指南》)法規(guī)(例如,《人工智能法案》)國家層面:亞太地區(qū)的一些規(guī)定:中國(已頒布)(科學(xué)技術(shù)部)、日本(內(nèi)閣府、韓國(科學(xué)技術(shù)信息通信部、新加坡、印度的國家政策是“全民人工智能”其他正在制定人工智能政策的國家(加拿大、英國、澳大利亞)主要地區(qū)性法規(guī):國際組織:正在探索框架的有:加州消費(fèi)者隱私法案(CCPA)》,由《加州經(jīng)濟(jì)合作與發(fā)展組織(關(guān)于人工智能的建隱私權(quán)法案(CPRA)》修訂議)《通用數(shù)據(jù)保護(hù)條例(GDPR)》聯(lián)合國教科文組織(關(guān)于人工智能倫理的建議)。全球人工智能合作伙伴關(guān)系(GPAI)匯集來自科學(xué)界、產(chǎn)業(yè)界、民間社會、政府、國際組織和學(xué)術(shù)界的專長,以促進(jìn)國際合作。ISO/IEC42001:2023(人工智能管理系統(tǒng)標(biāo)準(zhǔn))OWASP大語言模型應(yīng)用的10大安全風(fēng)險生成式人工智能法律和監(jiān)管的重點(diǎn)領(lǐng)域數(shù)據(jù)隱私和安全生成式人工智能在數(shù)據(jù)隱私和安全領(lǐng)域存在獨(dú)特的挑戰(zhàn),能夠從大量數(shù)據(jù)中學(xué)習(xí),從而引發(fā)了人們對在整個人工智能開發(fā)和部署生命周期中如何收集、存儲、使用、共享和傳輸個人信息的關(guān)注。包括《通用數(shù)據(jù)保護(hù)條例(GDPR)》、《加州消費(fèi)者隱私法案(CCPA)》、《加州隱私權(quán)法案(CPRA)》和《醫(yī)療電子交換法案(HIPAA)》在內(nèi)的多項現(xiàn)行法律法規(guī),旨在保護(hù)個人隱私和數(shù)據(jù)安全,具體如下:通用數(shù)據(jù)保護(hù)條例(GDPR)(歐盟)適用范圍:《通用數(shù)據(jù)保護(hù)條例》適用于在歐洲經(jīng)濟(jì)區(qū)(EEA)內(nèi)處理個人數(shù)據(jù)的任何組織。主要條款:處理的合法依據(jù)、公平性和透明度:組織處理個人數(shù)據(jù)必須有合法依據(jù)(如用戶同意、正當(dāng)利益等。它要求向個人明確提供關(guān)于數(shù)據(jù)收集和處理目的的具體的信息。數(shù)據(jù)最小化:將個人數(shù)據(jù)的收集和保留限制在所述目的所規(guī)定的范圍內(nèi)。數(shù)據(jù)主體的權(quán)利:授予個人對其個人數(shù)據(jù)的各種權(quán)利,包括訪問、更正、刪除和限制處理的權(quán)利。安全措施:要求組織采取適當(dāng)?shù)募夹g(shù)和措施來保護(hù)個人數(shù)據(jù)免遭未經(jīng)授權(quán)的訪問、披露、更改或破壞。自動化個體決策制定,包括畫像:對于包括畫像的自動化決策制定,必須征得數(shù)據(jù)主體的明確同意(《通用數(shù)據(jù)保護(hù)條例》第22條)。生成式人工智能的《通用數(shù)據(jù)保護(hù)條例》合規(guī)性:歐盟《通用數(shù)據(jù)保護(hù)條例》要求在處理個人數(shù)據(jù)(包括用于人工智能系統(tǒng)的數(shù)據(jù))時必須征得數(shù)據(jù)主體同意。此外,數(shù)據(jù)保護(hù)的要求意味著系統(tǒng)必須遵守《通用數(shù)據(jù)保護(hù)條例》原則,如合法性、公平性、透明度、目的限制、數(shù)據(jù)最小化、準(zhǔn)確性、存儲限制、完整性和保密性。合法、透明的數(shù)據(jù)收集和處理對訓(xùn)練數(shù)據(jù)和提示詞數(shù)據(jù)的限制:《通用數(shù)據(jù)保護(hù)條例》概述了以下處理數(shù)據(jù)的主要原則:目的限制:數(shù)據(jù)的收集和使用只能用于特定、明確界定或兼容的目的。
必要性:只能收集和使用實(shí)現(xiàn)這些目的所必需的個人數(shù)據(jù)。數(shù)據(jù)最小化:應(yīng)盡量減少收集和使用的個人數(shù)據(jù)量,只收集絕對必要的數(shù)據(jù)。存儲時限:必須盡可能縮短個人數(shù)據(jù)的存儲時間,并且必須定期設(shè)定和審查存儲期限。訓(xùn)練數(shù)據(jù)(以及提示詞數(shù)據(jù),它們也可能成為“訓(xùn)練數(shù)據(jù)”),即只在實(shí)際需要的范圍內(nèi)收集和使用數(shù)據(jù),以達(dá)到特定的訓(xùn)練目標(biāo)。知情同意:《通用數(shù)據(jù)保護(hù)條例》要求在收集和處理用于訓(xùn)練生成式人工智能模型的個人數(shù)據(jù)時獲得用戶的明確同意。這可以確保個人了解其數(shù)據(jù)將如何被使用(例如,用于模型訓(xùn)練或微調(diào),并有權(quán)拒絕。人工智能開發(fā)者必須為那些數(shù)據(jù)被人工智能/機(jī)器學(xué)習(xí)系統(tǒng)處理的個人提供行使這些權(quán)利的便利。透明度:歐盟的個人對其個人數(shù)據(jù)享有訪問、更正、刪除、限制處理和數(shù)據(jù)可攜性的權(quán)利。組織在人工智能/機(jī)器學(xué)習(xí)系統(tǒng)中使用個人數(shù)據(jù)時必須保證其目的、法律依據(jù)和數(shù)據(jù)保留期限的透明,讓用戶了解他們的數(shù)據(jù)是如何貢獻(xiàn)到生成的輸出結(jié)果中的。數(shù)據(jù)安全與責(zé)任數(shù)據(jù)安全:《通用數(shù)據(jù)保護(hù)條例》第25條規(guī)定,組織必須采取“隱私融入設(shè)計原則”和“默認(rèn)隱私保護(hù)”的方法,并實(shí)施適當(dāng)?shù)募夹g(shù)和組織措施,以確?;A(chǔ)模型中使用的個人數(shù)據(jù)的安全,包括加密、訪問控制和數(shù)據(jù)泄露通知程序。此外,由于大語言模型是整個供應(yīng)鏈的一部分,保證其安全性需要特別關(guān)注對抗性攻擊、數(shù)據(jù)中毒和模型偏差等惡意技術(shù)。責(zé)任:組織對在啟用生成式人工智能的系統(tǒng)中使用個人數(shù)據(jù)負(fù)有責(zé)任,并必須證明其符合《通用數(shù)據(jù)保護(hù)條例》,這包括執(zhí)行數(shù)據(jù)保護(hù)影響評估和維護(hù)適當(dāng)?shù)挠涗?。?shù)據(jù)匿名化和假名化:雖然匿名化和假名化有助于降低隱私風(fēng)險,但在生成式人工智能的背景下,它們并不能每一次都完美應(yīng)對,因為即使是有限的信息也可用于推理身份。生成式人工智能輸出的潛在危害:雖然《通用數(shù)據(jù)保護(hù)條例》看起來似乎只影響用于訓(xùn)練模型的數(shù)據(jù),但實(shí)際上該法規(guī)也適用于模型輸出。這包括處理意外生成的輸出和惡意使用深度偽造技術(shù),這些都可能損害個人聲譽(yù)和違反道德原則。所以制定明確的指導(dǎo)方針和保障措施對于確保負(fù)責(zé)任地開發(fā)和使用生成式人工智能、降低風(fēng)險和保護(hù)個人免受潛在傷害至關(guān)重要。個人權(quán)利和控制訪問和更正權(quán):個人有權(quán)了解和訪問生成式人工智能使用的其個人數(shù)據(jù),并在數(shù)據(jù)不準(zhǔn)確或不完整時要求更正。這包括個人直接提供的信息和通過與生成式人工智能互動交互而生成的數(shù)據(jù)。然而,與傳統(tǒng)數(shù)據(jù)庫不同的是,糾正人工智能訓(xùn)練數(shù)據(jù)具有挑戰(zhàn)性,因為其數(shù)據(jù)規(guī)模龐大且相互關(guān)聯(lián),這可能需要重新訓(xùn)練整個模型,并可能導(dǎo)致意想不到的后果。迄今為止,糾正人工智能模型訓(xùn)練數(shù)據(jù)中已經(jīng)獲取的不準(zhǔn)確信息的可行性尚不明確。雖然有關(guān)數(shù)據(jù)標(biāo)記和隱私保護(hù)技術(shù)的研究仍在進(jìn)行,但確保"更正權(quán)"仍然是一個開放性的挑戰(zhàn),應(yīng)持續(xù)監(jiān)督促進(jìn)對這一需求的研究。刪除權(quán)(被遺忘權(quán)):個人有權(quán)要求刪除其個人數(shù)據(jù),這可能會影響人工智能/機(jī)器學(xué)習(xí)系統(tǒng)模型的訓(xùn)練和使用方式。由于個人數(shù)據(jù)在訓(xùn)練后可能會深嵌于模型內(nèi)部復(fù)雜的表征中,因此落實(shí)這項權(quán)利對這些模型是一項獨(dú)特的挑戰(zhàn)。目前,從訓(xùn)練好的模型中移除特定數(shù)據(jù)點(diǎn)的技術(shù)可行性和倫理影響仍不明確,缺乏可靠的流程和既定的指導(dǎo)來處理此類請求,這就引發(fā)了如何平衡個人隱私與模型整體功能和社會利益這一關(guān)鍵問題。反對權(quán):個人有權(quán)反對出于特定目的處理其個人數(shù)據(jù),包括在生成式人工智能的背景下。然而,在生成式人工智能的背景下行使這項權(quán)利面臨著獨(dú)特的挑戰(zhàn)。目前還沒有可靠的標(biāo)準(zhǔn)化流程可以在模型訓(xùn)練完成后將個人數(shù)據(jù)從訓(xùn)練集中刪除。此外,反對權(quán)可能只適用于特定的數(shù)據(jù)元素或特定的目的,而不一定適用于用于訓(xùn)練模型的所有信息,這可能會限制個人反對權(quán)的范圍。這凸顯了開發(fā)透明且負(fù)責(zé)任的生成式人工智能以尊重個人隱私權(quán)的必要性。合規(guī)性:《通用數(shù)據(jù)保護(hù)條例》要求對數(shù)據(jù)處理活動執(zhí)行數(shù)據(jù)隱私影響評估(DPIA),這也適用于人工智能系統(tǒng)的數(shù)據(jù)處理及其對數(shù)據(jù)主體造成的風(fēng)險。在用于訓(xùn)練大型生成式模型的大數(shù)據(jù)集中識別個人數(shù)據(jù)非常困難,目前還不清楚歐盟將如何處理生成式人工智能中的《通用數(shù)據(jù)保護(hù)條例》合規(guī)性問題。自動化決策管理治理:《通用數(shù)據(jù)保護(hù)條例》第22條規(guī)定,個人有權(quán)反對對其具有法律影響或重大影響的對個人資料分析執(zhí)行的自動化決策。這意味著個人有權(quán)選擇退出自動化決策或?qū)ψ詣記Q策做出的決定提出異議,尤其是當(dāng)自動化決策可能引起偏見而對其生活產(chǎn)生重大影響的時候。因此,使用自動化決策的公司必須有人工申訴審查流程。CCPA/CPRA)如全球年收入超過2500萬美元)并有權(quán)要求刪除或更正信息以確保信息準(zhǔn)確性。企業(yè)必須將收集和處理個人信息的范圍限制在披露目的所必需的范圍內(nèi)?!都又菹M(fèi)者隱私法案》的適用范圍還包括依賴于這些數(shù)據(jù)的人工智能/機(jī)器學(xué)習(xí)系統(tǒng),要求企業(yè)確保這些系統(tǒng)在涉及加州居民個人信息的訓(xùn)練和輸出生成過程中遵守隱私要求。企業(yè)在利用加州居民的個人信息開發(fā)和部署生成式人工智能模型時,必須絕對遵守《加州消費(fèi)者隱私法案》的義務(wù)。主要條款:知情權(quán):允許消費(fèi)者要求了解所收集的個人信息的類別和具體內(nèi)容。刪除權(quán):賦予消費(fèi)者要求刪除企業(yè)收集的個人數(shù)據(jù)的權(quán)利。退出權(quán):賦予消費(fèi)者拒絕其個人信息被出售的權(quán)利。注:《加州消費(fèi)者隱私法案》和《加州隱私權(quán)法案》對消費(fèi)者數(shù)據(jù)的定義比常用的“個人可識別信息”(PII)更為寬泛。因此,本文采用“個人信息”(PI)這一常指的是可以直接識別個人身份的具體數(shù)據(jù),如姓名或社會保險號。然而,《加州消費(fèi)者隱私法案》對個人信息的定義涵蓋了更廣泛的數(shù)據(jù)內(nèi)容,包括瀏覽歷史記錄、IP地址或地理位置數(shù)據(jù)等,這些數(shù)據(jù)本身不足以識別個人身份,但在與其他信息結(jié)合后可用于識別個人身份。因此,“個人信息”《加州消費(fèi)者隱私法案》有關(guān)消費(fèi)者數(shù)據(jù)隱私的意圖。生成式人工智能對《加州消費(fèi)者隱私法案》/《加州隱私權(quán)法案》合規(guī)性:數(shù)據(jù)權(quán)利的關(guān)注可能會給生成式人工智能帶來重大的數(shù)據(jù)管理挑戰(zhàn),需要生成式人工智能采取謹(jǐn)慎的做法確保自身的合規(guī)性,并注意可能影響模型的性能和民的個人數(shù)據(jù)。一些注意事項如下:/的數(shù)據(jù),以及由此產(chǎn)生的包含個人信息的輸出結(jié)果。加州居民有權(quán)根據(jù)《加州用于用于訓(xùn)練模型的數(shù)據(jù),但需要注意區(qū)分包含個人信息的輸出與更通用的模型輸出。加州居民有權(quán)了解出于人工智能目的收集了他們哪些個人信息、收集/加州隱私權(quán)法案》不一定要求披露具體的訓(xùn)練數(shù)據(jù)來源,但強(qiáng)調(diào)了透明度的重要性。性至關(guān)重要,尤其是考慮到生成式人工智能通常使用龐大的數(shù)據(jù)集,復(fù)雜的數(shù)據(jù)來源追蹤對于滿足“訪問權(quán)”和“知情權(quán)”請求變得困難。強(qiáng)大的數(shù)據(jù)治理實(shí)踐、適當(dāng)?shù)挠涗浺约翱赡苁褂媚涿挠?xùn)練數(shù)據(jù)披露可有效應(yīng)對這些挑戰(zhàn)。消費(fèi)者權(quán)利的特定權(quán)利,包括訪問、刪除、更正其個人信息以及拒絕個人信息被出售的權(quán)利。具體內(nèi)容如下:訓(xùn)練的數(shù)據(jù)類別(如文本、圖像、音頻或姓名、位置等),確定個人信息的來源(如用戶互動、購買/第三方數(shù)據(jù)集、社交媒體、公共記錄等)人信息的用途(如模型訓(xùn)練、性能評估等)。訪問權(quán):用戶可以要求訪問在訓(xùn)練數(shù)據(jù)中使用到的具體數(shù)據(jù)點(diǎn),訓(xùn)練過程制,如果采用匿名或聚合技術(shù),這在技術(shù)上可能具有挑戰(zhàn)性。響:性能和適用范圍?;蚓庉?,這可能會影響模型的準(zhǔn)確性和可解釋性。信息呢?實(shí)際上,這意味著需要從頭開始重新訓(xùn)練大型語言模型,從而既不經(jīng)濟(jì),也不環(huán)保。從技術(shù)可行性角度看,在復(fù)雜的訓(xùn)練數(shù)據(jù)集中識別并移除單個數(shù)據(jù)點(diǎn)可能計算成本高、耗時長,甚至是對于高級人工智能系統(tǒng)(如大語言模型)來說有時根本不可能實(shí)現(xiàn)的。如何處理那些需要移除數(shù)據(jù)的訓(xùn)練模型這一問題至今仍然沒有答案。拒絕出售權(quán):如果生成的人工智能輸出內(nèi)容(如“深度偽造技術(shù)”)被認(rèn)為符/“個人信息”拒絕將這些信息出售或披露給第三方。這涉及在《加州消費(fèi)者隱私法案》框架下明確定義生成式人工智能輸出并對其分類,可能需要進(jìn)一步的澄清和法律解釋。合規(guī)與執(zhí)行遵守《加州消費(fèi)者隱私法案》/《加州隱私權(quán)法案》主要涉及實(shí)施技術(shù)和程序性保障措施保護(hù)個人信息。加州隱私保護(hù)局(CPPA)2020施和執(zhí)行《加州隱私權(quán)法案》和《加州消費(fèi)者隱私法案》。雖然目前還沒有發(fā)布專門針對人工智能管理的具體法規(guī),但以上兩項重要進(jìn)展已經(jīng)涉及人工智能和生成式人工智能。ADMT)法規(guī)草案該草案于2023年11月發(fā)布,重點(diǎn)關(guān)注負(fù)責(zé)任的使用自動化決策技術(shù)(ADMT),其中包括用于面向消費(fèi)者決策的多種形式的人工智能,其性質(zhì)類似于《通用數(shù)據(jù)保護(hù)條例》第22條。該草案概述了對企業(yè)使用自動化決策技術(shù)的要求,例如:消費(fèi)者。拒絕權(quán):允許消費(fèi)者選擇拒絕僅由自動化決策技術(shù)做出的決定。于他們的決策信息,并解釋這些決策是如何形成的。技術(shù)可能帶來的的潛在危害,如偏見和歧視。雖然該規(guī)定沒有明確提及“生成式人工智能”,但它適用于任何用于對消費(fèi)者做出自動化決策的人工智能技術(shù),以及企業(yè)在加州部署和使用生成式人工智能的方式。加州關(guān)于生成式人工智能的行政令2023年10月,加利福尼亞州州長加文-紐森發(fā)布了一項行政令,成立了虛假信息的傳播,強(qiáng)調(diào)了負(fù)責(zé)任的部署生成式人工智能的必要性。:識別部署生成式人工智能的潛在益處和風(fēng)險。制定使用生成式人工智能的倫理原則。實(shí)施保障措施以預(yù)防潛在危害。雖然該行政令并不直接監(jiān)管私營企業(yè),但它標(biāo)志著加州以積極主動的方式了解并可能塑造生成式人工智能未來的發(fā)展和使用態(tài)勢。CPPA要求。這強(qiáng)調(diào)了在促進(jìn)負(fù)責(zé)任地開發(fā)和部署生成式人工智能的同時,持續(xù)努力應(yīng)對不斷變化的監(jiān)管環(huán)境的必要性。歐盟人工智能法案(EUAIAct/EIAA)適用范圍:EIAA適用于歐盟境內(nèi)參與人工智能系統(tǒng)開發(fā)、部署和使用的提供者、部署商、進(jìn)口商、經(jīng)銷商和其他運(yùn)營商,不適用于軍事、國防或國重點(diǎn)關(guān)注四個風(fēng)險等級:不可接受的風(fēng)險、高風(fēng)險、中風(fēng)險和低風(fēng)險。法案旨在確保對隱私和非歧視等基本權(quán)利的保護(hù),確保人工智能系統(tǒng)的安全性和透明度,及如何負(fù)責(zé)任的使用人工智能系統(tǒng)。該法案適用于那些人工智能系統(tǒng)是在歐盟市場上提供或使用,或者使用影響到歐盟境內(nèi)人們的運(yùn)營商。法案涵蓋了包括生物識別、自動駕駛汽車和關(guān)鍵基礎(chǔ)設(shè)施在內(nèi)的廣泛的人工智能應(yīng)用。主要條款:(第5條5行為。禁止這些行為是為了確保個人的權(quán)利和安全,防止不道德和有害地使用人工智能系統(tǒng)。歐盟將禁止被認(rèn)為具有不可接受風(fēng)險的人工智能系統(tǒng),包括操縱人類行為的人工智能、社交評分系統(tǒng)以及用于執(zhí)法目的在公共場所使用“實(shí)時”遠(yuǎn)程生物識別系統(tǒng)。第9條第9條引入了基于風(fēng)險的方法監(jiān)管歐盟內(nèi)的人工智能系統(tǒng),并平衡監(jiān)管與創(chuàng)新,確保人工智能系統(tǒng)安全可信,監(jiān)管水平將根據(jù)其對個人構(gòu)成的潛在危害程度而有所不同。嚴(yán)格的要求,通過審查,并在部署前獲得預(yù)先批準(zhǔn)。此類系統(tǒng)的提供者必須遵守最嚴(yán)格的法規(guī)規(guī)定,包括透明度和可解釋性、人類監(jiān)督和獨(dú)立驗證。同監(jiān)管要求的約束,但仍應(yīng)遵守適用于人工智能系統(tǒng)的法律框架。第10條10應(yīng)透明、負(fù)責(zé),并尊重個人隱私和數(shù)據(jù)保護(hù)權(quán)利。它要求用于訓(xùn)練和支持人工智能系統(tǒng)的數(shù)據(jù)必須遵守《通用數(shù)據(jù)保護(hù)條例》和其他相關(guān)數(shù)據(jù)保護(hù)法律的規(guī)定。高風(fēng)險人工智能系統(tǒng)的提供者必須確保用于訓(xùn)練和支持人工智能系統(tǒng)的數(shù)據(jù)是相關(guān)、可靠、無偏見和無差錯的,還應(yīng)確保數(shù)據(jù)得到適當(dāng)記錄、標(biāo)記和注釋,以便監(jiān)測和審計系統(tǒng)的性能。此外,數(shù)據(jù)管理必須透明,被使用數(shù)據(jù)的個人必須知情并同意。(第13條須具有透明性和可解釋性,解釋其運(yùn)作方式,并為用戶提供獲取文件的途徑,使個人了解其工作方式和所做的決定。人工智能模型必須保存適當(dāng)?shù)挠涗浐腿罩?,確??梢詫ζ鋵徲?。本條還規(guī)定了知情權(quán)和尋求人工干預(yù)的權(quán)利,以便對人工智能系統(tǒng)做出的決定提出質(zhì)疑,確保人工智能系統(tǒng)以完整、負(fù)責(zé)和透明的方式運(yùn)行。第14條過內(nèi)置在系統(tǒng)中的措施或由部署者實(shí)施的措施實(shí)現(xiàn)。此外,人工智能系統(tǒng)的設(shè)計必須允許由人類操作員檢查。監(jiān)督系統(tǒng)的自然人應(yīng)能了解其功能、監(jiān)控其運(yùn)行、解釋其輸出并在必要時干預(yù)。對生物特征識別系統(tǒng)提出了具體要求。高風(fēng)險人工智能系統(tǒng)將受到嚴(yán)格的義務(wù)約束,確保人為監(jiān)督,并設(shè)計為能有效的由自然人監(jiān)督。第57至63條過獨(dú)立測試和驗證,確保安全性和可靠性。(第64至70條調(diào)和支持國家層面和聯(lián)盟層面的法規(guī)實(shí)施。治理框架旨在協(xié)調(diào)和構(gòu)建聯(lián)盟層面的專業(yè)知識,利用現(xiàn)有資源和專業(yè)知識,并支持?jǐn)?shù)字單一市場。第99條處以重罰來遏制違規(guī)行為,以確保條例得到有效執(zhí)行。它旨在確保以負(fù)責(zé)任和合乎倫理的方式開發(fā)、部署和使用人工智能系統(tǒng),保護(hù)個人的權(quán)利和自由。EIAA規(guī)定,制裁和罰款根據(jù)違法行為的嚴(yán)重程度分級,旨在確保處罰與違規(guī)行為造成的危害程度相稱。EIAA合規(guī)性要求、義務(wù)和規(guī)定該法規(guī)旨在改善內(nèi)部市場的運(yùn)作,促進(jìn)以人為本、值得信賴的人工智能系統(tǒng)在歐盟的應(yīng)用。它規(guī)定了人工智能系統(tǒng)投放市場、投入使用和使用的統(tǒng)一規(guī)則,以及對高風(fēng)險人工智能系統(tǒng)的特定要求和義務(wù)。它還包括某些人工智能的禁止行為,并為某些人工智能系統(tǒng)制定了透明度規(guī)則。此外,它還涉及市場監(jiān)管、市場監(jiān)督治理和執(zhí)法。高風(fēng)險人工智能系統(tǒng)提供者的義務(wù):確保高風(fēng)險人工智能系統(tǒng)符合概述的要求。風(fēng)險管理(第9條):提供者必須對高風(fēng)險的人工智能系統(tǒng)執(zhí)行全面的風(fēng)險評估,考慮對安全性、基本權(quán)利和系統(tǒng)預(yù)期用途的潛在風(fēng)險,必須為高風(fēng)險的人工智能系統(tǒng)建立風(fēng)險管理系統(tǒng),包括識別和分析已知和可預(yù)見的風(fēng)險,評估可能出現(xiàn)的風(fēng)險,并采取風(fēng)險管理措施。風(fēng)險管理措施的目的應(yīng)是消除或減少已識別的風(fēng)險,并應(yīng)對條例規(guī)定和要求的綜合影響。風(fēng)險管理系統(tǒng)應(yīng)確保高風(fēng)險人工智能系統(tǒng)的總體殘余風(fēng)險被認(rèn)為是可接受的。(第10條過高質(zhì)量、相關(guān)性和代表性數(shù)據(jù)集的訓(xùn)練。它們還必須實(shí)施適當(dāng)?shù)臄?shù)據(jù)管理措施,防止出現(xiàn)偏差以確保數(shù)據(jù)的準(zhǔn)確性。使用數(shù)據(jù)訓(xùn)練技術(shù)的高風(fēng)險人工智能數(shù)據(jù)收集過程、數(shù)據(jù)預(yù)處理操作等數(shù)據(jù)管理措施以解決偏差和數(shù)據(jù)缺口問題。(第11條確和最新的技術(shù)文檔。這些文件應(yīng)包括系統(tǒng)的設(shè)計、開發(fā)、配置和運(yùn)行信息。高風(fēng)險人工智能系統(tǒng)的技術(shù)文檔必須編制并保持更新。這些文檔應(yīng)證明系統(tǒng)符合法規(guī)要求,并提供必要的信息供主管部門和通報機(jī)構(gòu)評估。應(yīng)為屬于歐盟統(tǒng)一立法范圍的高風(fēng)險人工智能系統(tǒng)準(zhǔn)備一套技術(shù)文件,委員會可通過授權(quán)法案修訂技術(shù)文件要求。(第12條并監(jiān)測高風(fēng)險人工智能系統(tǒng)的運(yùn)行。(第13條透明度,并向用戶提供關(guān)于系統(tǒng)功能和局限性的相關(guān)信息。高風(fēng)險人工智能系統(tǒng)必須以透明的方式運(yùn)行,使部署者能夠正確理解和使用系統(tǒng)的輸出結(jié)果。使用說明應(yīng)包括提供者的相關(guān)信息、系統(tǒng)特點(diǎn)和能力、已知風(fēng)險、解釋輸出的技術(shù)能力以及輸出的規(guī)定。(第14條適當(dāng)?shù)娜祟惐O(jiān)督和干預(yù)機(jī)制,這包括確保系統(tǒng)在必要時可被人工操作覆蓋或停止。高風(fēng)險人工智能系統(tǒng)的設(shè)計必須允許自然人在系統(tǒng)使用期間有效監(jiān)督。人被指派執(zhí)行人類監(jiān)督的自然人應(yīng)能夠了解系統(tǒng)的功能和局限性、檢測異常、解釋系統(tǒng)輸出并在必要時干預(yù)或覆蓋系統(tǒng)決策。(第15條能系統(tǒng)準(zhǔn)確、可靠且穩(wěn)健。應(yīng)盡量減少與系統(tǒng)性能相關(guān)的錯誤和風(fēng)險,并采取必要措施解決準(zhǔn)確性和魯棒性問題。應(yīng)執(zhí)行安全風(fēng)險評估,并結(jié)合系統(tǒng)的設(shè)計實(shí)施必要的緩解措施。高風(fēng)險人工智能系統(tǒng)必須執(zhí)行全面的風(fēng)險評估,并遵守網(wǎng)絡(luò)安全標(biāo)準(zhǔn)。在使用語言模型時,它們還應(yīng)達(dá)到適當(dāng)?shù)臏?zhǔn)確性、魯棒性和網(wǎng)絡(luò)安全水平。可針對準(zhǔn)確性和魯棒性的技術(shù)方面制定基準(zhǔn)和衡量方法,應(yīng)在隨附的使用說明中聲明準(zhǔn)確度和相關(guān)衡量標(biāo)準(zhǔn)。第53和55條類型的高風(fēng)險人工智能系統(tǒng)的特定要求,如生物特征識別系統(tǒng)、關(guān)鍵基礎(chǔ)設(shè)施中使用的系統(tǒng)、教育和職業(yè)培訓(xùn)中使用的系統(tǒng)、用于就業(yè)目的的系統(tǒng)以及執(zhí)法機(jī)關(guān)使用的系統(tǒng)。在高風(fēng)險人工智能系統(tǒng)應(yīng)在其包裝/注冊商標(biāo)以及聯(lián)系地址。建立質(zhì)量管理系統(tǒng),確保符合法規(guī)要求。變更、認(rèn)證機(jī)構(gòu)發(fā)布的決定以及歐盟符合性聲明。將高風(fēng)險人工智能系統(tǒng)生成的日志保存一段時間。格評定程序。制定歐盟合格聲明并貼上CE標(biāo)志,以表明符合法規(guī)要求。遵守注冊義務(wù)。采取必要的糾正措施并提供所需的信息。應(yīng)國家主管部門的合理要求,證明高風(fēng)險人工智能系統(tǒng)符合要求。進(jìn)口商義務(wù):在將高風(fēng)險人工智能系統(tǒng)投放市場之前,核實(shí)其是否符合要求。確保高風(fēng)險人工智能系統(tǒng)帶有符合要求的CE使用說明。確保高風(fēng)險人工智能系統(tǒng)得到妥善儲存和運(yùn)行。附有認(rèn)證機(jī)構(gòu)頒發(fā)的證書、使用說明和歐盟合格聲明的副本。按要求提供國家主管部門要求的必要信息和文件。經(jīng)銷商義務(wù):核實(shí)高風(fēng)險人工智能系統(tǒng)是否帶有CE用說明。酌情在包裝/文件上注明其名稱、注冊商號或注冊商標(biāo)以及聯(lián)系地址。確保儲存或運(yùn)行條件不會違反高風(fēng)險人工智能系統(tǒng)的合規(guī)性。檢驗是否具有認(rèn)證機(jī)構(gòu)頒發(fā)的證書、使用說明和歐盟合格聲明的副本。按要求提供國家主管部門要求的必要信息和文件。與國家主管部門合作,降低高風(fēng)險人工智能系統(tǒng)帶來的風(fēng)險。促進(jìn)創(chuàng)新(第57條到63條)支持創(chuàng)新的措施如下:人工智能監(jiān)管沙箱:開發(fā)、測試和驗證創(chuàng)新型人工智能系統(tǒng)。沙箱提供一個可控的環(huán)境,促進(jìn)創(chuàng)新并允許識別和降低風(fēng)險。有助于基于證據(jù)的法規(guī)學(xué)習(xí),并為中小和初創(chuàng)企業(yè)的人工智能系統(tǒng)進(jìn)入歐盟市場提供便利。人工智能沙箱中的個人數(shù)據(jù)處理:僅包括以公共利益為目的的開發(fā)、訓(xùn)練和測試個人數(shù)據(jù)的人工智能系統(tǒng)。數(shù)據(jù)主體權(quán)利的保障措施以及保護(hù)個人數(shù)據(jù)的適當(dāng)技術(shù)和組織措施。在真實(shí)環(huán)境中測試高風(fēng)險人工智能系統(tǒng):高風(fēng)險人工智能系統(tǒng)的提供者或潛在提供者可以在人工智能監(jiān)管沙箱之外的真實(shí)環(huán)境中測試。他們必須制定并向市場監(jiān)督管理局提交一份真實(shí)環(huán)境測試計劃。測試可以獨(dú)立進(jìn)行,也可以與潛在用戶合作完成。指導(dǎo)和支持:人工智能監(jiān)管沙箱內(nèi)的主管部門為參與者提供指導(dǎo)、監(jiān)督和支持。引導(dǎo)提供者獲得預(yù)部署服務(wù),如法規(guī)實(shí)施指導(dǎo)、標(biāo)準(zhǔn)化和認(rèn)證。人工智能監(jiān)管沙箱。管理與協(xié)調(diào):能條例。業(yè)知識和能力,并支持人工智能法的實(shí)施。知識。果提交年度報告。市場監(jiān)督與合規(guī):由成員國指定的市場監(jiān)督機(jī)構(gòu)負(fù)責(zé)執(zhí)行該法規(guī)的要求和義務(wù)。它們具有執(zhí)法權(quán),可以獨(dú)立公正地履行職責(zé),并協(xié)調(diào)聯(lián)合行動和調(diào)查。來強(qiáng)制執(zhí)行合規(guī)。數(shù)據(jù)保護(hù)機(jī)構(gòu)的參與:國家數(shù)據(jù)保護(hù)機(jī)構(gòu)和其他具有監(jiān)督職能的相關(guān)國家公共機(jī)關(guān)或機(jī)構(gòu)有責(zé)任根據(jù)保護(hù)基本權(quán)利的聯(lián)盟法律對人工智能系統(tǒng)進(jìn)行監(jiān)督。與金融服務(wù)機(jī)構(gòu)的合作:負(fù)責(zé)監(jiān)督歐盟金融服務(wù)法的主管機(jī)關(guān)被指定為監(jiān)督人工智能法規(guī)實(shí)施的主管機(jī)關(guān),包括對受監(jiān)管和監(jiān)督的金融機(jī)構(gòu)提供或使用的人工智能系統(tǒng)有關(guān)的市場監(jiān)督活動。促進(jìn)符合道德和值得信賴的人工智能:用于高風(fēng)險人工智能系統(tǒng)的部分或全部強(qiáng)制性要求。人工智能辦公室可邀請所有通用型人工智能模型的提供者遵守行為守則。透明報告和文件:況和風(fēng)險。必須向有關(guān)部門報告因使用其人工智能系統(tǒng)而導(dǎo)致的嚴(yán)重事件。人工智能監(jiān)管沙箱的技術(shù)文件和退出報告可用于證明其符合法規(guī)要求。委員會和理事會可查閱相關(guān)任務(wù)的退出報告。人工智能被禁止的行為類行為為目的或效果的人工智能系統(tǒng),因為這會對身體健康、心理健康或經(jīng)濟(jì)利益造成重大損害。這包括使用潛意識成分或其他操縱性或欺騙性技術(shù)破壞和損害個人對決策過程的自主性和自由權(quán)選擇。據(jù)的分類系統(tǒng)推斷敏感的個人信息,如政治觀點(diǎn)、工會成員身份、宗教或哲學(xué)信仰、種族、性生活或性取向。出的或預(yù)測的個人特征或性格特征來評估或分類自然人的人工智能系統(tǒng),可能會導(dǎo)致歧視性結(jié)果和對某些群體的排斥。使用此類人工智能系統(tǒng)執(zhí)行社會評分是禁止的,因為這類人工智能系統(tǒng)會導(dǎo)致個人或與數(shù)據(jù)生成或收集的背景無關(guān)的群體受到不利或不平等對待。行實(shí)時遠(yuǎn)程生物特征識別被認(rèn)為具有侵?jǐn)_性,可能會影響個人的私生活。這種做法是被禁止的,除非是在嚴(yán)格必要且為了實(shí)現(xiàn)重大公共利益的情況下,如搜尋失蹤人員、生命或人身安全受到威脅,或識別特定嚴(yán)重刑事犯罪的作案者或嫌疑人。合規(guī)、違規(guī)與處罰該條例提供了各種術(shù)語的定義,并規(guī)定了其適用范圍。它強(qiáng)調(diào)了在人工智能系統(tǒng)方面保護(hù)個人數(shù)據(jù)、隱私和機(jī)密的重要性。它還包括對違規(guī)行為的處罰以及對受影響者的補(bǔ)救措施。此外,它還允許未來評估和審查該法規(guī),并將實(shí)施權(quán)力下放給歐盟委員會,規(guī)定在生效后的特定時間內(nèi)適用。合規(guī)規(guī)定:個月內(nèi)履行條例規(guī)定的義務(wù)。(條例生效之日起24個月之前)已經(jīng)使用這些系統(tǒng),則只有在需要重大修改設(shè)計的情況下,才須遵守條例的要求。使用高風(fēng)險人工智能系統(tǒng)的公共機(jī)構(gòu)必須在條例生效之日起六年內(nèi)遵守條例的要求。違規(guī)處罰:EIAA規(guī)定違規(guī)罰款遵循分級制度:750其上一財政年度全球年營業(yè)總額1%的行政罰款,以數(shù)額較高者為準(zhǔn)。(如風(fēng)險管理)、以及未履行提供者、授權(quán)代表、進(jìn)口商、經(jīng)銷商或使用者義務(wù)等違1500根據(jù)第16條規(guī)定的提供者的義務(wù)。根據(jù)第22條規(guī)定的授權(quán)代表的義務(wù)。23條規(guī)定的進(jìn)口商的義務(wù)。24條規(guī)定的經(jīng)銷商的義務(wù)。26條規(guī)定的部署者的義務(wù)。根據(jù)第3133(1)33(3)33(4)或34條對被通知機(jī)構(gòu)的要求和義務(wù)。根據(jù)第50條規(guī)定的提供者和用戶的透明度義務(wù)。對于使用被認(rèn)為構(gòu)成不可接受風(fēng)險的人工智能系統(tǒng),或不遵守條例第5條所列的人工智能行為實(shí)踐的違規(guī)行為,擬議的行政罰款最高可達(dá)3500或其全球年營業(yè)額的7%,以較高者為準(zhǔn)。EIAA罰款數(shù)額應(yīng)根據(jù)人工智能系統(tǒng)的目的加以評估。此外,還應(yīng)考慮的因素包括是否已由其他主管部門處以行政罰款、運(yùn)營商的規(guī)模、年營業(yè)額和市場份額等。其他決定因素還包括違規(guī)行為帶來的經(jīng)濟(jì)利益或損失、與國家主管部門的合作程度、運(yùn)營商的責(zé)任、違規(guī)行為是如何被發(fā)現(xiàn)的、運(yùn)營商是否存在疏忽或故意的情況,以及采取的任何為減輕受影響者所受損害的行動。它還規(guī)定,在訴訟中應(yīng)充分尊重當(dāng)事人的辯護(hù)權(quán),并賦予他們查閱相關(guān)信息的權(quán)利,但要考慮到個人或企業(yè)保護(hù)其個人數(shù)據(jù)或商業(yè)秘密的合法權(quán)益。《醫(yī)療電子交換法案(HIPAA)》《醫(yī)療電子交換法案(HIPAA)1996受保護(hù)健康信息(PHI)的醫(yī)療服務(wù)提供者、健康計劃和醫(yī)療保健結(jié)算中心。主要條款:小量的受保護(hù)的健康信息。保護(hù)的健康信息的機(jī)密性、完整性和可用性。披露情況的權(quán)利。數(shù)據(jù)隱私與安全:術(shù)領(lǐng)域內(nèi)確立,適用于所有技術(shù)類型或目的數(shù)據(jù)使用(例如,強(qiáng)大的加密在整個開發(fā)和部署過程中都是強(qiáng)制性的,以保護(hù)受保護(hù)的健康信息)。然而,生成式人工智能領(lǐng)域的利益相關(guān)者必須將重點(diǎn)轉(zhuǎn)移到理解和實(shí)施在生成式人工智能操作和處理中應(yīng)用現(xiàn)有原則的具體細(xì)微差別上。雖然既定規(guī)則不需要重塑,但要使其適應(yīng)這種新情況,就必須認(rèn)真關(guān)注生成式人工智能帶來的獨(dú)特挑戰(zhàn)。信息,這可能會限制用于訓(xùn)練生成式人工智能模型以供醫(yī)療保健應(yīng)用的醫(yī)療數(shù)據(jù)量。跟蹤訓(xùn)練數(shù)據(jù)的來源和合規(guī)性對于確保生成的輸出是否會繼承隱私問題至關(guān)重要。這可能會使診斷、治療預(yù)測和個性化醫(yī)療等領(lǐng)域的開發(fā)和準(zhǔn)確性變得復(fù)雜,并限制人工智能模型在醫(yī)療應(yīng)用中的有效性和通用性。的去標(biāo)識化輸出也可能通過微妙的模式、相關(guān)或高級技術(shù)重新標(biāo)識,從而引發(fā)份,但在生成式人工智能的背景下,在模型內(nèi)與其他數(shù)據(jù)源結(jié)合時,往往無法阻止數(shù)據(jù)被重新識別。這就需要采用強(qiáng)大的隱私保護(hù)方法(如差分隱私、聯(lián)邦學(xué)習(xí)等)有效保護(hù)個人身份。工智能模型之間的共享也受到限制,這阻礙了該領(lǐng)域的合作與進(jìn)步。嚴(yán)格的訪問控制、審計和追蹤:《醫(yī)療電子交換法案》要求對受保護(hù)的健康信息的訪問和使用進(jìn)行嚴(yán)格的審計和追蹤。這將延伸到生成式人工智能系統(tǒng),需要具備強(qiáng)大的日志記錄和監(jiān)控機(jī)制,以確保整個供應(yīng)鏈符合《醫(yī)療電子交換法案》的規(guī)定。:對訓(xùn)練數(shù)據(jù)的限制:如上所述,《醫(yī)療電子交換法案》限制了對受保護(hù)的健康信息的訪問和共享,這可能會限制生成式人工智能模型用于訓(xùn)練醫(yī)療保健的數(shù)據(jù)量。就模型訓(xùn)練而言,限制使用多樣性和全面的醫(yī)療保健數(shù)據(jù)集訓(xùn)練模型的能力可能會導(dǎo)致輸出結(jié)果有偏差或不準(zhǔn)確。實(shí)施差分隱私或其他匿名化技術(shù)可能有助于保護(hù)患者隱私,同時仍能為訓(xùn)練提供一定程度的數(shù)據(jù)效用。行研究合作的能力,因此需要謹(jǐn)慎設(shè)計和實(shí)施。視為受保護(hù)的健康信息的數(shù)據(jù),即使是用于生成訓(xùn)練或測試目的的合成醫(yī)療記錄等,也要遵守這一規(guī)定。用于可能暴露受保護(hù)的健康信息的下游應(yīng)用,即使模型本身并不直接輸出受保護(hù)的健康信息。于確保它不會無意中披露受保護(hù)的健康信息至關(guān)重要,這就需要可解釋的模型和清晰的推理說明。確保人工智能生成的醫(yī)療結(jié)果的透明度和可解釋性對于建立信任和遵守《醫(yī)療電子交換法案》的“解釋權(quán)”規(guī)定至關(guān)重要?!夺t(yī)療電子交換法案》法規(guī)可能還要求:受保護(hù)的健康信息訓(xùn)練的生成式人工智能模型生成的輸出結(jié)果都必須經(jīng)過徹底審查,以確保它們不包含任何可識別信息或有可能重新識別個體的信息,這自然會增加開發(fā)時間和對模型輸出持續(xù)監(jiān)控的復(fù)雜程度。獲得患者的明確同意和授權(quán),即使這可能會增加輸入或輸出工作流程的復(fù)雜程度。審計與合規(guī)實(shí)施強(qiáng)大的審計和合規(guī)措施,以確保遵守適用于所有其他受《醫(yī)療電子交換法案》監(jiān)管系統(tǒng)的《醫(yī)療電子交換法案》法規(guī)。應(yīng)全面評估人工智能/機(jī)器學(xué)習(xí)系統(tǒng),以便識別潛在的隱私違規(guī)行為并實(shí)施有針對性的緩解策略?!夺t(yī)療電子交換法案》法規(guī)對生成式人工智能在醫(yī)療保健領(lǐng)域的應(yīng)用提出了重大挑戰(zhàn)。這些挑戰(zhàn)要求對人工智能系統(tǒng)進(jìn)行全面的了解、實(shí)施和持續(xù)監(jiān)控。通過精心設(shè)計這些人工智能系統(tǒng)、采用強(qiáng)大的隱私保護(hù)技術(shù)并嚴(yán)格遵守法規(guī),我們可以解鎖生成式人工智能在改善醫(yī)療保健方面的潛力,同時保護(hù)患者隱私并確保負(fù)責(zé)任和合規(guī)地使用。在這個新興領(lǐng)域里,平衡創(chuàng)新與患者隱私仍然是一個關(guān)鍵挑戰(zhàn)。圍繞醫(yī)療保健領(lǐng)域的人工智能(包括生成式人工智能)和機(jī)器學(xué)習(xí)的動態(tài)監(jiān)管環(huán)境需要利益相關(guān)者不斷調(diào)整適應(yīng),以確保符合《醫(yī)療電子交換法案》和其他相關(guān)法規(guī)不斷演變的解釋,尤其是針對生成式人工智能系統(tǒng)?;糜X是指人工智能系統(tǒng)根據(jù)其所訓(xùn)練的模式和數(shù)據(jù)生成逼真但與事實(shí)不符或關(guān)立法和法規(guī)的極大關(guān)注。生成式人工智能幻覺影響的一個關(guān)鍵領(lǐng)域是數(shù)據(jù)隱私。當(dāng)生成式人工智能模型被輸入敏感數(shù)據(jù)時,有可能產(chǎn)生無意中泄露個人或組織的私密信息,這給一些監(jiān)管框架(如《通用數(shù)據(jù)保護(hù)條例》或《加州消費(fèi)者隱私法案》/《加州隱私權(quán)法案》)帶來了巨大挑戰(zhàn),因為這些法規(guī)要求采取嚴(yán)格措施保護(hù)個人數(shù)據(jù)免遭未經(jīng)授權(quán)的訪問或披露。人工智能生成內(nèi)容的出現(xiàn)模糊了真實(shí)信息與捏造信息之間的界限,使有效執(zhí)行數(shù)據(jù)隱私法的工作變得更復(fù)雜。確定的情況下。度、問責(zé)制和包容性等倫理原則。的提示和使用精心收集的訓(xùn)練數(shù)據(jù)可以從一開始就降低出現(xiàn)幻覺的可能性。生成式人工智能的幻覺對人工智能治理的現(xiàn)有立法和監(jiān)管框架帶來了挑戰(zhàn),特別是在數(shù)據(jù)隱私、安全和倫理等方面。應(yīng)對這些挑戰(zhàn)需要政策制定者、監(jiān)管機(jī)構(gòu)、行業(yè)利益相關(guān)者和倫理學(xué)家通力合作,共同制定全面的治理機(jī)制,有效管理與生成式人工智能相關(guān)的風(fēng)險和機(jī)遇。國土安全部政策聲明139-07對生成式人工智能的影響數(shù)據(jù)輸入:禁止將美國國土安全部(DHS)有關(guān)個人的數(shù)據(jù)(無論其是否為個人身份信息或匿名信息(現(xiàn)稱為“數(shù)據(jù)保留:在工具中選擇限制數(shù)據(jù)保留的選項,并選擇拒絕將輸入數(shù)據(jù)用于進(jìn)一步訓(xùn)練模型。輸出審查和使用:確保使用這些工具生成或修改的所有內(nèi)容在用于任何官數(shù)據(jù)敏感性、不適當(dāng)?shù)钠姾驼吆弦?guī)性。決策:商業(yè)生成式人工智能工具不得用于任何福利裁定、資格認(rèn)證、審查或法律或民事調(diào)查或執(zhí)法相關(guān)行動的決策過程。聯(lián)邦貿(mào)易委員會政策宣傳與研究指導(dǎo):人工智能(及其他)公司:悄悄更改服務(wù)條款可能是不公平或具有欺騙性的法規(guī)和欺騙消費(fèi)者的公司采取行動。歸根結(jié)底,對于希望與用戶建立信任并避免法律后果的公司來說,透明度、誠實(shí)和誠信是至關(guān)重要的。人工智能公司:履行對用戶的隱私和保密承諾(MaaS)反消費(fèi)者隱私權(quán)或采用不公平競爭手段的提供模型即服務(wù)的公司可能受到反壟斷法和消費(fèi)者保護(hù)法的追究。美國白宮管理和預(yù)算辦公室(OMB)在聯(lián)邦機(jī)構(gòu)使用人工智能的治理、創(chuàng)新和風(fēng)險管理的政策副總統(tǒng)卡馬拉-哈里斯宣布了一項政府范圍內(nèi)的政策,旨在降低人工智能的風(fēng)(請參閱下文具體的人工智能保障措施:到2024年12月1日,聯(lián)邦機(jī)構(gòu)在使用可能影響美國人權(quán)利或安全的人工智能時,必須實(shí)施具體的保障措施。這些保障措施包括評估、測試和監(jiān)控人工智能對公眾的影響、降低算法歧視的風(fēng)險,以及提高政府使用人工智能的透明度。醫(yī)療保健領(lǐng)域的人類監(jiān)督:在聯(lián)邦醫(yī)療系統(tǒng)中使用人工智能支持關(guān)鍵診斷決策時,由人類來監(jiān)督這一過程,以核實(shí)工具的結(jié)果,避免醫(yī)療服務(wù)的不平等。人類監(jiān)督欺詐檢測:當(dāng)人工智能被用于檢測政府服務(wù)中的欺詐行為時,由人類監(jiān)督有影響的決策,受影響的個人也有機(jī)會尋求補(bǔ)救人工智能造成的傷害。人工智能使用的透明度:聯(lián)邦機(jī)構(gòu)被要求通過發(fā)布人工智能用例的年度擴(kuò)工智能代碼、模型和數(shù)據(jù),來提高其使用人工智能的公開透明度。負(fù)責(zé)任的人工智能創(chuàng)新:該政策旨在消除聯(lián)邦機(jī)構(gòu)在負(fù)責(zé)任的人工智能創(chuàng)方面的應(yīng)用實(shí)例。壯大人工智能人才隊伍:政策指導(dǎo)各機(jī)構(gòu)擴(kuò)大人工智能人才隊伍并提高其技能。加強(qiáng)人工智能治理:該政策要求聯(lián)邦機(jī)構(gòu)指定首席人工智能官來協(xié)調(diào)各機(jī)停止使用人工智能:如果某個機(jī)構(gòu)不能采用規(guī)定的保障措施,就必須停止安全或權(quán)利的風(fēng)險,或者會對機(jī)構(gòu)的關(guān)鍵業(yè)務(wù)造成不可接受的障礙。政令拜登總統(tǒng)于2023年10的行政令,工智能實(shí)踐的問題。該行政令的重點(diǎn)是確保安全、可靠和合乎倫理地開發(fā)和使用人工智能,包括發(fā)與現(xiàn)有框架和主題相關(guān)的資源和最佳實(shí)踐,例如:算法的公平性和偏見人工智能模型的可解釋性和可解讀性標(biāo)準(zhǔn)化測試和評估方法安全控制和網(wǎng)絡(luò)安全等問題。理、勞動力發(fā)展和國際合作來解決社會問題。由聯(lián)邦政府層面制定和實(shí)施的人工智能相關(guān)法規(guī)和政策的缺失導(dǎo)致了一個復(fù)務(wù)所發(fā)布的“美國各州人工智能立法快照”中所強(qiáng)調(diào)的,這些法規(guī)的拼湊造成了一個關(guān)鍵的擔(dān)憂。非歧視與公平如何影響生成式人工智能的設(shè)計、部署和使用。部分現(xiàn)行反歧視法律法規(guī)解決人工智能算法和決策過程中基于受保護(hù)特征的歧視問題的現(xiàn)行法律和擬議法律摘要:美國《民權(quán)法案》(1964年)第七章:(成式人工智能案》第七章的審查。美國平等就業(yè)機(jī)會和民權(quán)法案及其執(zhí)行機(jī)構(gòu):將第七章的保護(hù)范圍擴(kuò)大到年齡和殘疾。基于這些特征的算法偏見也是被禁止的。美國平等就業(yè)機(jī)會委員會(EEOC)發(fā)布的技術(shù)援助文件是其“人工智能與算法公平性倡議”的一部分,該倡議旨在確保在招聘和其他就業(yè)決策中使用的軟件(包括人工智能)符合EEOC執(zhí)行的聯(lián)邦民權(quán)法律。(做出的決策(息)延續(xù)歧視性做法。美國的《公平住房法》:禁止基于與《第七章》相同的受保護(hù)特征的住房美國《平等信貸機(jī)會法》:禁止基于種族、膚色、宗教、國籍、性別、婚分模型是否會產(chǎn)生潛在的歧視性影響。多部聯(lián)邦民權(quán)法(如《民權(quán)法案》第六章、《教育修正案》第九章和《康復(fù)法案》第504節(jié)):禁止在教育環(huán)境中基于種族、膚色、國籍、性別、殘疾和年(人工智能等技術(shù)的實(shí)踐)不會基于上述受保護(hù)特征歧視學(xué)生。(GDPR)《加州消費(fèi)者隱私法案》/《加州隱私權(quán)法案》還禁止組織歧視行使隱私權(quán)的消費(fèi)者?!端惴▎栘?zé)法案》(美國,2019-2020年):旨在建立聯(lián)邦偏見審計標(biāo)準(zhǔn),評估政府機(jī)構(gòu)和企業(yè)使用的人工智能算法的公平性、責(zé)任性和透明度。歐盟《人工智能法案》(2024):對高風(fēng)險的人工智能應(yīng)用提出具體要求,包括解決偏見和歧視問題。(年要求對城市機(jī)構(gòu)使用的人工智能算法進(jìn)行審計,以確定是否存在基于受保護(hù)特征的潛在偏見。《加利福尼亞州自動化決策法案》(2023年,美國)/《紐約自動化就業(yè)決(2023動化決策工具時,提供通知和解釋。《加州消費(fèi)者隱私法案》/《加州隱私權(quán)法案》禁止歧視行使隱私權(quán)的消費(fèi)戰(zhàn)。在《加州消費(fèi)者隱私法案》/歧視性輸出變得至關(guān)重要。眾互動的人工智能系統(tǒng)需要遵守《美國殘疾人法》關(guān)于無障礙的規(guī)定。,以避免決策中出現(xiàn)不公平的偏差。聘行為,以及基于歐盟《通用數(shù)據(jù)保護(hù)條例》裁決而對基于人工智能的人臉識別律的必要性。這些最近的例子凸顯了人工智能招聘中可能存在的偏見,用于選擇候選人的工具曾面臨歧視指控:新聞中的執(zhí)法案例:2023年,EEOC首次針對通過人工智能進(jìn)行的歧視提起訴訟:訴訟稱,麥琪教育科技因年齡原因未能聘用200多名55出生日期申請時則獲得了面試機(jī)會。因此,2023年1了《戰(zhàn)略執(zhí)法計劃草案》(2023-2027),該草案表明平等就業(yè)機(jī)會委員會明確關(guān)績效管理。人工智能招聘中的歧視和偏見:2023年案例:本案例研究是人工智能招聘例提在偏見保持警惕的重要性。使用人工智能監(jiān)控員工信息,2024年:這篇文章重點(diǎn)介紹了大型企業(yè)如何利用人工智能服務(wù)監(jiān)控員工信息。它不僅能分析情感,還能評估文本和圖片中的“欺凌、騷擾、歧視、不合規(guī)、色情、裸露和其他行為”,甚至還能分析不同人群(這些做法引起了人們對隱私權(quán)和言論自由的擔(dān)憂。法可能面臨監(jiān)管和社會方面的障礙。監(jiān)管方面的挑戰(zhàn)目前的法律框架在處理生成式人工智能中的非歧視和公平問題時面臨著諸多限制:適用性缺口:現(xiàn)有法律難以應(yīng)對復(fù)雜的人工智能系統(tǒng),并且在如何將“歧視”概念轉(zhuǎn)化為算法和數(shù)據(jù)方面缺乏明確性。難以證明偏見:不透明的人工智能系統(tǒng)使得確定和證明歧視性的意圖或影響變得困難,這些系統(tǒng)的內(nèi)部因素相互關(guān)聯(lián),使得問題更加復(fù)雜化。執(zhí)法挑戰(zhàn):有限的資源和專業(yè)知識阻礙了有效的調(diào)查和執(zhí)法,再加上人工智能發(fā)展的全球性質(zhì)又使之進(jìn)一步復(fù)雜化。創(chuàng)新與監(jiān)管:快速發(fā)展的人工智能能技術(shù)超越了當(dāng)前的法律框架,造成了不確定性,需要在創(chuàng)新和倫理考量之間取得微妙的平衡。定義和實(shí)現(xiàn)公平:在人工智能中實(shí)現(xiàn)公平是多方面的。由于公平原則之間施往往會帶來重大的技術(shù)挑戰(zhàn),并需要大量資源。解釋的復(fù)雜性:人工智能模型,尤其是深度學(xué)習(xí)模型,可能異常復(fù)雜。它準(zhǔn)確性和可解釋性之間的權(quán)衡:更精確的模型,如神經(jīng)網(wǎng)絡(luò),通常可解釋缺乏標(biāo)準(zhǔn)化技術(shù):盡管存在一些解釋人工智能決策的技術(shù)(如局部可理解的與模型無關(guān)的解釋技術(shù)【LIME】、Shap法【SHAP】等),但沒有一種通用的釋的人工智能通常需要定制化的解決方案。驗證解釋:確認(rèn)由可解釋人工智能技術(shù)生成的解釋是否準(zhǔn)確反映了模型的的法規(guī)。監(jiān)管重點(diǎn)和技術(shù)生成式人工智能的監(jiān)管框架應(yīng)解決開發(fā)和部署生命周期各階段的偏見和公平數(shù)據(jù)去偏:監(jiān)管重點(diǎn):可以利用數(shù)據(jù)隱私法規(guī)來確保負(fù)責(zé)任的數(shù)據(jù)收集和使用實(shí)理管道中提供透明度。技術(shù):數(shù)據(jù)清理(例如,刪除有偏見的注釋,識別并糾正不一致之處)、數(shù)據(jù)擴(kuò)充(例如,生成合成數(shù)據(jù)以提高代表性)、數(shù)據(jù)加權(quán)(例如,為代表性不足群體的樣本分配更高的權(quán)重)。使用所謂的“安全”或“預(yù)處理”(一些專業(yè)人士更傾向于“預(yù)處理”或“去偏差”)的數(shù)據(jù)集可以作為起點(diǎn),但企業(yè)應(yīng)考慮到其局限性,如偏差緩解不徹底、范圍有限以及潛在的信息丟失。像IBM等公司參考資料(如維基百科)。適用法規(guī):歐盟)(CCPA)(Hugging是一個標(biāo)準(zhǔn)化文檔框架,“尤其側(cè)重于偏差、風(fēng)險和限制部分”。算法透明度:監(jiān)管重點(diǎn):透明度法規(guī)可要求開發(fā)人員對模型輸出提供解釋,特別是立分析。(XAI)(型的決策過程。適用法規(guī):與此相關(guān)的有歐盟的《人工智能法案(EUAIAct)》,該法(2021年(谷歌研究人類監(jiān)督和反饋:監(jiān)管重點(diǎn):法規(guī)可能要求對關(guān)鍵決策或敏感領(lǐng)域建立特定的人類監(jiān)督強(qiáng)制性報告。技術(shù):人在循環(huán)系統(tǒng)中、具有人類反饋循環(huán)的主動學(xué)習(xí)、數(shù)據(jù)主體的明確同意和人類審查模型輸出。適用法規(guī):美國食品藥品監(jiān)督管理局(2021)提出的產(chǎn)品全生命周期(TotalProductLifeCycle,TPLC)方法提倡人類監(jiān)督,像“監(jiān)控人工智能/機(jī)器學(xué)習(xí)設(shè)‘有設(shè)備的軟件變更提交510(k)’指導(dǎo)文件18中概述的其他方法。”(DE&I):監(jiān)管重點(diǎn):平等和非歧視法律可用于確保人工智能團(tuán)隊內(nèi)部的公平招評估。技術(shù):在開發(fā)團(tuán)隊中培養(yǎng)多元化思維,將多元化、公平、公正和包容原則納入設(shè)計和測試階段,并執(zhí)行偏見審計和影響評估。適用法規(guī):雖然針對人工智能的具體DE&I法規(guī)仍在制定中,但企業(yè)必“DEI入公司的人工智能戰(zhàn)略”(《哈佛商業(yè)評論》,2024年)。行業(yè)指南強(qiáng)調(diào),“人工智壇,2022年),避免偏見和歧視。算法的透明度和可解釋性:確定對人工智能決策透明度和可解釋性的要求(如可解釋的人工智能倡議)相關(guān)文件包括:《算法問責(zé)法》,2021-2022年:這些法案在多個州提出,旨在建立透自動化系統(tǒng)已經(jīng)造成的問題”。《算法問責(zé)法案》,2023-2024年:《算法問責(zé)法案》(2023年9月)具體細(xì)節(jié)仍在制定中,以下是可能關(guān)注的一些領(lǐng)域:透明度和可解釋性:要求開發(fā)人員解釋人工智能系統(tǒng)是如何做出決策的,以提高公眾的理解和信任。數(shù)據(jù)隱私與安全:建立保障措施,保護(hù)用于訓(xùn)練和部署人工智能系統(tǒng)的個人數(shù)據(jù)。算法公平性和偏見:通過解決數(shù)據(jù)和算法中的偏見,減少可能出現(xiàn)的歧視性結(jié)果。風(fēng)險評估與緩解:識別并解決與人工智能相關(guān)的潛在風(fēng)險,如安全、安全保障和公平問題。隨著該法案在立法程序中的推進(jìn),有關(guān)治理人工智能和生成式人工智能的具體規(guī)定將會更加清晰。新興監(jiān)管框架、標(biāo)準(zhǔn)和指南2023年《人工智能權(quán)利法案》(白宮藍(lán)圖):這套非約束性的指導(dǎo)方針強(qiáng)調(diào)視和有害偏見的發(fā)生。際規(guī)范和標(biāo)準(zhǔn)。聯(lián)合國關(guān)于人工智能決議的一些關(guān)鍵點(diǎn)包括:鼓勵成員國促進(jìn)開發(fā)和使用安全、可信和以人為本的人工智能。強(qiáng)調(diào)在使用人工智能時必須尊重人權(quán)和基本自由,同時做到透明,不帶偏見和歧視。呼吁各成員國相互合作,制定開發(fā)和使用人工智能的國際規(guī)范和標(biāo)準(zhǔn)。鼓勵成員國分享開發(fā)和使用人工智能的最佳實(shí)踐和經(jīng)驗,以幫助確保人工智能造福整個社會。呼吁與包括政府、民間社會和行業(yè)在內(nèi)的各部門利益相關(guān)者繼續(xù)對話和互動,以引導(dǎo)社會以負(fù)責(zé)任和合乎倫理的方式開發(fā)和使用人工智能。RMF1.0)。有效的人工智能法規(guī)應(yīng)促進(jìn)標(biāo)準(zhǔn)化、問責(zé)制和國際合作三個關(guān)鍵方面:標(biāo)準(zhǔn)化:包括建立檢測、預(yù)防和減少偏見的通用方法,例如采用ACM圖書館2019年論文中提出的“模型卡片”的標(biāo)準(zhǔn)化格式。問責(zé)制:需要明確的責(zé)任和問責(zé)框架來激勵負(fù)責(zé)任地開發(fā)和部署人工智能。國際合作:通過國際合作實(shí)現(xiàn)跨邊界的協(xié)調(diào)一致和有效地人工智能監(jiān)管方法。現(xiàn)有的框架、指南和資源可用于鼓勵以合乎倫理、透明和可信的方式設(shè)計、開發(fā)、部署和運(yùn)行人工智能。例如:國際內(nèi)部審計師協(xié)會(IIA)的人工智能審計框架提供了一種全面的方法評更多關(guān)于三個總體組成部分人工智能戰(zhàn)略、治理和人的因素以及七個要素(網(wǎng)的詳細(xì)信息可以在框架文檔中找到。IBM的“可信賴的人工智能”署和運(yùn)營符合倫理規(guī)范并具有透明度的指導(dǎo)方針。微軟的“負(fù)責(zé)任的人工智能實(shí)踐”是值得信賴的人工智能開發(fā)和使用的指南和原則。AWS的“負(fù)責(zé)任的人工智能核心要素”導(dǎo)方針和原則,采取以人為本的方法,優(yōu)先考慮教育、科學(xué)和用戶。谷歌的“負(fù)責(zé)任的人工智能實(shí)踐和原則”責(zé)任的方式指導(dǎo)人工智能的開發(fā)和使用。艾倫-圖靈研究所的“理解人工智能倫理與安全”指南是有關(guān)人工智能倫理、人工智能伙伴關(guān)系的人工智能事故數(shù)據(jù)庫是一個收集人工智能系統(tǒng)造成意外傷害的真實(shí)案例的資料庫,而由電氣和電子工程師協(xié)會(IEEE)制定的“倫理協(xié)調(diào)設(shè)計”準(zhǔn)則為設(shè)計符合倫理、透明和可信的人工智能系統(tǒng)提供了建議和框架。這些資源為促進(jìn)人工智能合乎倫理的使用提供了建議,同時對用戶保持透明。這些資源還涵蓋了人工智能的潛在益處、實(shí)施人工智能所面臨的挑戰(zhàn)以及與人工智能系統(tǒng)造成意外傷害的倫理問題和事件相關(guān)的案例研究等主題。OWASP大型語言模型應(yīng)用程序1010(數(shù)據(jù)泄漏、不安全的插件設(shè)計以及未經(jīng)授權(quán)的代碼執(zhí)行/策略,改善大型語言模型應(yīng)用程序的安全狀況。(目前正在起草善機(jī)器學(xué)習(xí)系統(tǒng)的安全狀況。為支持負(fù)責(zé)任的人工智能實(shí)踐,ISO專門制定了幾項關(guān)鍵標(biāo)準(zhǔn)。下面是一些例子:ISO/IEC42001:2023持倫理原則,包括尊重人權(quán)和隱私。ISO/IEC23053:2022解釋性和可解讀性。如需進(jìn)一步了解特定行業(yè)的人工智能治理與合規(guī)情況,請參閱云安全聯(lián)盟的《人工智能韌性:一項革命性的人工智能安全基準(zhǔn)模型》文件。安全、責(zé)任和問責(zé)Gemini視覺效果(谷歌博客,2024年2月)和加拿大航空公司機(jī)器人提供錯誤的退款信息(紐約郵報,2024年2月),凸顯了人工智能不當(dāng)行為的真實(shí)后果。這不得不引起的不當(dāng)甚至危險結(jié)果?我們目前是否有必要的立法管理和有效框架保證負(fù)責(zé)任地使用這一強(qiáng)大的技術(shù)?政策制定者和行業(yè)領(lǐng)導(dǎo)者如何合作制定負(fù)責(zé)任地使用生成式人工智能的國際標(biāo)準(zhǔn)?我們可以采取哪些技術(shù)保障措施限制惡意使用生成式人工智能的可能性?要降低與生成式人工智能相關(guān)的潛在風(fēng)險,就必須采取多管齊下的方法,包括:行業(yè)標(biāo)準(zhǔn):為生成式人工智能的開發(fā)、部署和使用制定明確、全面的指導(dǎo)方針。這些指導(dǎo)方針必須優(yōu)先考慮公平性、減少偏見和負(fù)責(zé)任的數(shù)據(jù)處理。法律框架:仔細(xì)考慮如何平衡責(zé)任歸屬與促進(jìn)負(fù)責(zé)任的創(chuàng)新,制定能解決人工智能生成內(nèi)容造成傷害時的復(fù)雜責(zé)任歸屬問題法律框架。組織風(fēng)險管理戰(zhàn)略:為組織配備工具和知識,實(shí)施強(qiáng)有力的保障措施和負(fù)責(zé)任的使用策略,使其能夠有效地評估和管理使用生成式人工智能帶來的風(fēng)險。生成式人工智能的責(zé)任、風(fēng)險和安全考慮因素盡管生成式人工智能有潛在的好處,但也存在固有的風(fēng)險。以下是幾個主要的關(guān)鍵領(lǐng)域。生成式人工智能故障帶來的法律責(zé)任風(fēng)險住房、就業(yè)/招聘行為、產(chǎn)品推薦或貸款申請/批準(zhǔn)等方面。隱私侵犯:生成式人工智能系統(tǒng)通常需要訪問大量數(shù)據(jù),這引發(fā)了對用戶從而導(dǎo)致隱私泄露和法律后果。信息安全和人身安全問題:在醫(yī)療保健或自動駕駛汽車等關(guān)鍵領(lǐng)域,生成式人工智能的故障可能導(dǎo)致安全隱患、事故責(zé)任歸屬問題,甚至人身傷害。虛假信息和惡意使用:生成式人工智能可被用于生成深度偽造內(nèi)容、操縱能會引發(fā)誹謗和欺詐性的法律問題。責(zé)任分配的法律框架(尤其是生成式人工智能情況和管轄范圍,但人工智能技術(shù)的動態(tài)性質(zhì)要求制定新的法律框架。使用案例之間都可能存在很大差異。國際倡議,如經(jīng)濟(jì)合作與發(fā)展組織(OECD)了基礎(chǔ)。雖然這些原則不具有約束力,但它們構(gòu)成了制定未來人工智能政策和法規(guī)的基礎(chǔ)框架。盡管做出了這些努力,但駕馭圍繞人工智能能責(zé)任的法律環(huán)境仍然十分復(fù)雜。法律解釋和適用性高度依賴于具體情況,需要對每個案例和其所屬的管轄范圍進(jìn)行透徹分析。因此,在確保合規(guī)性和降低人工智能相關(guān)風(fēng)險方面,尋求人工智能法律專家的專業(yè)指導(dǎo)至關(guān)重要。建立清晰、可預(yù)測的法律框架對于促進(jìn)創(chuàng)新,同時確保用戶安全和社會福祉至關(guān)重要。保險可以通過專門的人工智能責(zé)任保險政策,減輕人工智能帶來的風(fēng)險,分擔(dān)人工智能系統(tǒng)造成的潛在傷害的經(jīng)濟(jì)負(fù)擔(dān)。對生成式人工智能幻覺的保險幻覺保險是隨著生成式人工智能日益融入我們生活和業(yè)務(wù)的各個方面而出現(xiàn)的一個新概念。顧名思義,該保險旨在減輕“幻覺”--即生成式人工智能系統(tǒng)輸出中的錯誤信息、偏見或事實(shí)性錯誤所造成的經(jīng)濟(jì)和聲譽(yù)損失。該保險試圖為生成式人工智能幻覺可能帶來的后果提供財務(wù)保護(hù),包括:經(jīng)濟(jì)損失:包括糾正錯誤的成本、法律費(fèi)用、聲譽(yù)損失,以及因不準(zhǔn)確或誤導(dǎo)性輸出而造成的商機(jī)損失。監(jiān)管罰款費(fèi)用:當(dāng)人工智能生成的輸出違反法規(guī)或倫理準(zhǔn)則時,保險有可能幫助支付監(jiān)管機(jī)構(gòu)施加的罰款或處罰。網(wǎng)絡(luò)安全漏洞:如果生成式人工智能系統(tǒng)遭受攻擊或暴露敏感信息,保險可協(xié)助進(jìn)行補(bǔ)救并承擔(dān)潛在的法律后果。以下因素促成了幻覺保險的出現(xiàn):對生成式人工智能的依賴日益增加:隨著各行各業(yè)越來越多地使用生成式人工智能,對風(fēng)險管理策略的需求就變得更加迫切。潛在的代價高昂的后果:人工智能的幻覺有可能造成重大的經(jīng)濟(jì)和聲譽(yù)損失,因此保險成為風(fēng)險管理的重要工具。不斷變化的監(jiān)管環(huán)境:隨著有關(guān)人工智能使用的法規(guī)不斷發(fā)展,保險可以確保合規(guī)性并降低法律風(fēng)險。雖然幻覺保險仍處于早期階段,但預(yù)計其功能將與其他類型的保險運(yùn)作類似。企業(yè)或個人將支付保費(fèi)以換取針對特定風(fēng)險的保障,具體的覆蓋風(fēng)險以及側(cè)重于財務(wù)補(bǔ)償還是風(fēng)險管理策略會根據(jù)生成式人工智能的應(yīng)用和投保人的需求而有所不同。是對于那些嚴(yán)重依賴生成式人工智能的公司而言。知識產(chǎn)權(quán)權(quán)侵權(quán)以及輸出責(zé)任不明確等挑戰(zhàn)。2020國人工智能活動報告明確概述了“人工智能技術(shù)對知識產(chǎn)權(quán)的大量需求”,其依據(jù)是世界知識產(chǎn)權(quán)組織(WIPO)研究(2019年)中分析的“自20世紀(jì)50年代以來,超過34萬項與人工智能相關(guān)專利申請和160萬篇科學(xué)論文"等相關(guān)內(nèi)容。下文將介紹當(dāng)前的知識產(chǎn)權(quán)框架如何嘗試處理人工智能生成的模型、算法和數(shù)據(jù)問題,并強(qiáng)調(diào)了許可和保護(hù)方面的注意事項。3.6.1著作權(quán)、發(fā)明權(quán)和所有權(quán)法庭案件中爭論不休。從版權(quán)局可以看出,美國的重點(diǎn)仍然是人類的貢獻(xiàn)。架認(rèn)可,特別是在人類和人工智能合作創(chuàng)造的共同發(fā)明者身份方面。保護(hù)生成式人工智能組件算法與模型:這些通常被視為商業(yè)機(jī)密,只要保密并且提供了競爭優(yōu)勢就(語言模型案。簡而言之,雖然為整個模型申請專利可能比較困難,但如果符合新穎性和非顯而易見性的標(biāo)準(zhǔn),其中的具體技術(shù)特征和特定的實(shí)現(xiàn)方式是可以申請專利的。數(shù)據(jù):2022至20232023協(xié)議是至關(guān)重要。3.4.2版權(quán)保護(hù)現(xiàn)行版權(quán)法保護(hù)原創(chuàng)性表達(dá)。人工智能生成的作品提出了作者身份和原創(chuàng)性問題?,F(xiàn)行法律保護(hù)人類創(chuàng)作的作品,這對算法生成的作品提出了挑戰(zhàn)。截至本文發(fā)表之日,美國版權(quán)局拒絕為純?nèi)斯ぶ悄苌傻淖髌诽峁┍Wo(hù),這引發(fā)了國際辯論。一個懸而未決的問題依然存在:人工智能生成的藝術(shù)作品(如詩歌或音樂)能否達(dá)到原創(chuàng)性保護(hù)標(biāo)準(zhǔn),尤其是在嚴(yán)重依賴受版權(quán)保護(hù)的訓(xùn)練數(shù)據(jù)的情況下?當(dāng)今的立法強(qiáng)調(diào)人類在數(shù)據(jù)選擇、提示、輸出內(nèi)容的編輯以及訓(xùn)練數(shù)據(jù)的合理使用原則中的作用。(年工智能系統(tǒng)可能在其創(chuàng)造過程中使用網(wǎng)絡(luò)抓取數(shù)據(jù),也屬于同一類別。專利保護(hù)2024透明)工智能功能,以避免未來出現(xiàn)異議。商業(yè)秘密/必要的。對于復(fù)雜的人工智能/工智能模型和訓(xùn)練數(shù)據(jù)的機(jī)密性。許可和保護(hù)策略開源模型/共享資源許可:公開共享人工智能模型可以加速開發(fā),但這是一種“復(fù)雜的方法”(SemanticS,2021年),可能會引發(fā)對基礎(chǔ)訓(xùn)練數(shù)據(jù)的濫用和侵權(quán)潛在版權(quán)的擔(dān)憂。雖然“創(chuàng)作共享”許可可用于人工智能生成的作品,使用。建議咨詢熟悉開源許可的法律顧問。商業(yè)許可:開發(fā)和部署生成式人工智能模型的公司需要精心設(shè)計許可證保有權(quán)、使用權(quán)和責(zé)任。數(shù)據(jù)許可:獲取用于訓(xùn)練和微調(diào)人工智能模型的數(shù)據(jù)的適當(dāng)許可是避免侵其他法律問題,例如商業(yè)秘密的不當(dāng)使用或特定于某些數(shù)據(jù)類型的隱私法律(例如,健康數(shù)據(jù))。商標(biāo)商標(biāo)是指聯(lián)邦注冊的符號、單詞或短語,用于識別和區(qū)分商品或服務(wù)的來源。與商業(yè)秘密不同,商標(biāo)為如徽標(biāo)、口號或特定的產(chǎn)品設(shè)計等標(biāo)志性的品牌元素提供法律保護(hù)。這在人工智能生成圖像領(lǐng)域尤為重要,因為獨(dú)特的視覺輸出可以成為寶貴的品牌資產(chǎn)。境仍在不斷演變,以下是幾個關(guān)鍵的考慮因素:獨(dú)特性:為了獲得商標(biāo)保護(hù),人工智能生成的圖像必須具有其本身的獨(dú)特相似,就很難獲得保護(hù)。作者身份:當(dāng)前的商標(biāo)法律環(huán)境通常要求有人類作者,這就讓了人工智能的發(fā)展因創(chuàng)意角色演變而更加復(fù)雜。品牌使用:圖像的使用方式必須能夠識別產(chǎn)品或服務(wù)的來源。例如,在包裝或營銷材料中持續(xù)使用人工智能生成的視覺效果可以加強(qiáng)商標(biāo)聲明。商標(biāo)保護(hù)不是自動的,需要采取積極主動的措施強(qiáng)制執(zhí)行。組織有責(zé)任注冊并監(jiān)控未經(jīng)授權(quán)的使用。這可能涉及:商標(biāo)注冊:在相關(guān)商標(biāo)局注冊人工智能生成的商標(biāo)可以在出現(xiàn)侵權(quán)時加強(qiáng)法律地位。積極監(jiān)控:定期檢查在線市場和競爭對手的活動是否存在潛在的商標(biāo)侵權(quán)行為。執(zhí)法行動:如果發(fā)現(xiàn)侵權(quán)行為,可能需要咨詢法律顧問,并對未經(jīng)授權(quán)的用戶采取適當(dāng)行動。企業(yè)應(yīng)采取積極措施,將人工智能生成的圖像作為商標(biāo)加以保護(hù),確保消費(fèi)者將獨(dú)特的視覺效果與其品牌聯(lián)系起來從而維護(hù)其競爭優(yōu)勢。商標(biāo)法非常復(fù)雜,不同管轄范圍的具體規(guī)定可能有所不同。建議咨詢專業(yè)的知識產(chǎn)權(quán)律師,以獲得通過商標(biāo)保護(hù)人工智能生成圖像的具體指導(dǎo)。變化的形勢:國際差異:目前,各國有關(guān)生成式人工智能的知識產(chǎn)權(quán)法律不盡相同,這(1988持續(xù)的政策討論:關(guān)于調(diào)整知識產(chǎn)權(quán)框架以更好地應(yīng)對生成式人工智能的獨(dú)特挑戰(zhàn)的討論仍在進(jìn)行中。為人工智能生成的作品提供新的特殊保護(hù)(如“訓(xùn)練人工智能模型的特殊權(quán)利在進(jìn)行。模式和更清晰的所有權(quán)歸屬對于促進(jìn)負(fù)責(zé)任和可持續(xù)的人工智能發(fā)展是迫切需要能生成內(nèi)容的潛在濫用問題,這些問題需要立法關(guān)注。相關(guān)立法拜登總統(tǒng)在2023年10月發(fā)布的關(guān)于人工智能的行政令專注于確保人工智能“現(xiàn)有的知識產(chǎn)權(quán)法律框架可能并不完全適合解決人工智能所帶來的獨(dú)特挑戰(zhàn)”“清晰且一致的指導(dǎo)(USPTO,制定解決與人工智能相關(guān)的知識產(chǎn)權(quán)問題的推薦方案。世界知識產(chǎn)權(quán)組織舉辦了一個“多方利益相關(guān)者論壇,以促進(jìn)對整個經(jīng)濟(jì)和社會發(fā)展中人工智能應(yīng)用所涉及的知識產(chǎn)權(quán)問題及其對經(jīng)濟(jì)和文化產(chǎn)品與服務(wù)的”了人工智能對知識產(chǎn)權(quán)政策的影響。負(fù)責(zé)任人工智能的技術(shù)戰(zhàn)略、標(biāo)準(zhǔn)和最佳實(shí)踐本節(jié)總結(jié)了我們已經(jīng)討論過的一些實(shí)施負(fù)責(zé)任人工智能技術(shù)的標(biāo)準(zhǔn)和最佳實(shí)踐,并提供了一個簡短的案例研究展示成功的實(shí)施方法。用了簡化的分類方法,以便將來根據(jù)需要擴(kuò)展。公平與透明度數(shù)據(jù)公平性:數(shù)據(jù)集的多樣性:積極策劃具有代表性和多樣性的數(shù)據(jù)集,最大限度地減少輸出中的意外偏差。數(shù)據(jù)集審計:定期審計生成式人工智能模型的訓(xùn)練數(shù)據(jù)集,識別潛在的偏差和不足。采用數(shù)據(jù)擴(kuò)充或合成數(shù)據(jù)生成等技術(shù)提高多樣性和包容性。數(shù)據(jù)透明:公布用于訓(xùn)練生成式人工智能模型的數(shù)據(jù)集信息,包括其的偏差或差異。定期評估偏差:主動實(shí)施工具和流程來識別并減輕數(shù)據(jù)集和生成式人工智能模型中的偏差。定期測試和驗證,檢查是否存在歧視性輸出。減少偏見:在開發(fā)和部署階段,積極使用和開發(fā)公平性指標(biāo)和偏差緩解技術(shù),檢測和解決生成式人工智能模型中的偏差。算法透明度:文檔:詳細(xì)記錄生成式人工智能模型的設(shè)計、架構(gòu)和決策過程并以可訪問的格式向利益相關(guān)者分享這些信息,以促進(jìn)理解和審查。模型的可解釋性:采用可解釋人工智能技術(shù)如局部可解釋模型無關(guān)解釋LIE或夏普利加性解釋SAP特定結(jié)果,來識別潛在的偏差。創(chuàng)建“模型卡片可以利用HuggingFace,TensorFlowModelGarden或PapersWithCode等展示的能讓用戶了解人工智能系統(tǒng)的潛在偏差和局限性。開源模型:盡可能地貢獻(xiàn)到開源生成式人工智能模型中,以便于更廣泛的審查和協(xié)作改進(jìn)??山忉屝?可解釋的模型:盡可能優(yōu)先使用具有內(nèi)在可解釋性的生成式人工智能模型,提供對決策過程的深入了解。可解釋的人工智能:結(jié)合使用技術(shù)來解釋生成式人工智能模型是如何促進(jìn)了對模型功能的理解。可解釋的界面:在用戶界面提供清晰的解釋和理由來支持生成式人工智能的輸出,從而培養(yǎng)信任和理解。安全與隱私數(shù)據(jù)安全:加密:對靜態(tài)、傳輸和使用中的敏感數(shù)據(jù)加密。驗證協(xié)議:采用強(qiáng)大的身份驗證協(xié)議,如多因素身份驗證和零信任安從而降低未經(jīng)授權(quán)的訪問風(fēng)險。定期審計:定期執(zhí)行安全審計和漏洞評估,識別和降低潛在的安全風(fēng)險。隱私保護(hù)技術(shù):將融入設(shè)計:將隱私原則(如數(shù)據(jù)最小化、同意、安全性)直接納入生成式人工智能系統(tǒng)的開發(fā)和實(shí)施中。隱私增強(qiáng)技術(shù):探索保護(hù)敏感用戶數(shù)據(jù)的技術(shù):差分隱私:可以向數(shù)據(jù)集中添加計算噪聲來匿名化信息,同時保持統(tǒng)計屬性,使得在保護(hù)個人隱私的同時能夠分析。聯(lián)邦學(xué)習(xí):在多個設(shè)備或服務(wù)器的分散數(shù)據(jù)上訓(xùn)練生成式人工智能模型,避免將敏感數(shù)據(jù)聚集在一個中心位置。同態(tài)加密:在不解密的情況下對加密數(shù)據(jù)執(zhí)行計算。這樣就可以在不泄露基礎(chǔ)數(shù)據(jù)的情況下安全地分析敏感信息。防御對抗性攻擊:對抗性魯棒性工具集ARTART的實(shí)際局限性提出了擔(dān)憂。安全測試:定期執(zhí)行對抗性攻擊模擬,識別漏洞并改進(jìn)模型的防御能力。魯棒性、可控性和合乎倫理的人工智能實(shí)踐安全性和可靠性:風(fēng)險評估:進(jìn)行徹底的風(fēng)險評估,評估生成式人工智能系統(tǒng)的潛在危害和意外后果,并實(shí)施緩解措施和保障措施。測試與驗證:以確保其在不同情況下的可靠性和魯棒性。最小化傷害:設(shè)計具有保障措施的生成式人工智能系統(tǒng),最大限度地減少潛在傷害。這可能涉及到“安全開關(guān)”或根據(jù)應(yīng)用和所涉及的風(fēng)險設(shè)計限制。人類監(jiān)督:人類干預(yù):在關(guān)鍵決策過程中保持必要的人類參與,特別是對于高風(fēng)險應(yīng)用。允許人類干預(yù),以便在必要時覆蓋或調(diào)整生成式人工智能的輸出。故障安全機(jī)制:建立明確的升級路徑和故障安全機(jī)制,以應(yīng)對意外或有害的模型行為,特別是當(dāng)這些行為被外部用戶報告時。問責(zé)制:所有權(quán)和責(zé)任:為人工智能系統(tǒng)的開發(fā)、部署和監(jiān)控指定明確的角色和
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 現(xiàn)代辦公環(huán)境下的健康與舒適
- 未來的工作環(huán)境科技與舒適性的平衡
- 現(xiàn)代辦公環(huán)境下的智能配送技術(shù)應(yīng)用實(shí)例
- 2024秋七年級數(shù)學(xué)上冊 第4章 一元一次方程4.2 解一元一次方程 3用合并同類項法解方程說課稿(新版)蘇科版001
- Unit 4 History And Traditions Reading for Writing 說課稿-2023-2024學(xué)年高中英語人教版(2019)必修第二冊
- Unit 4 Friends Forever Understanding ideas click for a friend 說課稿-2024-2025學(xué)年高中英語外研版必修第一冊
- 2024年五年級英語下冊 Unit 2 How do you come to school第1課時說課稿 譯林牛津版
- 6 魯濱遜漂流記(節(jié)選)(說課稿)-2023-2024學(xué)年語文六年級下冊統(tǒng)編版
- 16《夏天里的成長》(說課稿)2024-2025學(xué)年部編版語文六年級上冊001
- Unit 2 Wildlife Protection Reading and Thinking Language Focus 說課稿-2024-2025學(xué)年高一上學(xué)期英語人教版(2019)必修第二冊001
- 寧德時代筆試題庫
- 五年級下冊北京版英語單詞
- 康復(fù)醫(yī)院患者隱私保護(hù)管理制度
- 新課標(biāo)I、Ⅱ卷 (2024-2020) 近五年高考英語真題滿分作文
- 浙江省嘉興市2023-2024學(xué)年六年級(上)期末數(shù)學(xué)試卷
- 子宮脫垂手術(shù)指南
- 沈陽理工大學(xué)《數(shù)》2022-2023學(xué)年第一學(xué)期期末試卷
- DB41T 2231-2022 水利工程生態(tài)護(hù)坡技術(shù)規(guī)范
- 共享單車安全知識
- 渤海大學(xué)《大數(shù)據(jù)分析與實(shí)踐》2023-2024學(xué)年期末試卷
- 2024版2024年《咚咚鏘》中班音樂教案
評論
0/150
提交評論