版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)
文檔簡介
OECPubll·shl·ng人工智能、數(shù)據(jù)2024年6月第22》ECDBETTERPOLICESFORBETTERLIVES報告報告強調(diào)了關(guān)鍵的調(diào)查結(jié)果和建議,以加強人工智能,數(shù)據(jù)治理和隱私方面的協(xié)同作用和國際合作領(lǐng)域本文件于2024年6月20日由經(jīng)合組織數(shù)字政策委員會(DPC)通過書面程序批準(zhǔn)和解密,并由經(jīng)合組織秘書處準(zhǔn)備出版。本文參考了經(jīng)合組織人工智能專家網(wǎng)絡(luò)的人工智能、數(shù)據(jù)和隱私問題專家組(以下簡稱“專家組”)的貢獻它是在經(jīng)合組織人工智能治理工作組(AIGO)和經(jīng)合組織數(shù)據(jù)治理和隱私工作組的主持下編寫的,這兩個工作組都是在發(fā)布時,專家組由IsraeliPrivacyProtectionAuthority(以色列隱私保護局),DeniseWong(新加坡信息技術(shù)媒體發(fā)展局(IMDA和ClaraNeppel(IEEE歐洲業(yè)務(wù)運營)共同主持專家組還受益于由YordankaIvanova(歐盟委員會),KariLaumann(挪威數(shù)據(jù)保護局),WinstonMaxwell(巴黎電信-巴黎綜合理工學(xué)院)和MarcRotenberg(人工智能和數(shù)字政策中心)組成的指導(dǎo)小組的投入和指導(dǎo)報告的編寫和起草工作由經(jīng)合組織秘書處成員領(lǐng)導(dǎo),并與該報告的主要貢獻者WinstonMaxwell(巴黎電信-巴黎理工學(xué)院)合作:數(shù)據(jù)治理和隱私部門負責(zé)人ClarisseGirot和人工智能部門負責(zé)人KarinePerset認可了兩個工作組和相關(guān)政策社區(qū)共同努力的價值,并提供了資源,投入和監(jiān)督。數(shù)字經(jīng)濟政策司的GalliaDaor和科學(xué)、技術(shù)和創(chuàng)新司副司長AudreyPlonk提供了建議和監(jiān)督。作者感謝那些抽出時間參加向?qū)<医M介紹情況的個人和機構(gòu)所作的貢獻。最后,作者感謝AndreiaFurtado、MarionBarclay和ShelliePhillips提供的行政和溝通支持,報告的整體質(zhì)量得益于他們的參與。各代表團注意本文件也可在O.N.E上查閱,參考代碼為:DSTI/CDEP/AIGO/DGP(2023)1/FINAL本文件以及其中所載的任何數(shù)據(jù)和地圖不妨礙任何領(lǐng)土的地位或?qū)θ魏晤I(lǐng)土的主權(quán),不妨礙國際邊界和界線的劃定,也不妨礙任何領(lǐng)土、城市或地區(qū)的名稱。2024年經(jīng)濟合作與發(fā)展組織本作品的使用,無論是數(shù)字版還是印刷版,均受上的條款和條件/termsandconditions。生成式人工智能在隱私方面的機遇和風(fēng)險從生成AI中出現(xiàn)的隱私問題:隱私執(zhí)法機構(gòu)介入生成式人工智能增強了研究人工智能與隱私法規(guī)經(jīng)合組織人工智能建議書中的五項價值觀原則映射AI和隱私原則的關(guān)鍵政策考慮AI和隱私原則可能的共性和差異概述隱私權(quán)執(zhí)法機構(gòu)的國際反應(yīng)隱私執(zhí)法機構(gòu)就隱私法對人工智能的應(yīng)用提供的指導(dǎo)人工智能領(lǐng)域的PEA執(zhí)法行動,包括生成式人工智能267892224272729424244表3.AI和隱私政策社區(qū)之間具有不同含義的關(guān)鍵概念28插文1.1.與AI系統(tǒng)相關(guān)的真實和潛在風(fēng)險22 AI人工智能數(shù)據(jù)保護機構(gòu)數(shù)字政策委員會GPU圖形處理單元高性能計算信通技術(shù)信息和通信技術(shù)政府間組織機器學(xué)習(xí)非政府組織自然語言處理經(jīng)合組織經(jīng)濟合作與發(fā)展組織一個al經(jīng)合組織人工智能專家網(wǎng)絡(luò)豌豆隱私執(zhí)行機構(gòu)研發(fā)研發(fā)SDG可持續(xù)發(fā)展目標(biāo)中小企業(yè)中小企業(yè)中小企業(yè)VC風(fēng)險投資WPAIGO人工智能治理工作組 WPDGP數(shù)據(jù)治理和隱私工作組最近的人工智能技術(shù)進步,特別是生成人工理和隱私問題。然而,人工智能和隱私政策社區(qū)法因司法管轄區(qū)和法律制度而異。這些孤島可能和執(zhí)行的復(fù)雜性,并阻止利用國家框架之間的共工智能發(fā)展帶來它將經(jīng)合組織隱私準(zhǔn)則中規(guī)定的則相結(jié)合,評估國家和區(qū)域舉措,并提出潛在的組織隱私準(zhǔn)則以及經(jīng)合組織人工智能原則的實施關(guān)于捐助者管理和保護私人生活的問題。然而,國際胎者隱私的政策也需要采取各種獨立的做法,采用不度。這些國家的主要障礙是遵守和執(zhí)行規(guī)則的復(fù)雜性的共同點上實行資本主義。該報告集中討論了保護國生活所面臨的風(fēng)險和機會。通過比較《保護隱私權(quán)法原則,可以看出國家和區(qū)域的倡議以及合作領(lǐng)域的潛力。Lerappor最近的人工智能技術(shù)進步-特別是生成人工智能的興起-增加了與數(shù)據(jù)保護和隱私相關(guān)的機會和風(fēng)險作為一種通用技術(shù),人工智能正在廣泛應(yīng)用并迅速滲透到全球的產(chǎn)品、行業(yè)和商業(yè)模式中。生成式人工智能的最新進展在很大程度上歸功于存儲在世界各地的大量訓(xùn)練數(shù)據(jù)的可用性和使用。與數(shù)據(jù)一樣,人工智能生命周期中的參與者分布在不同的司法管轄區(qū),這強調(diào)了全球同步、明確指導(dǎo)和合作努力的必要性,以應(yīng)對人工智能對隱私的影響所帶來的挑戰(zhàn)然而,人工智能和隱私政策社區(qū)目前傾向于單獨解決挑戰(zhàn),沒有太多的合作,因此他們的方法因司法管轄區(qū)和法律制度而異。例如,抓取個人數(shù)據(jù)以訓(xùn)練生成式人工智能的做法引發(fā)了重大的隱私問題,并因此引起了越來越多的監(jiān)管關(guān)注。然而,關(guān)于使數(shù)據(jù)抓取實踐與隱私準(zhǔn)則保持一致的實際解決方案的討論有限。同樣,在生成人工智能的發(fā)展中,個人數(shù)據(jù)保護和隱私權(quán)的實際實施還沒有成為集體深入反思的主題。隨著越來越多的國家開始監(jiān)管人工智能,這些社區(qū)之間缺乏合作可能會導(dǎo)致對數(shù)據(jù)保護和隱私法的實際范圍的誤解,以及相互沖突和/或重復(fù)的要求,這可能會導(dǎo)致監(jiān)管合規(guī)和執(zhí)法的額外復(fù)雜性。隨著兩個社區(qū)考慮對人工智能的機遇和風(fēng)險的可能應(yīng)對措施,他們可以通過加強合作,調(diào)整政策反應(yīng),提高人工智能政策框架與數(shù)據(jù)保護和隱私框架之間的互補性和一致性,從彼此的知識,經(jīng)驗和優(yōu)先事項中受益由于他們在歷史,個人資料和方法上的差異,人工智能和隱私政策社區(qū)可以相互學(xué)習(xí)近年來,人工智能社區(qū),包括來自學(xué)術(shù)界、民間社會以及公共和私營部門的人工智能研究人員和開發(fā)人員,已經(jīng)形成了充滿活力和強大的網(wǎng)絡(luò)。人工智能社區(qū)中的許多人采取了創(chuàng)新驅(qū)動的方法,而隱私社區(qū)則普遍采取了更為謹慎的方法,其標(biāo)志是數(shù)十年來實施了長期的隱私和數(shù)據(jù)保護法。由于長期存在的隱私和數(shù)據(jù)保護法律,隱私社區(qū)通常也具有更成熟的特點,并隨著時間的推移而發(fā)展,包括各種利益相關(guān)者,如監(jiān)管機構(gòu),隱私和數(shù)據(jù)保護官員,技術(shù)專家,律師,公共政策專業(yè)人員,民間社會團體和監(jiān)管技術(shù)提供商等。該社區(qū)專注于建立隱私保護措施,并在通常復(fù)雜和牢固的監(jiān)管框架內(nèi)評估風(fēng)險。盡管存在這些差異,但協(xié)同作用仍然存在,合作至關(guān)重要。本報告確定了可從進一步協(xié)同增效和互補中受益的領(lǐng)域,包括兩個政策界之間的關(guān)鍵術(shù)語差異它將現(xiàn)有的隱私和數(shù)據(jù)保護考慮因素映射到經(jīng)合組織2019年關(guān)于人工智能的建議中規(guī)定的基于人工智能價值觀的原則,以確定需要更密切協(xié)調(diào)的相關(guān)領(lǐng)域。這種映射說明了對隱私和人工智能社區(qū)圍繞關(guān)鍵概念-包括公平性,透明度和可了解這些差異對于建立可持續(xù)的合作行動至關(guān)重要。人工智能和隱私社區(qū)的參與者已經(jīng)在國家、區(qū)域和全球?qū)用鎸嵤┝舜胧?,以?yīng)對人工智能帶來的機遇和風(fēng)險。該報告概述了國家和地區(qū)在人工智能和隱私方面的發(fā)展,包括隱私監(jiān)管機構(gòu)就隱私法對人工智能的應(yīng)用以及相關(guān)執(zhí)法行動提供的指導(dǎo),特別是關(guān)于生成人工智能的指導(dǎo)。它發(fā)現(xiàn),雖然已經(jīng)采取了許多行動,包括隱私執(zhí)法機構(gòu)的政策舉措和執(zhí)法行動,但隨著全球范圍內(nèi)出現(xiàn)專門針對人工智能的法律,它們可以從進一步的協(xié)調(diào)中受益憑借其在人工智能、數(shù)據(jù)保護和隱私方面的國際影響力和實質(zhì)性專業(yè)知識,經(jīng)合組織似乎是加強該領(lǐng)域協(xié)同作用和國際合作領(lǐng)域的關(guān)鍵論壇它可以借鑒這兩個領(lǐng)域的既定政策工作,包括1980年經(jīng)合組織隱私指南(2013年更新)和2019年經(jīng)合組織人工智能建議(2024年更新)此外,經(jīng)合組織在2024年成立了一個獨特的人工智能、數(shù)據(jù)和隱私專家組盡管面臨挑戰(zhàn),但這項政策工作和專家組內(nèi)正在進行的活動都表明,廣泛而持久的合作以及相互理解是可以實現(xiàn)的。為了為這些合作機會提供一個共同的參考框架,并突出經(jīng)合組織的獨特作用,該報告將經(jīng)合組織人工智能原則(第一個關(guān)于人工智能的政府間標(biāo)準(zhǔn))與完善的經(jīng)合組織隱私指南(作為全球數(shù)據(jù)保護法律的基礎(chǔ))進行了協(xié)調(diào)。該報告評估了與人工智能和隱私相關(guān)的國家和地區(qū)舉措,并確定了合作,例如在隱私增強技術(shù)(PET)領(lǐng)域,這有助于解決隱私問題,特別是關(guān)于人工智能算法的人工智能、數(shù)據(jù)和隱私聯(lián)合專家組國際審計領(lǐng)域的先進技術(shù)-特別是國際審計一般性的經(jīng)驗-關(guān)注機會和風(fēng)險,保護捐贈者和私人生活在多價值技術(shù)方面,l'IA是一個在整個世界迅速發(fā)展產(chǎn)品、服務(wù)和企業(yè)模式的門戶和門戶。一般保險業(yè)的進步主要體現(xiàn)在保險業(yè)的可供使用性和保險業(yè)的利用率上同樣,在國際協(xié)定的生命周期中,所涉及的法律問題也涉及不同的司法問題,因此需要全球同步,明確方向,努力合作,以消除國際協(xié)定對私人生命的影響??傊?,國際法共同體和保護個人生命的政策傾向于在沒有合作的情況下,在某種程度上,它們對其他國家的司法管轄權(quán)和其他國家的司法制度采取了不同的做法。此外,為使保護個人生活方面的重要問題普遍得到重視,并使人們對規(guī)則計劃產(chǎn)生了廣泛的關(guān)注,對個人身份進行“刮擦”的做法是一致的然而,關(guān)于保護隱私權(quán)原則的實踐性解決方案的討論存在局限性此外,在遺傳學(xué)發(fā)展中保護個體受教育者和個人生活權(quán)利的實際措施并沒有實現(xiàn)集體反思的目標(biāo)此外,各國對《國際法》的重視程度更高,這些共同體之間的合作也更有利于保護受保護者和個人生活的法律的有效性,這是因為需要克服遵守和適用《國際法》的復(fù)雜性盡管兩個共同體都設(shè)想對國際安全局的機會和風(fēng)險作出可能的反應(yīng),但它們都希望通過相互了解、經(jīng)驗豐富和優(yōu)先考慮,加強合作,協(xié)調(diào)政治反應(yīng),并改善一方的國際安全局政治干部與另一方的保護捐贈者和私人生活干部之間的互補性和一致性從不同的歷史、概況和方法、國際法的共同體和保護私人生活的政策等方面,我們可以學(xué)到更多的東西這是一種活力和團結(jié)的網(wǎng)絡(luò)。對于IA社區(qū)的眾多成員來說,創(chuàng)新是一種進步,但保護隱私生活的社區(qū)必須被視為長期存在的理由,以保護隱私和受保護的生活保護私人生活的共同體在時間上取得了進展,以使參與方多樣化,其中包括監(jiān)管者、保護私人生活的責(zé)任人和捐助者、技術(shù)人員、律師、公共政治專業(yè)人員、民間社會團體和監(jiān)管技術(shù)的四人組。Cettecommunautéseconcentresurladamagenplacedeguarantiesenmatièredeprotectiondelavieprivéeetsurl'atténuation為了評估那些有智慧和團結(jié)的干部所面臨的風(fēng)險,總的來說,我們應(yīng)該更加謹慎地考慮到他們可能會在國際法共同體中出現(xiàn)的問題存在差異,存在協(xié)同作用,合作至關(guān)重要。這種關(guān)系確定了協(xié)同和互補的領(lǐng)域,并包括兩個政治共同體之間主要的不同術(shù)語。Ilcomparelesconsiderationsexistantesenmatièredeprotectiondelavieprivéeetdesdonnéesaveclesprincipesfounddéssurlesvaleursdel'IAénoncésdanslaRecommandationde2019del'OCDEsurl'IA,afind'identifierlesdomainesconcernentspourunecoordinationplusétroite.這幅地圖說明了保護隱私和國際法概念的不同解釋-即公平、公正和可解釋性Ilestessentieldecomprendrecesdiffévestrepourmettreenplacedesactionsdecooperationdurables.加強國際審計署的工作和該報告是國家和區(qū)域在保護國際法和保護私人生活方面的一次革命,包括保護私人生活規(guī)則的主管部門對保護國際法適用的四項指導(dǎo)方針,以及與國際法有關(guān)的執(zhí)行措施。他指出,如果這些措施是在企業(yè)中實施的,則應(yīng)注意負責(zé)實施保護個人生活法的主管當(dāng)局采取的政治舉措和實施措施,這些舉措和措施將有助于加強對國際法具體規(guī)定的措施的協(xié)調(diào),使國際法在整個世界中發(fā)揮作用由于它具有國際性,并具有國際協(xié)定、保護受保護者和保護私人生活領(lǐng)域的專門知識,因此,該組織成為加強該領(lǐng)域的協(xié)同作用和國際合作領(lǐng)域的一個重要論壇它可以支持在兩個領(lǐng)域進行良好的政治工作,特別是在1980年保護私人生活、2013年生效和2019年生效的OCDE建議、2024年生效的OCDE法律指導(dǎo)原則中此外,到2024年,該組織將組建一個關(guān)于國際法、捐助者和保護私人生活的獨特專家組,負責(zé)審查國際法與保護捐助者和保護私人生活交叉點的問題和政治解決辦法,并對兩個社區(qū)的首要計劃人員進行重新安排專家組在這方面的努力、公共政策工作和活動是切實可行的,因為這是一個大規(guī)模和持久的合作,也是一個相互理解的合作Afindefourniruncadrederéférencecommunpourcesopportunitésdecoopérationetdesoulignerler?ledistintifdel'OCDE,lerapportalignelesPrincipesdel'OCDErelatifsàl'IA-lapremièrenormeintergouvernementalesurl'IA-surlesLignesdirectricesdel'OCDErelativesàlaprotectiondelavieprivée,whiserventdefondementauxloissurlaprotectiondesdonnéesàl'échellemondiale.報告評價了國家和區(qū)域關(guān)于保護隱私和確定合作領(lǐng)域的倡議,指出保護關(guān)于國際保障、受保護人員和私人生活的聯(lián)合專家組發(fā)揮著至關(guān)重要的作用,在尊重私人生活和保護受保護人員的規(guī)則的范圍內(nèi),明確并簡化國際保障的創(chuàng)新、技術(shù)和規(guī)則的具體可能性最近的人工智能進步,包括2022年底生成人工智能的興起,帶來了數(shù)據(jù)治理和隱私挑戰(zhàn)。圍繞輸入和輸出數(shù)據(jù)的使用、數(shù)據(jù)質(zhì)量和數(shù)據(jù)可用性來訓(xùn)練人工智能模型,困難的問題已經(jīng)浮出水面即如何保護所有相關(guān)方的權(quán)益,包括這些模型和系統(tǒng)收集、使用和產(chǎn)生的數(shù)據(jù)所涉及的個人與以前的人工智能系統(tǒng)相比,神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)的最新進展導(dǎo)致了更大,更先進和計算密集型的人工智能模型和系統(tǒng)。2017年,一組研究人員引入了一種名為“transformers”的神經(jīng)網(wǎng)絡(luò)架構(gòu),這是一項關(guān)鍵的概念突破,支撐了人工智能語言模型和生成人工智能的重大進展。這些進步集中在“基礎(chǔ)模型”上人工智能計算基礎(chǔ)設(shè)施的進步-例如圖形處理單元(GPU)-以及數(shù)據(jù)的可用性和質(zhì)量,也是推動機器學(xué)習(xí)技術(shù)飛躍的基礎(chǔ),因為它們形成了基本的人工智能生產(chǎn)函數(shù):算法,數(shù)據(jù)和計算資源(OECD,2024[1])。隨著新的機器學(xué)習(xí)技術(shù)的興起,特別是生成式人工智能應(yīng)用的興起,人們迫切需要考慮與人工智能系統(tǒng)的培訓(xùn)和使用相關(guān)的隱私影響,并呼吁該領(lǐng)域的不同政策社區(qū)-包括政策制定者,研究人員,民間社會,行業(yè)以及監(jiān)督和執(zhí)法機構(gòu)-通過交叉施肥來神經(jīng)網(wǎng)絡(luò)通常被稱為“黑匣子”。“黑匣子”一詞反映了理解人工智能系統(tǒng)如何做出決策的巨大挑戰(zhàn),這一挑戰(zhàn)在基于神經(jīng)網(wǎng)絡(luò)的方法中尤為明顯。經(jīng)合組織正在幫助建立和加強人工智能和隱私社區(qū)之間的協(xié)同作用,借鑒這兩個領(lǐng)域的既定政策工作該分析得出的結(jié)論是,盡管面臨挑戰(zhàn),但人工智能的創(chuàng)新、技術(shù)和監(jiān)管發(fā)展主要與隱私和個人數(shù)據(jù)保護規(guī)則相兼容,甚至可以加強這些規(guī)則。通過識別風(fēng)險和機遇,將現(xiàn)有的經(jīng)合組織隱私準(zhǔn)則映射到人工智能原則,評估國家和區(qū)域倡議,并為未來的發(fā)展提供關(guān)鍵的政策考慮這些努力有助于在經(jīng)合組織及其他組織開展國際合作,促進共同理解,幫助制定在全球成功實施人工智能和隱私規(guī)則的路線。為了應(yīng)對最近先進的機器學(xué)習(xí)系統(tǒng)和生成式人工智能的興起,人工智能以及隱私和數(shù)據(jù)保護社區(qū)的許多人圍繞應(yīng)用于高風(fēng)險領(lǐng)域的人工智能系統(tǒng)的政策行動和規(guī)則也出現(xiàn)在越來越多的司法管轄區(qū)。最著名的例子可能是歐盟的《人工智能法案》(“歐盟人工智能法案”)概述了基于風(fēng)險的人工智能系統(tǒng)使用監(jiān)管方法,包括高風(fēng)險領(lǐng)域,例如對歐洲價值觀的威脅,如隱私和數(shù)據(jù)保護(歐洲議會,2024[2])。G7數(shù)字和技術(shù)部長也通過G7廣島生成人工智能進程(經(jīng)合組織,2023[3])將人工智能置于其議程的重要位置,強調(diào)保護人權(quán)的必要性,包括隱私權(quán)。個別國家也采取了行動。例如,2023年美國關(guān)于安全,可靠和值得信賴的人工智能開發(fā)和使用的行政命令指示公共部門實體建立人工智能安全和保障,隱私保護,公平和公民權(quán)利,消費者和工人權(quán)利以及創(chuàng)新和競爭的新標(biāo)準(zhǔn)(白宮,2023[4])。在制定人工智能特定法律、法規(guī)和標(biāo)準(zhǔn)的同時,越來越多司法管轄區(qū)的監(jiān)管機構(gòu)已開始應(yīng)用現(xiàn)有的隱私和數(shù)據(jù)保護法律(以下簡稱“隱私法”以解決處理用于訓(xùn)練人工智能系統(tǒng)的個人數(shù)據(jù)所多個隱私執(zhí)法機構(gòu)(PEAs)1宣布推出人工智能行動計劃,包括成立專門的人工智能單位。這些國家舉措得到國際隱私監(jiān)管機構(gòu)的支持,例如七國集團數(shù)據(jù)保護和隱私監(jiān)管機構(gòu)圓桌會議于2023年6月發(fā)表的公開聲明,以及然而,由于司法管轄區(qū)和法律制度之間的差異,人工智能和隱私政策社區(qū)在很大程度上仍然獨立地應(yīng)對人工智能和隱私挑戰(zhàn)。隨著越來越多的國家開始監(jiān)管人工智能,這可能會導(dǎo)致對數(shù)據(jù)保護和隱私法的實際范圍的誤解,以及相互沖突和/或重復(fù)的要求,這可能會導(dǎo)致遵守和執(zhí)行負責(zé)任的政策和法規(guī)的額外復(fù)雜性。當(dāng)兩個社區(qū)考慮對人工智能機遇和風(fēng)險的可能應(yīng)對措施時,他們可以通過加強合作,調(diào)整政策反應(yīng),提高人工智能政策框架與數(shù)據(jù)保護和隱私框架之間的互補性和一致性,從彼此的知識,經(jīng)驗和優(yōu)先事項中受益存在涉及兩個不同政策群體的平行工作流并不罕見,也不一定有問題。每個社區(qū)都帶來了獨特的視角,可以導(dǎo)致更豐富的政策辯論和解決辦法。然而,人工智能作為一種技術(shù)的快速發(fā)展及其在各部門的擴散,給不同的政策界帶來了壓力,要求他們迅速制定解決方案,而孤島的存在增加了政策反應(yīng)不一致的風(fēng)險,甚至由于術(shù)語和方法的差異而產(chǎn)生誤解。就語言達成共識往往是有效合作的先決條件。在這方面,經(jīng)合組織在促進人工智能和隱私領(lǐng)域關(guān)鍵術(shù)語的標(biāo)準(zhǔn)化方面發(fā)揮了重要作用也就是說,2019年經(jīng)合組織關(guān)于人工智能的建議包括一個被廣泛引用的人工智能系統(tǒng)定義,該定義于2023年底進行了修訂,以確保它反映和解決重要的技術(shù)和政策發(fā)展,特別是在生成人工智能方面,以及對安全,信息完整性和環(huán)境可持續(xù)性的高度關(guān)注。該建議影響了世界各地的人工智能政策和法律框架,包括歐盟人工智能法案,歐洲委員會以及美國國家標(biāo)準(zhǔn)與技術(shù)研究所(NIST)等美國貿(mào)易和技術(shù)委員會(TTC)也在積極合作,并于2023年5月31日發(fā)布了歐盟-美國人工智能通用術(shù)語和分類的初稿,其中包括與人工智能和隱私社區(qū)相關(guān)的術(shù)語(歐盟委員會和美國TTC,2023[5])。經(jīng)合組織人工智能治理工作組(WPAIGO)和經(jīng)合組織數(shù)據(jù)治理和隱私工作組(WPDGP)有能力支持現(xiàn)有的國際合作努力。作為經(jīng)合組織人工智能專家網(wǎng)絡(luò)(ONEAI)的一部分,經(jīng)合組織人工智能、數(shù)據(jù)和隱私專家組(以下簡稱“專家組”)成立于2024年,也有助于將兩個社區(qū)聚集在一起,促進協(xié)同效應(yīng)和互補性。這些經(jīng)合組織工作組代表和專家組成員為本報告和更廣泛的工作貢獻了分析和見解經(jīng)合組織的隱私和數(shù)據(jù)保護社區(qū)已經(jīng)建立,擁有強大的“工具箱”,與人工智能對個人權(quán)利和自由帶來的風(fēng)險相關(guān)。該工具箱包括各種法律文書,特別是1980年通過并于2013年修訂的經(jīng)合組織理事會關(guān)于保護隱私和個人數(shù)據(jù)跨界流動指導(dǎo)方針的建議(下稱這個工具箱的元素已經(jīng)在幾個司法管轄區(qū)使用,為負責(zé)任地使用人工智能的框架提供信息。雖然與值得信賴的人工智能相關(guān)的框架相對較新,但它們在全球范圍內(nèi)引起了為了跟上技術(shù)進步的速度,人工智能政策界正在快速開發(fā)和實施框架,包括人工智能風(fēng)險管理和問責(zé)制,減輕偏見,促進人工智能系統(tǒng)輸出的可解釋性,以及提高人工智能系統(tǒng)生命周期的魯棒性等。例如,經(jīng)合組織快速發(fā)展的人工智能、數(shù)據(jù)治理和隱私政策格局要求這些政策社區(qū)之間加強協(xié)作合作不僅致力于解決人工智能的隱私風(fēng)險,還致力于優(yōu)化和增強人工智能對社會的集體利益,包括釋放人工智能的創(chuàng)新潛力,同時保護隱私和個人數(shù)據(jù)。人工智能和隱私方面的國際合作需要確保適用于人工智能和隱私的法律、技術(shù)和運營框架的長期互操作性。這將使政策制定者和決策者能夠在各自的政策框架中利用共同點、互補性和趨同因素,或者相反,找出可能阻礙共同立場或合作發(fā)展的絆腳石。這些合作努力可以幫助評估人工智能和隱私建議是否需要更新,以反映人工智能和隱私社區(qū)之間的協(xié)同作用。在隱私方面,OECD隱私指南于1980年通過,并于2013年修訂[OECD/LEGAL/0188]。它們是經(jīng)合組織隱私工作的基石經(jīng)合組織隱私準(zhǔn)則得到了其他與隱私和人工智能問題合作相關(guān)的經(jīng)合組織旗艦法律文書的補充,包括《關(guān)于實施保護隱私法律的跨境合作的建議》(經(jīng)合組織,2007年[6])、《關(guān)于加強數(shù)據(jù)獲取和共享的建議》(經(jīng)合組織,2021年[7])以及隨后在WPDGP主持《政府查閱個人資料聲明》私營部門實體[OECD/LEGAL/0487]在出于國家安全和執(zhí)法目的訪問存儲在人工智能系統(tǒng)中的個人數(shù)據(jù)時也是相關(guān)的。近年來,WPDGP對隱私和人工智能進行了分析,特別是關(guān)于隱私增強技術(shù)(PET)(OECD,2023[8])。國際合作是經(jīng)合組織隱私準(zhǔn)則(第六部分)的核心原則,也是WPDGP議程中日益增長的工作領(lǐng)域,包括需要澄清基線隱私框架與包括人工智能和新技術(shù)在內(nèi)的經(jīng)合組織隱私準(zhǔn)則是技術(shù)中立的,沒有明確涵蓋人工智能或其他特定數(shù)字技術(shù)帶來的隱私挑戰(zhàn)。與此同時,2021年對該建議的審查強調(diào)了需要解決個人數(shù)據(jù)處理可能產(chǎn)生的偏見和其他有害后果,同時又不阻礙創(chuàng)新并阻止這些技術(shù)的有益使用(經(jīng)合組織,2021[9])。其中一個主要主題是人工智能算法的“可解釋性”對于確保準(zhǔn)確性,公平性和問責(zé)制的重要性。專家們還指出,人工智能增加了對大型數(shù)據(jù)集的需求,這對于構(gòu)建能夠產(chǎn)生更準(zhǔn)確輸出的人工智能系統(tǒng)至關(guān)重要,但也增加了與隱私相關(guān)的風(fēng)險。此外,專家們強調(diào),大多數(shù)人工智能原則都籠統(tǒng)地提到了隱私,但沒有在人工智能的能力與人工智能特有的隱私挑戰(zhàn)的性質(zhì)之間建立明確的聯(lián)系,這可能會使人工智能的重點從隱私轉(zhuǎn)移到人工智能。他們的總體建議是,額外的指導(dǎo)可能有助于確保當(dāng)前的AI原則充分解決與隱私相關(guān)的問題。經(jīng)合組織隱私準(zhǔn)則的遵守者當(dāng)時同意這些觀點。他們指出,經(jīng)合組織隱私準(zhǔn)則的技術(shù)中立語言是其適應(yīng)性的關(guān)鍵,并決定不修改基本原則以考慮人工智能(經(jīng)合組織,2021[9])。相反,堅持者決定,這些與人工智能具體相關(guān)的重要事項可以在與2019年剛剛通過的經(jīng)合組織人工智能建議相關(guān)的機制和指南中解決。本報告中進行的分析以及專家組的工作也展示了如何滿足與人工智能社區(qū)進一步合作的要求。自2016年以來,經(jīng)合組織通過其人工智能治理工作組(AIGOOECDAI,2023[10])在人工智能政策和治理方面開展了大量工作,包括于2019年5月通過了經(jīng)合組織人工智能理事會的建議,并于2024年更新經(jīng)合組織人工智能原則包括適用于所有利益相關(guān)者的五項原則AI原則有46個成員,強調(diào)國際合作,包括隱私和問責(zé)制領(lǐng)域。經(jīng)合組織人工智能原則的全球意義怎么強調(diào)都不過分。自通過以來,世界各國已采取行動,通過國家人工智能戰(zhàn)略以及軟法律和硬法律將這些原則編入法典。其中包括幾項人工智能倡議,包括建立人工智能辦公室或人工智能專員,以指導(dǎo)國家或地區(qū)法律、法規(guī)和標(biāo)準(zhǔn)的實施,例如歐盟人工智能法案和加拿大美國關(guān)于安全、可靠和值得信賴的人工智能開發(fā)和使用的行政命令還強調(diào)了聯(lián)邦貿(mào)易委員會在確保人工智能市場公平競爭并確保消費者和工人免受人工智能傷害方面的作用一些司法管轄區(qū)也在探索現(xiàn)有國家PEA在實施人工智能相關(guān)法律和法規(guī)方面的作用。探索現(xiàn)有數(shù)據(jù)保護參與者在實施人工智能框架中的作用可能并不令人驚訝,考慮到經(jīng)合組織人工智能原則等基于價值觀的原則補充了隱私等領(lǐng)域的現(xiàn)有經(jīng)合組織標(biāo)準(zhǔn),隱私和數(shù)據(jù)保護是該建議書的核心組成部分經(jīng)合組織人工智能原則(OECD,2019[11])中特別提到了三項原則.原則1.2在整個人工智能系統(tǒng)生命周期中尊重法治、人權(quán)和民主價值觀,包括公平和隱私。.原則1.4.穩(wěn)健性、安全性和安全性要求人工智能參與者確保人工智能系統(tǒng)的可追溯性,包括與人工智能系統(tǒng)生命周期中的數(shù)據(jù)集、流程和決策相關(guān)的可追溯性,并且人工智能參與者應(yīng)在人工智能系統(tǒng)生命周期階段應(yīng)用系統(tǒng)性風(fēng)險管理方法,以解決隱私、數(shù)字安全、安全和偏見等風(fēng)險。.原則2.1.投資人工智能研究和開發(fā)需要政府考慮公共投資,并鼓勵私人投資具有代表性并尊重隱私和數(shù)據(jù)保護的開放數(shù)據(jù)集。在AIGO和ONEAI的工作中,許多工具也提到了隱私例如,經(jīng)合組織的人工智能系統(tǒng)分類框架已被應(yīng)用于隱私和數(shù)據(jù)保護至關(guān)重要的情況,包括評估英國和澳大利亞的醫(yī)療技術(shù)應(yīng)用。AI和隱私社區(qū)本報告提到“人工智能社區(qū)”,包括人工智能研究人員和開發(fā)人員,以及來自學(xué)術(shù)界、民間社會、公共和私營部門的成員,近年來已經(jīng)發(fā)展成為一個充滿活力和強大的網(wǎng)絡(luò),專注于推進人工智能的高技術(shù)方面以及全球人工智能治理,以促進其負責(zé)任的這一群體受到既定或新興規(guī)則的約束,包括人工智能法律、監(jiān)管框架和標(biāo)準(zhǔn),這些規(guī)則在世界許多地方仍在不斷發(fā)展。人工智能社區(qū)中的許多人都采取了創(chuàng)新驅(qū)動的方法,包括隨著技術(shù)飛躍和新應(yīng)用的發(fā)現(xiàn),探索基本上未知的領(lǐng)域相比之下,“隱私社區(qū)”的特點可能是更加成熟,盡管其概況隨著時間的推移發(fā)生了巨大變化,包括各種各樣的利益攸關(guān)方,這一廣泛的全球社區(qū)在很大程度上是由全球幾十年來發(fā)展起來的越來越多的監(jiān)管框架所塑造的因為它在這種成熟的環(huán)境中運作,隱私社區(qū)采用的方法通??梢员幻枋鰹楸葎?chuàng)新驅(qū)動的方法更謹慎,而創(chuàng)新驅(qū)動的方法往往會影響人工智能社區(qū)。這些社區(qū)對人工智能和隱私問題的不同處理方式具有影響。雖然人工智能社區(qū)可能受益于其敏捷性和創(chuàng)新精神,但它可能缺乏對技術(shù)進步、監(jiān)管實施和人工智能特定規(guī)則執(zhí)行的監(jiān)管影響的經(jīng)驗和深入理解。與此同時,隱私社區(qū),憑借其豐富的監(jiān)管經(jīng)驗,可能缺乏必要的技術(shù)知識,以充分理解個人數(shù)據(jù)用于設(shè)計、開發(fā)和部署AI系統(tǒng)。這種技術(shù)差距可能導(dǎo)致過于保守的方法,可能會阻礙創(chuàng)新,因為人們擔(dān)心使用個人數(shù)據(jù)來訓(xùn)練和測試人工智能系統(tǒng)所帶來的隱私風(fēng)險在這些社區(qū)之間建立橋梁不僅有助于遵守新興的人工智能法律,還可以確保人工智能的發(fā)展在現(xiàn)有的數(shù)據(jù)保護和隱私框架內(nèi)繼續(xù)蓬勃發(fā)展。在制定保護社會價值觀而不阻礙技術(shù)進步的法規(guī)方面,合作方法至關(guān)重要。AI演員根據(jù)OECDAI原則,“AI參與者”一詞人工智能系統(tǒng)的生命周期通常涉及幾個階段,包括:規(guī)劃和設(shè)計;收集和處理數(shù)據(jù);構(gòu)建模型和/或使現(xiàn)有模型適應(yīng)特定任務(wù);測試,評估,驗證和驗證;可供使用/部署;操作和監(jiān)控;以及退休/退役。這些階段通常以迭代的方式發(fā)生,不一定是連續(xù)的。AI系統(tǒng)退出操作的決定可能發(fā)生在操作和監(jiān)控階段的任何時候。生成式人工智能(GenerativeArtificialIntelligence,AI)系統(tǒng)基于模型訓(xùn)練過的數(shù)據(jù),根據(jù)提示創(chuàng)建新的內(nèi)容(例如文本、圖像、音頻或視頻)。生成式AI基于機器學(xué)習(xí)(MachineLearning,ML),自20世紀(jì)50年代以來逐漸發(fā)展起來ML模型利用深度神經(jīng)網(wǎng)絡(luò)來模擬人類智能(即通過模仿人腦中神經(jīng)元的信息處理方法是暴露于數(shù)據(jù)(訓(xùn)練)并找到模式,然后用于處理以前看不見的數(shù)據(jù)。這允許模型基于概率推斷來概括(即,而不是因果關(guān)系的理解。與人類不同,人類只從幾個例子中學(xué)習(xí),深度神經(jīng)網(wǎng)絡(luò)需要數(shù)十萬,數(shù)百萬甚至數(shù)十億,這意味著機器學(xué)習(xí)需要大量的數(shù)據(jù)(Lorenz,Perset和Berryhill,2023[12])?!半[私”和“數(shù)據(jù)保護”這兩個術(shù)語在人工智能政策和隱私政策社區(qū)中可能有不同的含義,這也是因為“數(shù)據(jù)保護”的概念,作為“在處理個人數(shù)據(jù)方面保護個人”的縮寫,本身就經(jīng)常被誤解。人工智能政策界的一些成員可能特別認為然而,正如隱私當(dāng)局在人工智能系統(tǒng)上的工作所表明的那樣,隱私和數(shù)據(jù)保護超出了安全問題,正如經(jīng)合組織報告(OECD,2023[14])和全球隱私大會決議(GPA,2023[15])中所解釋的那樣。然而,人工智能社區(qū)將隱私和數(shù)據(jù)保護視為一個定義明確的“盒子”來“勾選”的風(fēng)險(經(jīng)合組織,2023[16]可能會導(dǎo)致低估隱私在解決人工智能造成的許多人權(quán)影響方面的作用。有效的協(xié)調(diào)需要對每個領(lǐng)域的術(shù)語有共同的理解。因此,政策制定者,特別是監(jiān)管機構(gòu)在隱私領(lǐng)域使用的基本概念、測試和規(guī)則更重要的是,這個社區(qū)本身正在走向一個人工智能監(jiān)管正在實踐中實施的時代,并且可能與現(xiàn)有的隱私和數(shù)據(jù)保護規(guī)則重疊和補充。人工智能和隱私社區(qū)之間需要更密切的協(xié)調(diào)已經(jīng)有一段時間了。但是,隨著包括語言模型在內(nèi)的生成式人工智能系統(tǒng)的出現(xiàn),這種需求變得更加明顯和緊迫,這些系統(tǒng)基于大量訓(xùn)練數(shù)據(jù)中發(fā)現(xiàn)的模式生成各種形式的內(nèi)容(例如文本)。雖然生成式人工智能在各個行業(yè)和部門創(chuàng)造了新的機會,包括代碼開發(fā),創(chuàng)意產(chǎn)業(yè)和藝術(shù),教育,醫(yī)療保健等(經(jīng)合組織,2023[13]但這項技術(shù)也帶來了新的風(fēng)險,并放大了現(xiàn)有的風(fēng)險,包括歧視,兩極分化,不透明的決策或潛在的社會控制。經(jīng)合組織通過其關(guān)于“推進人工智能的問責(zé)制:在整個生命周期中治理和管理風(fēng)險以實現(xiàn)可信賴的人工智能”(經(jīng)合組織,2023[14])及其“人工智能系統(tǒng)分類框架”(經(jīng)合組織,2022[17])的論文,為分析工作做出了貢獻,并提高了人們對人工智能系統(tǒng)在隱私和數(shù)據(jù)保護方面所帶來的機遇和風(fēng)險的認識,包括生成人工智能所帶來的機遇和風(fēng)險。人工智能系統(tǒng)生命周期和人工智能系統(tǒng)的分類都可以為討論提供有用的結(jié)構(gòu),因為隱私挑戰(zhàn)的性質(zhì)將根據(jù)生命周期的階段和所涉及的人工智能系統(tǒng)的類型而有所不同。下文探討了其中一些機會和風(fēng)險。雖然人工智能對隱私可能造成的威脅存在許多問題,但新興技術(shù)應(yīng)用也為加強隱私保護帶來了新的機會(經(jīng)合組織,2024[1])。這些加強了經(jīng)合組織最近和正在進行的關(guān)于新興隱私增強技術(shù)(PET)的工作(經(jīng)合組織,2023[8])。PET是指一系列數(shù)字技術(shù)和技術(shù),這些技術(shù)和技術(shù)可以收集、處理、分析和共享信息,同時保護數(shù)據(jù)的機密性和隱私。盡管許多新興的PET仍處于發(fā)展的早期階段,但其中一些具有巨大的潛力,可以推動人工智能中的隱私設(shè)計原則并促進信任,包括在跨組織的數(shù)據(jù)共享和重用方面。例如,研究人員正在開發(fā)不同的加密數(shù)據(jù)處理工具,這些工具允許數(shù)據(jù)在使用時保持加密,從而有助于在整個人工智能系統(tǒng)生命周期的各個階段增強隱私(OECD,2023[18])。這些技術(shù)包括同態(tài)加密和可信執(zhí)行環(huán)境(TEE),其中AI生命周期中的參與者在未經(jīng)許可的情況下無法查看底層數(shù)據(jù)(O'Brien,2020[19];Mulligan等人,2021[20])。其他技術(shù)允許對那些執(zhí)行任務(wù)的人不可見或不可訪問的數(shù)據(jù)執(zhí)行分析任務(wù)(聯(lián)合和分布式分析)。例如,聯(lián)邦學(xué)習(xí)使開發(fā)人員能夠使用自己網(wǎng)絡(luò)中的數(shù)據(jù)訓(xùn)練模型,然后將其傳輸?shù)街醒敕?wù)器將數(shù)據(jù)組合成一個改進的模型,與所有用戶共享(MIT,2022[21])。聯(lián)邦學(xué)習(xí)解決方案開始在醫(yī)療保健領(lǐng)域?qū)嵤⑷〉昧朔e極的成果。盡管如此,確保主要和次要用途的健康數(shù)據(jù)的可訪問性對于人工智能在醫(yī)療保健中的發(fā)展和有效使用仍然其他技術(shù)通過改變數(shù)據(jù)、添加“噪音”或刪除識別細節(jié),在訓(xùn)練和使用階段都增加了隱私保護在這些“數(shù)據(jù)混淆技術(shù)”中,“差分隱私”算法確保當(dāng)從訓(xùn)練數(shù)據(jù)集中添加或檢索關(guān)于個人的單點數(shù)據(jù)時,AI系統(tǒng)的輸出變化最?。ü?,2024[22])。合成數(shù)據(jù)技術(shù)作為PET方法也引起了極大的興趣。合成數(shù)據(jù)是通過計算機模擬、機器學(xué)習(xí)算法和統(tǒng)計或基于規(guī)則的方法生成的當(dāng)數(shù)據(jù)稀缺或包含機密或個人身份信息時,它們可用于訓(xùn)練AI。其中包括少數(shù)民族語言的數(shù)據(jù)集;訓(xùn)練計算機視覺模型以識別訓(xùn)練數(shù)據(jù)集中很少發(fā)現(xiàn)的物體;或自動駕駛系統(tǒng)中不同類型的可能事故的數(shù)據(jù)(經(jīng)合組織,2023[23])。然而,挑戰(zhàn)依然存在。與匿名化和匿名化類似,合成數(shù)據(jù)可能容易受到重新識別攻擊(Stadler,Oprisanu和Troncoso,2020[24]),并且“如果源數(shù)據(jù)中的記錄出現(xiàn)在合成數(shù)據(jù)中,則仍然可以進行重新識別”(OPC,2022[25])。此外,一些研究表明,在大量合成數(shù)據(jù)上訓(xùn)練的模型可能會隨著時間的推移而崩潰(Shumailov,2023[26])。換句話說,雖然合成數(shù)據(jù)可以幫助填補一些空白并改善知識,但不能指望它完全取代真實世界的數(shù)據(jù)。機器非學(xué)習(xí)是機器學(xué)習(xí)的另一個新興子領(lǐng)域,它將賦予個人對個人數(shù)據(jù)的控制權(quán),即使在數(shù)據(jù)被共享之后。事實上,最近的研究表明,在某些情況下,即使個人的數(shù)據(jù)已從數(shù)據(jù)庫中刪除,也可以高精度地推斷出個人的數(shù)據(jù)是否用于訓(xùn)練模型。機器非學(xué)習(xí)旨在應(yīng)對這一挑戰(zhàn),并使個人有可能撤回對收集和處理其數(shù)據(jù)的同意,并要求刪除數(shù)據(jù),即使在數(shù)據(jù)被共享之后(Tarun,2023[27])考慮到PETs在實現(xiàn)數(shù)據(jù)共享和下一代數(shù)據(jù)經(jīng)濟模型方面的許多承諾重點關(guān)注公共和私營部門(包括衛(wèi)生和金融)中已建立和新興的人工智能相關(guān)用例。未來的工作還將探討政府和監(jiān)管機構(gòu)如何最好地激勵PET中的創(chuàng)新,并討論如何衡量和比較不同技術(shù)的有效性和影響。技術(shù)突破推動了人工智能生成系統(tǒng)的發(fā)展,這些系統(tǒng)非常先進,用戶可能無法區(qū)分人類和人工智能生成的內(nèi)容。雖然這些發(fā)展在技術(shù)層面上令人印象深刻,但訓(xùn)練大型人工智能模型所需的大量數(shù)據(jù),包括通過各種手段獲取的越來越多的個人數(shù)據(jù),引發(fā)了有關(guān)隱私和數(shù)據(jù)保護風(fēng)險的嚴(yán)重問題。生成式AI在其開發(fā)和部署階段都存在隱私風(fēng)險。許多開發(fā)人員依賴于可公開訪問的來源來獲取訓(xùn)練數(shù)據(jù),其中通常包括在線共享的個人數(shù)據(jù)然而,僅僅因為數(shù)據(jù)是可訪問的,并不意味著它可以被免費收集并用于訓(xùn)練AI模型。與任何數(shù)據(jù)處理活動一樣,為訓(xùn)練人工智能系統(tǒng)而收集個人數(shù)據(jù)也要遵守經(jīng)合組織隱私準(zhǔn)則和全球數(shù)據(jù)保護法中規(guī)定的隱私原則這些原則規(guī)定,個人數(shù)據(jù)必須在數(shù)據(jù)當(dāng)事人知情的情況下,以合法和公平的方式取得,而數(shù)據(jù)的任何進一步使用不得與原來的目的相抵觸。雖然個人可能已經(jīng)同意分享他們的數(shù)據(jù),其他用途,這些不一定包括訓(xùn)練人工智能模型(GPA合作工作組,2023年[28])。最近的研究表明,生成式人工智能模型實際上能夠從大量非結(jié)構(gòu)化文本(例如,公共論壇或社交網(wǎng)絡(luò)帖子)具有高準(zhǔn)確性,但成本較低(RobinStaab,2023[29])。這可能導(dǎo)致基于性別、種族或年齡數(shù)據(jù)的推斷,加劇有害偏見和歧視的風(fēng)險。此外,一些早于生成式人工智能模型的研究已經(jīng)表明(AhmedSalem,2018[30]),去身份化在歷史上被用來在使用數(shù)據(jù)和保護人們在某些情況下,可以通過分析包含原始訓(xùn)練數(shù)據(jù)的模型的行為來重建和去匿名化原始訓(xùn)練數(shù)據(jù)除此之外,數(shù)據(jù)處理本身缺乏透明度,可能違反經(jīng)合組織《隱私準(zhǔn)則》中的因此,鑒于人工智能模型能夠“記憶”大量訓(xùn)練數(shù)據(jù),基于文本的生成人工智能工具背后的大型語言模型會在相關(guān)人員不知情的情況下收集,使用和重新使用個人數(shù)據(jù)(HannahBrown,2022[31])。人工智能系統(tǒng),特別是生成式人工智能,也可能與個人訪問、更正和在必要時刪除其個人數(shù)據(jù)的權(quán)利(也稱為“個人參與原則”)存在沖突在使用個人數(shù)據(jù)來訓(xùn)練機器學(xué)習(xí)模型的情況下,刪除或糾正這些數(shù)據(jù)可能會很復(fù)雜,例如,因為它們需要額外的資源來重新訓(xùn)練模型。此外,當(dāng)訓(xùn)練數(shù)據(jù)包括來自互聯(lián)網(wǎng)的非結(jié)構(gòu)化信息時,在生成人工智能模型的背景下確保這些權(quán)利可能很困難。在非結(jié)構(gòu)化數(shù)據(jù)集中識別與個體相關(guān)聯(lián)的數(shù)據(jù)點可能具有挑戰(zhàn)性并且需要大量資源。與用戶的交互和自主自學(xué)習(xí)模型的反饋回路可能會導(dǎo)致模型隱私問題源于這樣一個事實,即通過推斷產(chǎn)生的這些新數(shù)據(jù)可能會泄露個人尚未披露或不準(zhǔn)確地歸因于個人的個人信息。這些各種形式的誤導(dǎo)性內(nèi)容也可能導(dǎo)致安全漏洞(Solove,2024[32]),特別是當(dāng)人工智能系統(tǒng)部署在特定環(huán)境中時,例如執(zhí)法,醫(yī)療,教育或就業(yè)。由此產(chǎn)生的一個問題是,個人的隱私權(quán)是否經(jīng)過適當(dāng)調(diào)整,以解決事后的這些關(guān)切。例如,如果“幻覺”包括不準(zhǔn)確的信息,包括人工智能生成的個人數(shù)據(jù),個人是否有權(quán)更正和/或刪除他們的如果從人工智能模型中識別和刪除特定數(shù)據(jù)集在技術(shù)和邏輯上都非常復(fù)雜,以至于在實踐中無法行使糾正權(quán),那么是否應(yīng)該刪除整個人工智能模型,包括有關(guān)的個人數(shù)據(jù)?正如這個例子所示,在目前的技術(shù)水平下,仍然很難完全理解隱私風(fēng)險和將隱私法應(yīng)用于AI模型的后果。..大規(guī)模和大范圍地放大錯誤信息和虛假信息,特別是通過創(chuàng)造人為內(nèi)容,使人們誤認為是真實內(nèi)容;.人工智能模型生成非法圖像,如偽造的兒童性剝削材料(例如,.有害的偏見和歧視日益嚴(yán)重;.隱私和數(shù)據(jù)治理的風(fēng)險,在訓(xùn)練數(shù)據(jù)層面,在模型層面,在數(shù)據(jù)和模型層面的交叉點,或在人機交互層面;.由于大型模型的不透明性和復(fù)雜性,透明度和可解釋性面臨挑戰(zhàn).無法質(zhì)疑模型的結(jié)果;以及,.通過泄露或推斷私人信息等方式侵犯隱私。經(jīng)合組織一直致力于識別與人工智能系統(tǒng)相關(guān)的真實和潛在風(fēng)險,包括其工作流程中的生成性人工智能。以下列出了一些風(fēng)險:人工智能生成的一些風(fēng)險知之甚少,但如果它們成為現(xiàn)實,將是非常有害的,例如,導(dǎo)致系統(tǒng)性的,延遲的傷害,如嵌入式和永久性的偏見和勞動力中斷等,以及集體剝奪權(quán)力(Lorenz,Perset和Berryhill,2023[12])。例子包括對社會群體表現(xiàn)出負面情緒的模型,將職業(yè)與性別聯(lián)系起來(Weidinger,2022[33])或表達對特定宗教的偏見(Abid,2021[34])。雖然有些風(fēng)險被確定為與隱私明確相關(guān),但有些風(fēng)險涉及隱私社區(qū)已經(jīng)解決的主題,而這些風(fēng)險不一定被人工智能社區(qū)確定為涉及“隱私”(例如可解釋性,透明度,自決,挑戰(zhàn)自動決策過程的輸出等)。在深入研究這些問題之前,重要的是要承認,雖然人工智能和隱私社區(qū)的措施和工具可以幫助減輕使用人工智能系統(tǒng)造成的已知傷害,但它們在解決故意惡意使用該技術(shù)方面可能存在局限性。這凸顯了兩個社區(qū)之間更廣泛合作的必要性,以調(diào)查,預(yù)防和減輕人工智能的潛在濫用。生成式AI提出的隱私和數(shù)據(jù)保護問題已迅速成為許多PEA關(guān)注的核心領(lǐng)域PEAs在國家一級或在區(qū)域或全球合作網(wǎng)絡(luò)的范圍內(nèi)解決這些問題,這些合作網(wǎng)絡(luò)在此必須特別指出隱私監(jiān)管機構(gòu)網(wǎng)絡(luò)最近采取的三項舉措,下文將概述國家和區(qū)域舉措(第四節(jié))。2023年6月,G7數(shù)據(jù)保護和隱私當(dāng)局圓桌會議(“G7DPA圓桌會議”)發(fā)布了一份關(guān)于生成式人工智能的聲明(G7,2023[35]),從隱私和數(shù)據(jù)保護的.處理與火車模型相關(guān)的個人信息(特別是未成年人和兒童的個人信息)的法律權(quán)力.·安全保障措施,以防止可能泄露最初在用于訓(xùn)練模型的數(shù)據(jù)庫中處理的個人信息的威脅和攻擊;.緩解和監(jiān)控措施,以確保生成式人工智能工具生成的個人信息是準(zhǔn)確和非歧視的;.透明度措施,以促進生成人工智能工具操作的開放性和.采取技術(shù)和組織措施,確保受這些系統(tǒng)影響或與這些系統(tǒng)互動的個人能夠行使其權(quán)利,例如刪除或不受自動決定的影響;.問責(zé)措施,以確保人工智能供應(yīng)鏈中的參與者承擔(dān)適當(dāng)?shù)呢?zé)任;.將個人數(shù)據(jù)的收集限制在完成指定任務(wù)所必需的范圍內(nèi)。G7DPAs敦促科技公司在意大利開發(fā)使用生成式AI的AI系統(tǒng)和服務(wù)時,密切關(guān)注DPAs的法律要求和指導(dǎo)。七國集團民主黨人還強調(diào),設(shè)計、開發(fā)和部署人工智能產(chǎn)品和服務(wù)(包括生成式人工智能)的人必須承認和保護隱私和其他人權(quán)。不久之后,在2024年1月29日,經(jīng)過事實調(diào)查,意大利PEA正式通知該公司存在GDPR違規(guī)行為(Garanteperlaprotezionedeidatipersonali,2024[36])。加拿大隱私專員辦公室(OPC)、不列顛哥倫比亞省信息和隱私專員辦公室、魁北克信息委員會和艾伯塔信息和隱私專員辦公室也聯(lián)合對OpenAI的ChatGPT(加拿大隱私專員辦公室,2023[37])進行調(diào)查。2023年8月24日,全球隱私大會(GPA)國際執(zhí)法合作工作組(IEWG)成員的12個國際PEA通過了一項聯(lián)合聲明,以解決社交媒體平臺和其他可公開訪問的網(wǎng)站上的數(shù)據(jù)抓取問題(GPA國際執(zhí)法合作工作組,2023[28])。該組織指出,網(wǎng)絡(luò)抓取引起了嚴(yán)重的隱私問題,因為這些技術(shù)可以被利用,包括通過將數(shù)據(jù)轉(zhuǎn)售給第三方網(wǎng)站(包括惡意行為者)、私人分析或情報收集來賺錢。聯(lián)合聲明:i)概述了與數(shù)據(jù)抓取相關(guān)的主要隱私風(fēng)險;ii)規(guī)定了社交媒體公司(SMC)和其他網(wǎng)站應(yīng)如何保護個人的個人信息免受非法數(shù)據(jù)抓取,以滿足監(jiān)管期望;iii)規(guī)定了個人可以采取的措施,以最大限度地全球隱私大會GPA第45屆會議于2023年10月20日在關(guān)于生成式人工智能系統(tǒng)的決議(GPA,2023[15])中重申了這些擔(dān)憂。在這一具有里程碑意義的決議中,GPA認可了一系列數(shù)據(jù)保護和隱私原則,作為生成式人工智能系統(tǒng)開發(fā)、運營和部署的核心要素,包括:.處理的法律依據(jù).用途說明和使用限制;.數(shù)據(jù)最小化;.準(zhǔn)確性;.透明度;.安全;.設(shè)計和默認隱私.數(shù)據(jù)主體的權(quán)利.問責(zé)在其他調(diào)查結(jié)果中,GPA強調(diào)了協(xié)調(diào)數(shù)據(jù)最小化和目的限制原則的困難如上所述,PEAs社區(qū)在應(yīng)對生成AI中的隱私風(fēng)險方面一直很活躍,強調(diào)迫切需要反思隱私框架與一般可信賴AI規(guī)則之間的相互作用。一方面,隱私和數(shù)據(jù)保護社區(qū)采取了行動,另一方面,人工智能的擬議法規(guī)(如歐盟人工智能法案)的興起,這些框架將如何結(jié)合在一起,即擬議的人工智能立法將在完善的隱私和數(shù)據(jù)保護規(guī)則以及監(jiān)管機構(gòu)的執(zhí)法行動中進入可酌情設(shè)想共同監(jiān)管辦法,以避免不同監(jiān)管框架下的要求重復(fù)和重疊。特別是在歐盟,《歐盟人工智能法案》強調(diào)了明確法規(guī)與《通用數(shù)據(jù)保護條例》(GDPR)相互作用的必要性。例如,GDPR保護個人免受自動決策(ADM)和分析形式的影響已經(jīng)被法院和監(jiān)管機構(gòu)應(yīng)用了幾年,從詳細的透明度義務(wù)到應(yīng)用公平原則以避免歧視情況和ADM案件中有效同意的嚴(yán)格條件(BarrosVale,2022[38])。其他研究說明了一些PEA如何在其決策中考慮基本權(quán)利,這是目前正在討論的許多AI法規(guī)中概述的評估義務(wù)的相關(guān)方面(Grazia,2017[39])雖然這些先例提供了通過ADM判例來加強或澄清《人工智能法》規(guī)定的義務(wù)的機會,但重疊也可能成為政策制定者和立法者混淆的根源,并在遵守方面產(chǎn)生一些不明確性。對于中小企業(yè)等資源有限的參與者來說,這一點尤其如此,他們無法理解人工智能與數(shù)據(jù)保護和隱私規(guī)則在實踐中的相互作用。全球范圍內(nèi),PEAs在人工智能領(lǐng)域已經(jīng)采取了許多執(zhí)法行動,這表明大部分人工智能實踐已經(jīng)受到嚴(yán)格的監(jiān)管審查,因此迫切需要將兩個社區(qū)結(jié)合起來,以確保不同立法背后的政策目標(biāo)都得到滿足。與此同時,為了充分釋放生成式人工智能的潛力,大量、多樣和相關(guān)的數(shù)據(jù)對于有效地訓(xùn)練模型更好地訪問數(shù)據(jù)使AI模型能夠更好地執(zhí)行,因為它們能夠在迭代過程中從示例中同時,具有多樣性和高-高質(zhì)量的數(shù)據(jù)(例如準(zhǔn)確性、完整性、一致性、可靠性、有效性、及時性)是構(gòu)建值得信賴的算法和增強AI模型性能的關(guān)鍵。在這個周期中,流暢和高效的數(shù)據(jù)流對于優(yōu)化人工智能模型的功能至關(guān)重要,確保持續(xù)交換信息,以持續(xù)學(xué)習(xí)和改進這些模型。此外,來自各種來源的訓(xùn)練數(shù)據(jù)的可用性在這方面,越來越多的人表示擔(dān)心的是,全球范圍內(nèi)正在采取更多的跨境數(shù)據(jù)流動壁壘,包括個人和非個人數(shù)據(jù),這增加了數(shù)據(jù)可能變得更難獲得(或可能限于特定區(qū)域或國家)的風(fēng)險,以開發(fā)人工智能驅(qū)動的工具。這些障礙從根本上說并不是新的,并且已經(jīng)在經(jīng)合組織的工作背景下進行了部分分析,以推動國際政策討論,以充分利用跨境數(shù)據(jù)流的潛力,在數(shù)據(jù)自由流動的旗幟下,信任(DFFT經(jīng)合組織,2023[40])。為此,必須優(yōu)先開展國際合作,調(diào)整政策應(yīng)對措施,以促進信任和數(shù)據(jù)交換。通過利用共性和融合領(lǐng)域,隱私和人工智能社區(qū)可以解決可能阻礙人工智能廣泛、合法和成功部署的障礙與此相關(guān)的是,為了使數(shù)據(jù)能夠獲得并產(chǎn)生最有效的影響,數(shù)據(jù)必須能夠適當(dāng)?shù)孬@取。這意味著鼓勵公共部門和私營部門的組織之間更好地協(xié)調(diào)、獲取和共享數(shù)據(jù)這些方面已在導(dǎo)致通過經(jīng)合組織關(guān)于加強數(shù)據(jù)獲取和共享的建議(經(jīng)合組織,2021[7])的工作背景下得到解決。在這方面,越來越多的舉措正在出現(xiàn),以確保數(shù)據(jù)的可用性,同時保護隱私,這是值得探討的。例如,這些措施包括監(jiān)管沙箱和/或數(shù)據(jù)中介機構(gòu)(如數(shù)據(jù)信托或數(shù)據(jù)合作社)的參與,以促進人工智能經(jīng)濟中負責(zé)任的數(shù)據(jù)共享,這在越來越多的隱私立法(如新加坡的PEA)中提供2019年關(guān)于人工智能的建議中設(shè)定的經(jīng)合組織人工智能原則,并于2024年更新,可用作分析網(wǎng)格,與2013年修訂的具有里程碑意義的1980年隱私指南中設(shè)定的隱私原則進行比較。經(jīng)合組織的人工智能原則分為兩類:1)五項基于價值的原則,作為政府制定人工智能戰(zhàn)略和政策的指導(dǎo),以實現(xiàn)可信賴的人工智能,這些原則也可供公司和人工智能開發(fā)人員使用;2)對政府的國家政策提出五項建議,使人工智能生態(tài)系統(tǒng)造福社會(經(jīng)合組織,2019[11])。這一映射旨在確定人工智能與隱私和數(shù)據(jù)保護社區(qū)之間的優(yōu)先合作領(lǐng)域,并首先分析經(jīng)合組織人工智能建議中五項基于價值觀的原則中使用的關(guān)鍵術(shù)語圍繞向政府提出的五項建議進行的分析,其中包括促進充滿活力的人工智能生態(tài)系統(tǒng)的行動,可以在隨后的分析中涵蓋這一摸底工作有助于查明:.兩個群體在經(jīng)合組織內(nèi)外開展聯(lián)合工作的政策領(lǐng)域可產(chǎn)生巨大的互利;.協(xié)同增效作用低或不存在的政策領(lǐng)域;.兩個政策群體之間可能妨礙互操作性和協(xié)調(diào)的術(shù)語差異。這一摸底工作參考了從經(jīng)合組織隱私準(zhǔn)則中產(chǎn)生的既定隱私和數(shù)據(jù)保護原則。其中一些既定原則,例如數(shù)據(jù)最小化以及與自動決策有關(guān)的權(quán)利,在經(jīng)合組織隱私準(zhǔn)則中似乎沒有明確提及,但通過實施經(jīng)合組織隱私準(zhǔn)則,事實上已成為隱私政策中最先進的原則。將隱私考慮因素映射到經(jīng)合組織人工智能原則的方法選擇絕不會將一個框架納入另一個框架由于這項分析側(cè)重于人工智能系統(tǒng)背景下的隱私,經(jīng)合組織人工智能原則似乎是比較分析的適當(dāng)起點此外,越來越多的數(shù)據(jù)保護法律現(xiàn)在包括與人工智能相關(guān)的額外條款(例如,自動化決策的限制、通過設(shè)計/默認原則明確納入隱私),在分析國家一級不同框架的交叉點時必須加以考慮。經(jīng)合組織人工智能建議書促進使用創(chuàng)新和值得信賴的人工智能,并尊重人權(quán)和民主價值觀,包括隱私和數(shù)據(jù)保護?!蛾P(guān)于人工智能的建議書》包括人工智能系統(tǒng)的定義,目前該系統(tǒng)已被用于世界各地的人工智能框架,如《歐盟人工智能法案》和歐洲委員會的《人工智能、人權(quán)、民主和法治框架公約》根據(jù)這一定義,人工智能系統(tǒng)是“一種基于機器的系統(tǒng),對于顯式或隱式目標(biāo),它從接收到的輸入中推斷出如何生成輸出,如預(yù)測,內(nèi)容,建議或可能影響物理或虛擬環(huán)境的決策。不同的人工智能系統(tǒng)在部署后的自主性和適應(yīng)性水平各不相同”(經(jīng)合組織,2023年更新[41])。經(jīng)合組織在隱私方面,隱私社區(qū)有先進的方法來評估人工智能在特定情況下對隱私權(quán)的影響,以及如何以尊重隱私原則和法治的方式平衡不同的權(quán)利和集體利益,包括人工智能系統(tǒng)對社會的效用對于某些生成人工智能風(fēng)險,特別是那些與系統(tǒng)性的、對社會的延遲危害有關(guān)的風(fēng)險,或者自主生成人工智能代理的風(fēng)險(Lorenz,Perset和Berryhill,2023[12]),隱私和人工智能社區(qū)在如何解決這些問題方面存在一定程度的不確定性,因此隨著具體情況、風(fēng)險和政策解決方案的出現(xiàn),他們對合作有很高的興趣。表2概述了人工智能和隱私政策社區(qū)之間協(xié)調(diào)可能帶來的好處和相關(guān)性的.........兩個政策界在術(shù)語上的差異可能妨礙相互理解和進一步協(xié)調(diào)。表3列出了人工智能和隱私政策社區(qū)之間通常具有不同含義的關(guān)鍵概念,以提高對這些可能變化的認識,從而提高社區(qū)之間的相互理解并優(yōu)化合作行動。性護集中包含的個人信息,以及與人工智能模型/系統(tǒng)泄漏或推斷導(dǎo)致的個人數(shù)據(jù)丟失相關(guān)的風(fēng)險。這一類別有時被稱為“人類與地球”,涵蓋廣泛的利益和風(fēng)險,包括對環(huán)境的危害、對就業(yè)的影響以及對弱勢群體的危害。除了風(fēng)險之外,原則1.1還關(guān)注人工智能對社會的積極影響,包括改善醫(yī)療保健和應(yīng)對氣候變化。雖然隱私和人工智能社區(qū)之間的合作可以帶來積極的環(huán)境成果,例如交通優(yōu)化或廢物管理等智能城市舉措,但在保護環(huán)境方面,隱私和人工智能政策社區(qū)環(huán)境保護雖然至關(guān)重要,但在很大程度上不屬于隱私和數(shù)據(jù)保護法規(guī)的范圍,除非將人口數(shù)據(jù)與環(huán)境數(shù)據(jù)進行交叉引用,以了解氣候變化對各個群體的影響。關(guān)于數(shù)據(jù)保護,自由和環(huán)境之間的重疊的討論似乎正在進行中,目前以更具前瞻性而不是規(guī)范性的方式(CNIL,2023[42])。此外,例如,全球隱私大會提到了違反數(shù)據(jù)最小化原則(GPA,2023[15])不分青紅皂白地收集訓(xùn)練數(shù)據(jù)所造成的環(huán)境危害。人工智能對經(jīng)濟福祉的積極影響,例如通過特定任務(wù)的自動化降低產(chǎn)品和服務(wù)的成本,或改善與健康相關(guān)的結(jié)果,也不是數(shù)據(jù)保護監(jiān)管的直接重點。然而,要實現(xiàn)這些好處,可能需要在保護隱私和其他人權(quán)之間取得平衡例如,人工智能系統(tǒng)的準(zhǔn)確性提高但是,更高的準(zhǔn)確性可能會與隱私數(shù)據(jù)保護權(quán)利的權(quán)衡相結(jié)合,因為需要更大量和更高質(zhì)量的訓(xùn)練多年來,公共行政機構(gòu)和法院一直在處理這些權(quán)衡問題,運用憲法機制解決具體案件中相互競爭的權(quán)利和利益之間的沖突,例如,在一些經(jīng)合組織成員國使用這一平衡工作也在某些立法中得到承認。例如,GDPR(第1條第3款)指出,“個人數(shù)據(jù)的自由流動不應(yīng)因與保護自然人有關(guān)的個人數(shù)據(jù)處理的原因而受到限制或禁止”(歐盟,2016[43])。在討論如何平衡不同的集體利益(例如人工智能帶來的更好的公共衛(wèi)生或安全)與人工智能系統(tǒng)對某些人權(quán)的日益干涉時,隱私和人工智能社區(qū)之間的協(xié)同作用似乎很高這一途徑的一個主要例子是在抗擊COVID-19疫情的同時,在尊重數(shù)據(jù)保護和隱私原則的情況下,集體努力利用數(shù)據(jù)驅(qū)動工具,包括人工智能。原則1.1還包括對弱勢群體的傷害。經(jīng)濟位移不是數(shù)據(jù)保護法的直接焦點,人工智能對就業(yè)的影響不在數(shù)據(jù)保護法規(guī)的直接范圍內(nèi)然而,常見的隱私工具,如隱私管理計劃(PMP要求數(shù)據(jù)控制者根據(jù)隱私風(fēng)險評估制定適當(dāng)?shù)谋Wo措施,“風(fēng)險”是一個廣泛的概念,考慮到對個人的廣泛可能傷害(經(jīng)合組織,2023[44])。同樣,保護弱勢群體的個人信息,特別是兒童,是WPDGP的核心重點(OECD,2021[45]OECD,2021[46]OECD,2021[47]OECD,2022[48])。此外,預(yù)計數(shù)字脆弱性的概念將得到進一步討論,并具有前瞻性。這是老年人,殘疾人或患者的監(jiān)測情況,例如腦計算機接口(BCI)被用于調(diào)節(jié)大腦活動以進行認知障礙管理,或者與智能可穿戴設(shè)備的使用增加有關(guān),以監(jiān)測和檢測工作場所員工的職業(yè)身體疲勞。原則1.1所涵蓋的大多數(shù)利益和風(fēng)險并不是隱私和數(shù)據(jù)保護法的核心焦點。然而,在適用隱私和數(shù)據(jù)保護法時,法院和當(dāng)局在評估其對隱私和數(shù)據(jù)保護權(quán)的干預(yù)是否相稱時,往往會考慮人工智能應(yīng)用的社會效益,包括改善公共健康或安全。兩個社區(qū)之間的合作可以集中在如何提供關(guān)于平衡人工智能社會效益和風(fēng)險的指導(dǎo),包括隱私權(quán)風(fēng)險。原則1.2分為三個子類別:偏見和歧視,隱私和數(shù)據(jù)治理,人權(quán)和民主價值觀(OECD,2023[14])。偏見和歧視是與人工智能相關(guān)的重要風(fēng)險,人工智能社區(qū)和隱私社區(qū)都對此進行了研究。目前在沒有護欄的情況下開發(fā)、部署和使用的生成式人工智能,由于這些系統(tǒng)的應(yīng)用規(guī)模和范圍巨大,以及它們在開發(fā)階段的輸入訓(xùn)練數(shù)據(jù),放大了這些風(fēng)險雖然AI社區(qū)和隱私政策社區(qū)的目標(biāo)是一致的,但兩個社區(qū)研究偏見和歧視的方式不同。偏見和歧視在人工智能政策圈中得到了大量研究,并被認為是生成人工智能的主要問題,這是由于基礎(chǔ)模型及其使用的大量訓(xùn)練數(shù)據(jù)導(dǎo)致的潛在算法偏見的規(guī)模和范圍增加(OECD,2023[13];Lorenz,Perset和Berryhill,2023[12])。人工智能社區(qū)的工作揭示了算法偏差的許多來源(經(jīng)合組織,2023[14]),包括:歷史偏差,陳述偏差,測量偏差,方法和評估偏差,監(jiān)測偏差和傾斜樣本,反饋回路和流行偏差(經(jīng)合組織,2023[14])。人工智能學(xué)者還確定了不同形式的公平或非歧視之間的特征和不相容性,包括機會平等,結(jié)果平等或統(tǒng)計平等,以及反事實正義(經(jīng)合組織,2023[14]由于這些不相容性,創(chuàng)建“無偏見”的人工智能系統(tǒng)極具挑戰(zhàn)性。PEAs將非法歧視視為可能導(dǎo)致個人數(shù)據(jù)處理不公平的負面影響之一,因此是非法的。處理個人數(shù)據(jù)的合法性是根據(jù)可能發(fā)生的歧視風(fēng)險等因素進行在應(yīng)對新興技術(shù)帶來的執(zhí)法挑戰(zhàn)時,對歧視的關(guān)注被認為是PEAs最重要的問題之一(OECD,2021,第48頁[9])。為了防止基于個人數(shù)據(jù)使用的歧視,在許多國家,某些類型的個人數(shù)據(jù)已被指定為敏感數(shù)據(jù),因此,其允許的使用可能會受到更多限制,甚至嚴(yán)禁就業(yè)決定中的年齡歧視、信貸決定中的性別歧視或政府服務(wù)和津貼分配中的政治派別可能就是這種情況可信的AI需要可信的數(shù)據(jù)。所使用的數(shù)據(jù)集的質(zhì)量對于AI系統(tǒng)的最佳性能至關(guān)重要。在整個數(shù)據(jù)收集過程中,可能會包含社會構(gòu)建的偏見、不準(zhǔn)確、錯誤、代表性過度或不足以及錯誤。因此,人工智能參與者和隱私倡導(dǎo)者都有很高的動機去尋求高質(zhì)量的數(shù)據(jù)集:人工智能參與者熱衷于使用最準(zhǔn)確的數(shù)據(jù)來保持結(jié)果的可信度和高模型性能,而個人則努力確保人工智能模型不會基于不正確、不完整或不充分的數(shù)據(jù)產(chǎn)生負面結(jié)果。在《經(jīng)合組織隱私準(zhǔn)則》中,數(shù)據(jù)質(zhì)量原則是指個人數(shù)據(jù)與其使用目的的相關(guān)性數(shù)據(jù)越相關(guān),其質(zhì)量就越高。數(shù)據(jù)相關(guān)性對于生成式人工智能工具至關(guān)重要,特別是關(guān)于數(shù)據(jù)中可能包含外源性虛假或誤導(dǎo)性信息的問題(OECD,2023[49])。準(zhǔn)確性、完整性和及時性也是數(shù)據(jù)質(zhì)量概念的重要內(nèi)容。完整和最新的信息不僅提高了數(shù)據(jù)的質(zhì)量,而且提高了數(shù)據(jù)的準(zhǔn)確性,減少了有害偏見的風(fēng)險。隱私管理計劃(PMP)包括風(fēng)險評估,評估歧視的可能性和潛在影響(OECD,2023[44])。在司法管轄區(qū),如美國,通過消費者保護來解決隱私和數(shù)據(jù)保護問題,人工智能系統(tǒng)的歧視性影響可能導(dǎo)致發(fā)現(xiàn)該系統(tǒng)是法律禁止的“不公平做法”(FTC,2022[50])。其他非隱私法律也解決了歧視問題,包括就業(yè)法、教育法和銀行法,這些法律補充了法律數(shù)據(jù)保護領(lǐng)域。然而,大多數(shù)數(shù)據(jù)保護執(zhí)法機構(gòu)將其作用解釋為至少部分防止歧視,包括處理個人數(shù)據(jù)的人工智能系統(tǒng)所產(chǎn)生的結(jié)果。由于人工智能社區(qū)和隱私政策社區(qū)圍繞歧視的關(guān)注點不同但互補,因此兩個社區(qū)之間就人工智能系統(tǒng)的歧視性影響進行協(xié)調(diào)隱私政策社區(qū)可以學(xué)習(xí)人工智能專家正在研究的許多微妙的非歧視方法,例如公平考慮,而人工智能政策社區(qū)可以從數(shù)據(jù)保護社區(qū)在評估和制裁系統(tǒng)產(chǎn)生歧視性結(jié)果的數(shù)據(jù)控制者方面的經(jīng)驗中受益。因此,將人工智能社區(qū)在偏見方法方面的專業(yè)知識與隱私社區(qū)在評估人工智能系統(tǒng)在具體案件中的歧視性影響方面的經(jīng)驗相結(jié)合,協(xié)同作用的可能性隱私和人工智能方法對非歧視的最佳協(xié)調(diào)可能會受到定義和術(shù)語問題的阻礙。AI話語中的公平性對于人工智能社區(qū),公平通常被理解為是指基于算法和數(shù)據(jù)集并考慮偏見的人工智能應(yīng)用(如預(yù)測,建議或決策)的結(jié)果,例如,通過消除特定群體的算法或數(shù)據(jù)集偏見(例如按類別,性別,種族或性取向分類的偏差是一種系統(tǒng)性(而不是隨機性)錯誤,與某些類別的數(shù)據(jù)輸入相關(guān)。例如,面部識別算法可能會對戴眼鏡的人比不戴眼鏡的人產(chǎn)生更多的錯誤。戴眼鏡的人與不戴眼鏡的人之間的錯誤率差異從技術(shù)和操作角度來看可能是有問題的,可能會造成歧視或不平等待遇,但通常不會引起法律或道德問題,因為眼鏡不是受保護的屬性。相比之下,男性和女性之間,或者淺色皮膚和深色皮膚的人之間的錯誤率差異將被考慮這是不公平的,因為偏見(系統(tǒng)性錯誤)與一種屬性有關(guān),而這種屬性在特定的法律和文化背景下與歷史上處于不利地位的人口群體有關(guān)。受保護的屬性可能不存在于輸入數(shù)據(jù)中,但從其他明顯中性的屬性中推斷出來。例如,如果郵政編碼對應(yīng)于許多居民具有相同種族血統(tǒng)的社區(qū),則郵政編碼可能成為種族血統(tǒng)的代理。人工智能社區(qū)中關(guān)于公平的工作已經(jīng)產(chǎn)生了多種確定的偏見來源(系統(tǒng)性,計算和統(tǒng)計,人類認知)(Tabassi,2023[51]以及認識到偏見幾乎永遠無法完全消除。數(shù)據(jù)科學(xué)家試圖將公平轉(zhuǎn)化為更多的數(shù)學(xué)屬性,這有助于法律學(xué)者就非歧視法展開辯論,特別是關(guān)于如何衡量歧視以及什么應(yīng)該被視為非法歧視(Wachter,2022[52])。因此,人工智能“公平”與關(guān)于不歧視法律的法律辯論之間存在聯(lián)系當(dāng)AI環(huán)境中的公平被翻譯成不同的語言時,會出現(xiàn)進一步的混亂。在人工智能社區(qū)中,公平的法語術(shù)語是“équité”,在英語中也是“公平”的意思。然而,英語中的平等并不僅僅意味著沒有歧視。它還意味著行為要尊重法律的誠意英文中的Equity也指處境不利群體的平等機會,在某些情況下允許采取補償措施來糾正結(jié)構(gòu)性不利。公平允許采取補償措施,它往往與平等形成對比,后者指的是嚴(yán)格平等對待每個人,因此沒有補償措施。從人工智能的在隱私政策社區(qū)中,公平是與合理期望一致的行為通常,公平最好由它不是什么來定義,即根據(jù)消費者保護法、競爭法、隱私法和非歧視法,不公平做法通常是非法的不公平的做法可能涉及欺騙和缺乏透明度(Malgieri,2020[53])。對于隱私政策社區(qū)來說,透明度是公平的必要因素。禁止不公平做法也可以針對經(jīng)濟力量的不平衡這是因為隱私的公平性不僅僅涉及資源或結(jié)果的數(shù)學(xué)分配,還考慮了背景(包括人類決策)和其他定性方面,例如個人和處理其數(shù)據(jù)的人之間的權(quán)力不平衡(ICO,2023[54])。因此,公平性可能需要對更強大的行為者施加額外的責(zé)任,以確保他們與較弱的行為者的交易反映出更多的平衡(Clifford和Ausloos,2018[55])。與權(quán)力不平衡有關(guān)的是經(jīng)合組織隱私準(zhǔn)則的個人參與原則,該原則授權(quán)個人對與他們有關(guān)的數(shù)據(jù)提出質(zhì)疑。在某些國家,“程序公正”,有時稱為“正當(dāng)程序”,也可能對政府行動施加程序性限制。(Mulligan等人,這可能意味著有權(quán)與另一方的人類代表討論或質(zhì)疑數(shù)據(jù)處理的特定方面,并最終將此事上訴給獨立和公正的決策者。(Mulligan等人,2019[56])在這方面,公平與尊重人權(quán)有關(guān),如人的尊嚴(yán),個人自主權(quán),選擇權(quán)和補救措施。在隱私和數(shù)據(jù)保護方面,公平有時等同于與數(shù)據(jù)主體的合理期望一致的處理,即不會使數(shù)據(jù)主體“驚訝”的處理(Malgieri,2020[53])。它要求數(shù)據(jù)控制者以符合個人合理期望的方式處理個人數(shù)據(jù),并避免以任何可能對他們產(chǎn)生不利影響的方式使用它(Datatilsynet,2018[57])。導(dǎo)致非法歧視的做法也將被視為不公平(CNIL,2017[58])。公平還與“善意”(Malgieri,2020[53])和法語中的“l(fā)oyauté”(忠誠)概念有關(guān)。忠誠和誠信要求避免違反道德規(guī)范的行為,并尊重法律的精神,而不僅僅是文字(Mulligan等人,2019[56];Malgieri,2020[53])。為了促進相互理解,人工智能和隱私社區(qū)應(yīng)該意識到,“公平”在他們之間是不同的。人工智能和隱私社區(qū)之間就人工智能原則中的“隱私和數(shù)據(jù)治理”概念進行協(xié)調(diào)是以人為本的價值觀和公平性的這一要素針對核心數(shù)據(jù)保護和隱私問題(經(jīng)合組織,2023[14])。經(jīng)合組織此前的分析強調(diào)了“人工智能系統(tǒng)可能導(dǎo)致或加劇權(quán)力和信息獲取不對稱的影響,例如雇主和雇員之間,企業(yè)和消費者之間,或政府和公民之間”的風(fēng)險(經(jīng)合組織,2023[14])。這種獲取信息的機會和不對稱的相關(guān)影響與尊重隱私權(quán)有關(guān)。一些最重要的人工智能風(fēng)險來自對社會的系統(tǒng)性影響,例如產(chǎn)生不準(zhǔn)確的合成內(nèi)容,可能會影響個人的偏好,態(tài)度和行為(Lorenz,Perset和Berryhill,2023[12])。雖然隱私社區(qū)傳統(tǒng)上專注于對個人的傷害,但隱私社區(qū)越來越多的關(guān)注正在轉(zhuǎn)向“使用新興技術(shù)處理的大量個人數(shù)據(jù)的集體社會影響”(經(jīng)合組織,2021[9])。人工智能和隱私政策社區(qū)之間的協(xié)調(diào)將有助于澄清數(shù)據(jù)保護和隱私法以及隱私執(zhí)法機構(gòu)在解決生成式人工智能造成的個人和集體傷害方面的作用今天,隱私和數(shù)據(jù)保護做法反映了經(jīng)合組織隱私準(zhǔn)則中的原則,也反映了準(zhǔn)則中作為經(jīng)合組織成員國隱私考慮方面最佳做法而產(chǎn)生的原則。這些原則特別包括:處理的法律依據(jù);目的說明和使用限制;數(shù)據(jù)最小化;準(zhǔn)確性;透明度;安全性;設(shè)計和默認隱私;數(shù)據(jù)主體的權(quán)利,包括與自動決策有關(guān)的權(quán)利;以及問責(zé)制。構(gòu)建值得信賴的人工智能需要在數(shù)據(jù)使用的不同方面建立信任,例如獲取可靠的數(shù)據(jù),合法地處理數(shù)據(jù),負責(zé)任地使用數(shù)據(jù),保持數(shù)據(jù)安全,以及對數(shù)據(jù)的使用保持透明。關(guān)鍵一步是確保人工智能系統(tǒng)在其生命周期的每個階段都是合法的。在這方面,大多數(shù)隱私和個人數(shù)據(jù)保護框架要求收集和處理數(shù)據(jù)都有“合法依據(jù)”。雖然大多數(shù)法律通常規(guī)定了一系列此類法律依據(jù),但在實踐中,被稱為“合法利益”的法律依據(jù)這要求人工智能開發(fā)者、提供者或用戶追求的利益(例如開發(fā)或?qū)嵤┠P停┦呛戏ǖ?,所涉及的?shù)據(jù)處理是滿足這一合法利益的有效需要,并且不會對數(shù)據(jù)主體的利益和權(quán)利造成不成比例的干擾。如前所述,在目前的技術(shù)水平下,在這些不同的利益之間取得適當(dāng)?shù)钠胶饪赡苁菑?fù)雜的,需要加強人工智能和隱私社區(qū)之間的合作。隱私法還規(guī)定,僅應(yīng)處理達到預(yù)期目的所需的最低量的個人數(shù)據(jù)這種所謂的數(shù)據(jù)最小化原則隱含在經(jīng)合組織隱私指南中,并在各種隱私法中明確規(guī)定,如GDPR或加利福尼亞隱私權(quán)法案。人工智能的商業(yè)模式,特別是在生成式人工智能之后,都遵循這樣一個假設(shè),即收集大量數(shù)據(jù)對于人工智能系統(tǒng)的有效運行至關(guān)重要,特別是在訓(xùn)練階段。這種方法可能與數(shù)據(jù)最小化原則相沖突,因為可能無法提前映射人工智能系統(tǒng)需要的個人數(shù)據(jù)。然而,數(shù)據(jù)最小化的概念并不意味著完全避免處理個人數(shù)據(jù)或?qū)?shù)據(jù)量限制在特定數(shù)量(ICO,2023[59])。這一原則的應(yīng)用應(yīng)該考慮具體的人工智能系統(tǒng)及其目標(biāo)。為了適當(dāng)?shù)那榫郴?,對于在?shù)據(jù)收集之前確定數(shù)據(jù)的使用目的至關(guān)重要,并且在任何情況下,不得遲于數(shù)據(jù)收集時(OECD,2023[60])。這不僅涉及遵守監(jiān)管要求,例如向數(shù)據(jù)主體說明目的,而且還涉及考慮如何以較少的數(shù)據(jù)實現(xiàn)相同的目的。有時,在人工智能的背景下,通過優(yōu)先考慮數(shù)據(jù)質(zhì)量而不是數(shù)量,可以更有效地實現(xiàn)例如,通過利用現(xiàn)有的公共數(shù)據(jù)源,確定人工智能模型是否可以在不使用敏感個人數(shù)據(jù)的情況下進行訓(xùn)練這是因為訓(xùn)練數(shù)據(jù)的質(zhì)量比訓(xùn)練數(shù)據(jù)的數(shù)量對模型準(zhǔn)確性的影響更大還有幾種技術(shù)可以用來開發(fā)人工智能系統(tǒng),這些系統(tǒng)只處理必要的數(shù)據(jù),同時仍然實現(xiàn)性能目標(biāo)(經(jīng)合組織,2023[61])。還有人建議將用于訓(xùn)練人工智能模型的數(shù)據(jù)開放訪問(不僅僅是模型的代碼或架構(gòu)允許對模型的數(shù)據(jù)進行科學(xué)評估,以促進數(shù)據(jù)密集度較低的模型的開發(fā)(Widde
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 2024年綠色環(huán)保物業(yè)管理委托合同書3篇
- 建筑工程結(jié)算施工合同協(xié)議書
- 房屋建筑施工合同驗收
- 園林設(shè)施維護制度
- 鄉(xiāng)村公路瀝青改造協(xié)議
- 管道維修包清工施工合同
- 4S店銷售顧問招聘合同
- 海洋工程投標(biāo)保密協(xié)議
- 幼兒園體育運動場地建設(shè)合同
- 酒類加工場地租賃合同
- 馬克思主義基本原理概論課后習(xí)題及答案2023年
- 國家開放大學(xué)《高等數(shù)學(xué)基礎(chǔ)》形考任務(wù)1-4參考答案
- 系統(tǒng)架構(gòu)圖課件ppt
- 礦物絕緣電纜電纜比較
- GB/T 18601-2001天然花崗石建筑板材
- GA/T 1133-2014基于視頻圖像的車輛行駛速度技術(shù)鑒定
- 食品用酶制劑相關(guān)法律法規(guī)及安全標(biāo)準(zhǔn)
- 研發(fā)費用加計扣除與高新技術(shù)企業(yè)政策解析課件
- ANSYS有限元技術(shù)分析優(yōu)化
- 水運工程交工質(zhì)量核驗申請書、意見、內(nèi)容表和竣工質(zhì)量鑒定申請、報告、復(fù)測內(nèi)容
- 乳腺疾病診療規(guī)范診療指南2022版
評論
0/150
提交評論