版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認(rèn)領(lǐng)
文檔簡介
全球生成式人工智能監(jiān)管研究報告2023.08一、生成式人工智能監(jiān)管地圖 1二、主要地區(qū)監(jiān)管概述 2 (一)中國 2 (二)歐盟 2 (三)美國 6 (四)加拿大 7 (五)英國 9 (六)澳大利亞 11 (七)印度 12 (八)日本 13 (九)新加坡 14 (十)中國香港 16三、中國 17 (一)監(jiān)管對象 17 (二)監(jiān)管部門 18 (三)合規(guī)義務(wù)要求 18 (四)未來可能面臨的監(jiān)管挑戰(zhàn) 19四、歐盟 21 (一)監(jiān)管框架 21 (二)一般合規(guī)義務(wù) 24 (三)特殊合規(guī)義務(wù) 29 (四)監(jiān)管動態(tài) 31 (五)相關(guān)機構(gòu) 32五、美國 34 (一)監(jiān)管框架 34 (二)一般合規(guī)義務(wù) 37 (三)特殊合規(guī)義務(wù) 39 (四)監(jiān)管動態(tài) 40 (五)相關(guān)機構(gòu) 41六、加拿大 42 (一)監(jiān)管框架 42 (二)一般合規(guī)義務(wù) 43 (三)監(jiān)管動態(tài) 48 (四)相關(guān)機構(gòu) 49一、生成式人工智能監(jiān)管地圖,我們依據(jù)對全球生成式人工智能監(jiān)管動向的梳理,繪制了監(jiān)管地圖:1.紅色區(qū)域表明該地區(qū)目前已經(jīng)或即將建立成熟且較為嚴(yán)格的監(jiān)管制度,主要包括歐盟、加拿大和中國;2.橙色區(qū)域表明該地區(qū)目前對生成式人工智能產(chǎn)品存在一定的限制和監(jiān)管國;3.黃色區(qū)域表明該地區(qū)目前還沒有相關(guān)制度,但是監(jiān)管機構(gòu)未來有計劃對生成式人工智能制定規(guī)則,例如英國、澳大利亞和印度;4.綠色區(qū)域表明該地區(qū)目前沒有相關(guān)制度,且監(jiān)管機構(gòu)也傾向于在未來不采1主要地區(qū)監(jiān)管概述 中國監(jiān)管機構(gòu)從2021年起加強了對人工智能的監(jiān)管,并陸續(xù)發(fā)布了《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》(“算法推薦規(guī)定”)《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》(“深度合成規(guī)定”)和《生成式人工智能服務(wù)管理暫行辦法》(“生成式辦法”)三部重要的部門規(guī)章。這三部規(guī)章都可能適用于向中國境內(nèi)公眾提并落實科技倫理審查制度。與此同時,這三部規(guī)范也確立了中國將采取“包容審慎的分類分級監(jiān)管”原則。在未來,國家有關(guān)主管部門針對生成式人工智能技術(shù)特點及其在有關(guān)行業(yè)和領(lǐng)域的服務(wù)應(yīng)用,將制定相應(yīng)的分類分級監(jiān)管規(guī)則或者指引。目前負(fù)責(zé)算法備案、評估與監(jiān)管的機構(gòu)主要是網(wǎng)信辦(中央網(wǎng)信辦網(wǎng)絡(luò)管理技術(shù)局)。與此同時,電信主管部門、公安部門也會依據(jù)職責(zé)負(fù)責(zé)監(jiān)督管理工作。針對生成式人工智能的主要合規(guī)義務(wù):2 歐盟歐盟現(xiàn)行人工智能立法仍主要集中在傳統(tǒng)人工智能而非生成式人工智能上,但也逐漸觸及生成式人工智能的問題,例如在最新的《人工智能法》草案中規(guī)定了通用及生成式人工智能相關(guān)基礎(chǔ)模型提供者的義務(wù)。歐盟的人工智能路徑主張“以人為本(human-centric)”,在促進人工智能發(fā)展與創(chuàng)新的同時,構(gòu)建監(jiān)管體系以防范風(fēng)險、保護公民基本權(quán)利和安全。歐盟目前對于人工智能的監(jiān)管和治理重點在于尊重人格尊嚴(yán)、個人自由和保護數(shù)據(jù)及隱私安全。最新的立法進展是2023年6月14日歐洲議會對《人工智能法》的修訂。該法采用“基于風(fēng)險的方法”(risk-based)將人工智能系統(tǒng)分成四類,制定了不同程度的合規(guī)要求。其中,生成式人工智能系統(tǒng)一般屬于有限風(fēng)險的人工智能系統(tǒng),需遵守最低限度的透明度義務(wù),但可能會因其適用的領(lǐng)域和生成的內(nèi)容而落入高風(fēng)險人工智能系統(tǒng)的范疇。1與此同時,該法也規(guī)定了提供者、進口商、分銷商、部署者、通用及生成式人工智能相關(guān)基礎(chǔ)模型提供者等不同主體的合規(guī)義務(wù)。根據(jù)侵權(quán)行為的性質(zhì)、嚴(yán)重程度等因素,不遵守《人工智能法》的相關(guān)當(dāng)事人可能被處以不同規(guī)模的行政罰款。個人公司將禁止的人工智能系統(tǒng)投放市場或投入使用最高可被處4000萬歐元罰款罰款4000萬歐元或上一財政年度全球年營業(yè)額的7%(以較高者為準(zhǔn))不遵守高風(fēng)險人工智能系統(tǒng)關(guān)于數(shù)據(jù)治理、透明度和提供信息給用戶的規(guī)定最高可被處2000萬歐元罰款罰款2000萬歐元或上一財政年度全球年營業(yè)額的4%(以較高者為準(zhǔn))1EuropeanParliamentNews:https://www.europarl.europa.eu/news/en/headlines/society/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence3違反其他對于人工智能系統(tǒng)或模型的要求和義務(wù)最高可被處1000萬歐元罰款罰款1000萬歐元或上一財政年度全球年營業(yè)額的2%(以較高者為準(zhǔn))在答復(fù)請求時向公告機構(gòu)和國家主管當(dāng)局提供不正確、不完整或誤導(dǎo)性的信息最高可被處500萬歐元罰款罰款500萬歐元或上一財政年度全球年營業(yè)額的1%(以較高者為準(zhǔn))歷時兩年有余,《人工智能法》草案的提出和修訂體現(xiàn)了歐盟對人工智能的嚴(yán)格監(jiān)管態(tài)度。盡管最新的草案修訂稿對創(chuàng)新發(fā)展的考量增多,但總體而言,歐盟對人工智能的監(jiān)管仍非常嚴(yán)苛。國對ChatGPT展開調(diào)查。在監(jiān)管方面,歐盟目前沒有專門針對人工智能監(jiān)管的獨立機構(gòu),主要由歐盟層面及成員國層面不同領(lǐng)域的主管部門聯(lián)合監(jiān)管和執(zhí)法。最新的《人工智能法》草案要求成員國指定一個或多個主管機構(gòu),包括一個國家監(jiān)管機構(gòu),負(fù)責(zé)監(jiān)督《人工智能法》的應(yīng)用和實施;并提議在歐盟層面建立由成員國和歐盟委員會的代表組成的新歐盟機構(gòu)——“人工智能辦公室”,以期為《人工智能法》的統(tǒng)一適用提督機構(gòu)、海關(guān)、國家消費者保護當(dāng)局會負(fù)責(zé)各自領(lǐng)域與人工智能有關(guān)的執(zhí)法工作。《人工智能法》中通用及生成式人工智能相關(guān)基礎(chǔ)模型提供者的特殊義務(wù):4《人工智能法》中包括生成式人工智能在內(nèi)的有限風(fēng)險的人工智能系統(tǒng)的透明度義務(wù):5 美國美國是目前人工智能技術(shù)的策源地和領(lǐng)導(dǎo)者。為了保持這一領(lǐng)導(dǎo)地位,美國政府將促進人工智能的創(chuàng)新和發(fā)展作為高度優(yōu)先事項。因此,美國主張監(jiān)管需以促進人工智能負(fù)責(zé)任的創(chuàng)新(responsibleinnovation)為目標(biāo),應(yīng)通過監(jiān)管和非監(jiān)管措施減少人工智能開發(fā)和部署的不必要障礙,同時保護美國的技術(shù)、經(jīng)濟和國家安全、公民自由、人權(quán)、法治、隱私和尊重知識產(chǎn)權(quán)等核心價值觀。目前美國對人工智能的關(guān)注重點在于公民權(quán)利、公民自由、數(shù)據(jù)與隱私安全及知識產(chǎn)權(quán)保護。盡管美國的部分州已通過與人工智能有關(guān)的法案,但美國目前尚無專門規(guī)范通用人工智能或生成式人工智能的法律性文件。雖然兩黨議員嘗試就不同人工智能事項提請立法,有趨勢表明美國對人工智能的監(jiān)管或?qū)⒓訌?,但?lián)邦立法監(jiān)管目前仍處于非常早期的階段。細(xì)分領(lǐng)域不具有法律強制性的非監(jiān)管措施如主管部門的政策文件、指南、治理框架、試點項目和實驗、行業(yè)自律、社會組織的共識等是目前人工智能企業(yè)在美國行事的主要參考和依循。需要注意的是,美國政府有對于生成式人工智能相關(guān)的產(chǎn)品實施嚴(yán)格進出口管制的趨勢。美國政府曾嚴(yán)格限制用于人工智能工作的頂級計算芯片、超級計算機和其他半導(dǎo)體產(chǎn)品對中國的出口。此外,2023年7月4日,媒體報道美國政府還計劃限制中國企業(yè)使用美國的云計算服務(wù)。2美國目前沒有專門針對人工智能監(jiān)管的獨立機構(gòu),各領(lǐng)域主管部門將繼續(xù)在自己的職責(zé)范圍內(nèi)對生成式人工智能進行監(jiān)管。2/technology/us-set-restrict-chinas-access-cloud-computing-wsj-2023-07-04/6為包含人工智能生成材料的作品申請版權(quán)保護的申請人有以下義務(wù):近期與生成式AI相關(guān)的監(jiān)管動態(tài):2023年7月21日,Amazon、Anthropic、7 )加拿大加拿大將自己定位為人工智能發(fā)展的領(lǐng)導(dǎo)者。為此,加拿大政府主張對人工智能采取靈活的監(jiān)管方法,在促進人工智能系統(tǒng)設(shè)計、開發(fā)和使用的安全性的同時,維護加拿大民眾的價值觀,亦不致扼殺負(fù)責(zé)任的創(chuàng)新。加拿大對人工智能的監(jiān)管重點在于隱私保護。目前加拿大沒有明確針對人工智能的監(jiān)管制度,加拿大的人工智能系統(tǒng)受到一般性的隱私、技術(shù)和人權(quán)法律的監(jiān)管。雖然加拿大尚未處于制定全面的人工智能監(jiān)管制度的階段,但聯(lián)邦和省兩級都在采取行動彌補監(jiān)管空白,以期讓加拿大民眾信任人工智能技術(shù)。2022年6月提出的《人工智能和數(shù)據(jù)法》作為加拿大隱私領(lǐng)域立法改革的一部分,是加拿大針對人工智能進行監(jiān)管的首次嘗試。該法采用“基于風(fēng)險的方法”(risk-based)對高影響人工智能系統(tǒng)的風(fēng)險進行重點監(jiān)管,具體標(biāo)準(zhǔn)有待后續(xù)法規(guī)進行界定。該法為人工智能系統(tǒng)負(fù)責(zé)人即設(shè)計、開發(fā)、使用、提供或管理人工智能系統(tǒng)運行的主體設(shè)定了合規(guī)義務(wù),在相關(guān)活動中處理或者使用數(shù)據(jù)的主體也承擔(dān)一定的透明度義務(wù)。違反該法的當(dāng)事人可能面臨行政罰款、行政訴訟甚至刑事制裁?!度斯ぶ悄芎蛿?shù)據(jù)法》下人工智能系統(tǒng)負(fù)責(zé)人的合規(guī)義務(wù):8違反合規(guī)義務(wù)的人工智能系統(tǒng)負(fù)責(zé)人將面臨下表所示的處罰。個人公司經(jīng)公訴定罪法院酌情罰款不超過1千萬加元與其被判刑前的財政年度內(nèi)全球總收入的3%的罰款中更高額的罰款經(jīng)簡易程序定罪不超過5萬加元罰款不超過500萬加元與其被判刑前的財政年度內(nèi)全球總收入的2%的罰款中更高額的罰款在實踐方面,加拿大的兩個地區(qū)法院對于在法律意見書等材料中使用人工智能(一般是生成式人工智能技術(shù))發(fā)布了實務(wù)指導(dǎo)。在執(zhí)法方面,2023年4月,加拿大隱私專員辦公室啟動對OpenAI的調(diào)查,5月下旬,多省數(shù)據(jù)保護機構(gòu)與加拿大隱私專員辦公室合作,對OpenAI展開聯(lián)合調(diào)查。在監(jiān)管方面,加拿大目前沒有專門針對人工智能進行監(jiān)管的獨立機構(gòu),主要由不同領(lǐng)域的主管部門監(jiān)管和執(zhí)法。正在審議的《人工智能和數(shù)據(jù)法》規(guī)定創(chuàng)新、科學(xué)與工業(yè)部部長負(fù)責(zé)執(zhí)行該法;提議建立由新的人工智能和數(shù)據(jù)專員領(lǐng)導(dǎo)的辦公室,作為支持該法監(jiān)管和執(zhí)行的專門知識中心。此外,加拿大檢察署、加拿大隱私專員辦公室等部門負(fù)責(zé)各自領(lǐng)域與人工智能有關(guān)的執(zhí)法工作。 英國英國希望成為世界上建立和發(fā)展人工智能業(yè)務(wù)的最佳場所,以便將人工智能9的巨大潛力轉(zhuǎn)化為英國的經(jīng)濟增長和社會效益。因此,英國主張建立支持創(chuàng)新 (pro-innovation)、合比例(proportionate)、可信、適應(yīng)性強、明確和協(xié)作的英國不希望繁重的合規(guī)義務(wù)打擊企業(yè)的創(chuàng)新意愿,因此沒有專門針對人工智能進行立法,而主要通過發(fā)布指南、最佳實踐等非監(jiān)管措施為企業(yè)提供指導(dǎo),鼓勵促進人工智能領(lǐng)域負(fù)責(zé)任的創(chuàng)新,且對生成式人工智能這類新興的人工智能的發(fā)展持較開放的態(tài)度。例如,財政部建議讓創(chuàng)新者和企業(yè)家在監(jiān)管沙盒 (regulatorysandbox)中試驗新產(chǎn)品或服務(wù)而無需擔(dān)心罰款或責(zé)任風(fēng)險,存在監(jiān)管不確定性的生成式人工智能也可以使用監(jiān)管沙盒。2023年6月,英國內(nèi)閣辦公室發(fā)布了《公務(wù)員使用生成式人工智能的指引》,介紹了公務(wù)員使用生成式人工智能的一般原則。英國對生成式人工智能風(fēng)險的關(guān)注重點在于數(shù)據(jù)和隱私保護。教育部在《教育領(lǐng)域中的生成式人工智能》中明確指出,為保護個人隱私,個人信息和敏感數(shù)據(jù)不應(yīng)輸入生成式人工智能工具。英國信息專員辦公室也提示開發(fā)或使用生成式人工智能的人負(fù)有數(shù)據(jù)保護的法定義務(wù),他們需要考慮處理個人數(shù)據(jù)的合法依據(jù)為何、處理或控制數(shù)據(jù)的身份、通過數(shù)據(jù)保護影響評估、公開有關(guān)處理信息、降低安全風(fēng)險、限制不必要的處理、尊重個人訪問、糾正、刪除等權(quán)利請求、是否完全使用生成式人工智能自動決策等問題。3對于人工智能生成的作品,英國知識產(chǎn)權(quán)署在2022年6月公布咨詢結(jié)果,認(rèn)為暫時沒有證據(jù)表明人工智能生成的作品是有害的,其仍然受到英國版權(quán)法的保護。4在執(zhí)法方面,2023年5月,英國競爭與市場局對開發(fā)和使用人工智能基礎(chǔ)3GenerativeAI:eightquestionsthatdevelopersandusersneedtoask|ICO4ArtificialIntelligenceandIntellectualProperty:copyrightandpatents:Governmentresponsetoconsultation-GOV.UK(.uk)模型涉及市場競爭和消費者保護的方面進行初步審查。52023年6月,教育部啟動公眾咨詢,尋求民眾關(guān)于生成式人工智能在英國教育中的應(yīng)用及其機遇與風(fēng)險的看法。6英國信息專員辦公室呼吁企業(yè)在使用生成式人工智能前“應(yīng)對隱私風(fēng)險”,同時宣布“將對企業(yè)是否遵守數(shù)據(jù)保護法律進行更嚴(yán)格的檢查”。7英國沒有專門監(jiān)管人工智能的獨立機構(gòu),各領(lǐng)域監(jiān)管機構(gòu)在其執(zhí)法范圍內(nèi)對相關(guān)行為進行監(jiān)管。如英國信息專員辦公室作為英國的數(shù)據(jù)保護機構(gòu)將對人工智能相關(guān)主體處理數(shù)據(jù)的行為進行監(jiān)管,英國競爭與市場局將對不公平競爭、損害消費者的行為進行監(jiān)管等。 六)澳大利亞澳大利亞的人工智能方法希望確保人工智能可信賴、安全和負(fù)責(zé)任。澳大利亞目前主要發(fā)布了人工智能的道德原則,尚未決定對人工智能進行硬性監(jiān)管。澳大利亞尚未制定專門針對人工智能的立法,所有人工智能的治理都依賴于現(xiàn)行法律和指南。近期與生成式人工智能有關(guān)的動態(tài)是2023年7月,數(shù)字轉(zhuǎn)換機構(gòu)和工業(yè)、科學(xué)與資源部合作發(fā)布了《關(guān)于政府使用生成式人工智能平臺的臨時指南》,指出公共部門使用生成式人工智能需遵守四項原則:負(fù)責(zé)任地使用;透明度和可解權(quán)局正在對生成式人工智能對知識產(chǎn)權(quán)的影響進行研究。95CMA:.uk/government/news/cma-launches-initial-review-of-artificial-intelligence-models6.uk/government/consultations/generative-artificial-intelligence-in-education-call-for-evidence7Don’tbeblindtoAIrisksinrushtoseeopportunity–ICOreviewingkeybusinesses’useofgenerativeAI|ICO8.au/guidance-generative-ai/9GenerativeAIAndTheIPSystem–WhatDoesItAllMean?|IPAustralia澳大利亞沒有專門針對人工智能進行監(jiān)管的機構(gòu),各領(lǐng)域主管部門將在其主管范圍內(nèi)對人工智能進行監(jiān)管。澳大利亞信息專員辦公室負(fù)責(zé)執(zhí)行隱私法律,有權(quán)對人工智能涉嫌侵害隱私的行為進行調(diào)查。澳大利亞工業(yè)、科學(xué)與資源部經(jīng)常參與人工智能政策文件的制定。 印度印度沒有人工智能監(jiān)管的正式法律法規(guī)。與此同時,人工智能產(chǎn)品息息相關(guān)的數(shù)據(jù)保護領(lǐng)域,印度目前也遲遲沒有通過多次修改的《個人數(shù)據(jù)保護草案》。僅有《信息技術(shù)法案》(InformationTechnologyAct,2000)與《信息技術(shù) (合理的安全實踐和程序及敏感個人數(shù)據(jù)或信息)規(guī)則》(InformationTechnology(ReasonableSecurityPracticesandProceduresandSensitivePersonalDataorInformation)Rules,2011)要求數(shù)據(jù)處理者維持合理的安全措施和程序,制定隱私政策,在收集或傳輸敏感的個人數(shù)據(jù)或信息時獲得同意,并將此類收集的數(shù)據(jù)告知接收者的數(shù)據(jù)主體。但是,近年來,印度監(jiān)管者一直在積極研究人工智能監(jiān)管的議題。2023年3月起,印度政府的國家人工智能門戶網(wǎng)站INDIAai組織學(xué)術(shù)界的知名人士舉辦了三場圓桌討論會,討論研究生成式人工智能的影響、倫理和監(jiān)管問題以及它給印度帶來的機遇。10印度電子和信息技術(shù)部部長錢德拉塞卡(RajeevChandrasekhar)在接受媒體采訪時表示,政府正計劃監(jiān)管人工智能(AI),以保護公民免受傷害。11而7月20日,印度電信監(jiān)管局(Trai)也建議成立印度人工智能和數(shù)據(jù)管理局10.in/research-reports/impact-opportunity-and-challenges-of-generative-ai/economy/india-to-regulate-ai-for-user-protection-rajeev-chandrasekhar-11686335676103.html(AIDAI)作為獨立的監(jiān)管機構(gòu)。12 日本希望實現(xiàn)以人為中心、網(wǎng)絡(luò)空間和物理空間高度融合從而可以促進經(jīng)濟提出了“以人為本的人工智能社會原則”,該原則包括以人為本、教育、隱私保護、日本沒有選擇政府作為唯一制定、監(jiān)督和執(zhí)行人工智能規(guī)則主體的治理模式,而是選擇對人工智能實行敏捷治理(agilegovernance)。這是一種多個利益相關(guān)主體共同治理的模式。不同的利益相關(guān)者包括政府、企業(yè)、個人和社區(qū)將對其所處的社會狀況進行持續(xù)分析,明確意圖實現(xiàn)的目標(biāo)并設(shè)計各種系統(tǒng)實現(xiàn)這些目標(biāo),日本目前沒有專門規(guī)制人工智能的法律,主要采用軟法如政策性文件、指導(dǎo)性文件等對人工智能進行規(guī)范,鼓勵人工智能用戶和企業(yè)自愿采取行動以實現(xiàn)“以人為本的人工智能社會原則”。日本目前對人工智能的監(jiān)管關(guān)注點主要在于隱私和數(shù)據(jù)保護,主要聚焦醫(yī)療、農(nóng)業(yè)、交通、教育等領(lǐng)域,其中醫(yī)療領(lǐng)域的規(guī)范最為成熟,配套監(jiān)管措施也最多??茖W(xué)和技術(shù)大臣KeikoNagaoka在地方會議上證實,日本的法律不會保護人工智能數(shù)據(jù)集中使用的受版權(quán)保護的材料,“在日本,無論是非營利目的、營利目的、復(fù)制以外的行為,還是從非法網(wǎng)站等獲取的內(nèi)容,無論采用何種方法,都可以被/technology/tech-news/trai-issues-recommendations-on-ai-says-regulatory-framework-for-development-of-responsible-ai-urgently-needed-11689859911432.html用于信息分析?!?3可見日本促進創(chuàng)新和進步、增強其在人工智能領(lǐng)域競爭力的ChatGPT收集敏感數(shù)據(jù),該委員會可能會采取行動。日本個人信息保護委員會表示,OpenAI只能在獲得許可的情況下收集數(shù)據(jù)并應(yīng)盡量減少收集行為,同時要求OpenAI考慮隱私保護和生成式人工智能的潛在好處之間的平衡。14日本沒有專門對人工智能進行監(jiān)管的機構(gòu),各領(lǐng)域主管機構(gòu)將在其各自職權(quán)范圍內(nèi)對人工智能進行監(jiān)管。日本個人信息保護委員會負(fù)責(zé)保護包括個人信息在內(nèi)的個人權(quán)益,人工智能處理數(shù)據(jù)的行為將落入該委員會的監(jiān)管范圍內(nèi)。日本經(jīng)濟產(chǎn)業(yè)省作為負(fù)責(zé)提高民間經(jīng)濟活力、維護對外經(jīng)濟關(guān)系、保護經(jīng)濟產(chǎn)業(yè)發(fā)展的部門經(jīng)常參與人工智能治理的政策、指南等文件的制定。 )新加坡新加坡希望建立可信賴和負(fù)責(zé)任的人工智能生態(tài)系統(tǒng)。新加坡目前沒有考慮對人工智能進行監(jiān)管15,尚無專門規(guī)制人工智能的法律。已有的文件主要是指南、實踐指引等。新加坡發(fā)布了《模范人工智能治理框架》 (第2版)及其配套文件《人工智能治理框架——機構(gòu)實施及自我評估指引》《用例匯編》,幫助企業(yè)負(fù)責(zé)任地部署人工智能。近期與生成式人工智能有關(guān)的動態(tài):新加坡信息通信媒體發(fā)展局發(fā)布討論文件《生成式人工智能:對信任和治理的影響》,為政府和企業(yè)的高級領(lǐng)導(dǎo)人提出了建立可信賴和負(fù)責(zé)任地使用生成式人工智能的生態(tài)系統(tǒng)的想法。13決算行政監(jiān)視委員會分科會質(zhì)疑を振り返る。-きいたかし(キイタカシ)/選挙ドットコム()/technology/japan-privacy-watchdog-warns-chatgpt-maker-openai-data-collection-2023-06-02/15SingaporeisnotlookingtoregulateA.I.justyet,saysthecity-state()新加坡沒有專門對人工智能進行監(jiān)管的機構(gòu),現(xiàn)有主管部門將在其職能范圍內(nèi)對人工智能企業(yè)進行執(zhí)法。如新加坡個人數(shù)據(jù)保護委員會將從數(shù)據(jù)保護的角度對人工智能的數(shù)據(jù)使用、處理等行為進行監(jiān)管。值得一提的是,新加坡資訊通信媒體發(fā)展局和新加坡個人數(shù)據(jù)保護委員會推出了全球首個人工智能治理測試框架和工具包——“A.I.Verify”。A.I.Verify通過技術(shù)測試和流程檢查可以幫助人工智能企業(yè)對其人工智能系統(tǒng)進行評估,驗證系統(tǒng)是否符合國際公認(rèn)的人工智能原則、系統(tǒng)技術(shù)的公平性、可解釋性和穩(wěn)健性以及根據(jù)企業(yè)合規(guī)需求定制報告等。 中國香港目前對人工智能的監(jiān)管持非常包容和開放的態(tài)度。創(chuàng)新科技及工業(yè)局局長孫東在回應(yīng)記者問題中說,留意到國家最近針對有關(guān)技術(shù)和應(yīng)用提出新措施,特區(qū)政府一直保持高度關(guān)注,將繼續(xù)持非常開放態(tài)度對待有關(guān)技術(shù)發(fā)展,適時作出應(yīng)對。近幾年來,中國香港主要強調(diào)人工智能的開發(fā)和使用應(yīng)合乎道德。從2018年到2022年,香港發(fā)布了包括《中國香港的道德問責(zé)框架》《開發(fā)及使用人工智能道德標(biāo)準(zhǔn)指引》《人工智能道德框架》和《應(yīng)用人工智能的高層次原則》在內(nèi)的多份指導(dǎo)性文件。這類不具有法律上約束力的政策性文件是香港目前規(guī)范人工智能的主要文件。中國香港對人工智能的風(fēng)險關(guān)注點主要集中在數(shù)據(jù)和隱私保護。香港金融管理局在《應(yīng)用人工智能的高層次原則》中表示,過分嚴(yán)格的規(guī)定可能會阻礙人工智能相關(guān)技術(shù)的進一步發(fā)展,因此只在指南中規(guī)定了設(shè)計和采用人工智能時應(yīng)考慮的高層次的原則??梢灶A(yù)見,香港在短期仍將對人工智能保持非常寬容的態(tài)度。中國香港地區(qū)沒有設(shè)立監(jiān)管人工智能的獨立機構(gòu)。實踐中,個人資料私隱專員公署有權(quán)對人工智能開發(fā)和使用過程中的數(shù)據(jù)處理行為進行監(jiān)管。創(chuàng)新、科技與工業(yè)局作為負(fù)責(zé)科技發(fā)展的政府部門,也經(jīng)常參與到人工智能監(jiān)管與發(fā)展政策、戰(zhàn)略的制定中。 一)監(jiān)管對象這三部規(guī)章規(guī)制的對象“算法推薦技術(shù)”、“深度合成技術(shù)”與“生成式人工智能”,從技術(shù)角度解釋和法律文義解釋的視角看,存在包含關(guān)系。因此概念范圍最狹窄的生成式人工智能服務(wù)可能需要同時滿足三部規(guī)章的義務(wù)要求。16其中,《生成式人工智能服務(wù)管理暫行辦法》規(guī)制的是向中國境內(nèi)公眾提供的生成式人工智能服務(wù)。但有學(xué)者指出,“公眾”一詞目前尚未有明確的定義和解釋,因此不能排除toB的服務(wù)將完全豁免于該辦法的適用。同時,來源于中國境外向境內(nèi)提供的生成式人工智能服務(wù)也受到該辦法的管轄。16張凌寒,《深度合成治理的邏輯更新與體系迭代——ChatGPT等生成型人工智能治理的中國路徑》;葛夢瑩,南鈺彤,《專家解讀|生成式人工智能、深度合成技術(shù)與算法推薦的關(guān)聯(lián)與合規(guī)要點》 二)監(jiān)管部門目前負(fù)責(zé)算法備案、評估與監(jiān)管的機構(gòu)主要是網(wǎng)信辦(中央網(wǎng)信辦網(wǎng)絡(luò)管理技術(shù)局)。與此同時,電信主管部門、公安部門也會依據(jù)職責(zé)負(fù)責(zé)監(jiān)督管理工作。 (三)合規(guī)義務(wù)要求1.合規(guī)義務(wù)概覽如下圖所示,面向中國境內(nèi)的生成式人工智能服務(wù)需要同時滿足《算法推薦規(guī)定》《深度合成規(guī)定》與《生成式辦法》三部規(guī)章的要求。2.安全評估義務(wù)《生成式辦法》要求提供具有輿論屬性或者社會動員能力的生成式人工智能服務(wù)的,應(yīng)當(dāng)按照國家有關(guān)規(guī)定開展安全評估,并按照《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》履行算法備案和變更、注銷備案手續(xù)。這是生成式人工智能服務(wù)上市前的必要流程,據(jù)悉目前主流的GPT產(chǎn)品如百度的文心一格、阿里的通義千問均處于安全評估階段。生成式人工智能的安全評估與普通的算法推薦和深度合成評估不同,評估負(fù)責(zé)單位是中央網(wǎng)信辦網(wǎng)絡(luò)管理技術(shù)局,評估的顆粒度更細(xì),所需提供的材料也更 (四)未來可能面臨的監(jiān)管挑戰(zhàn)1.人工智能法院辦公廳發(fā)布了《國務(wù)院2023年度立法工作計劃》,計劃在2023年提請全國人大常委會審議人工智能法草案。目前尚無該法律具體的信息,但學(xué)者猜測該法律可能會與歐盟的人工智能法案相似,具有更高的層級和更廣的適用范圍。2.科技倫理審查2021年12月24日,第二次修訂的《科學(xué)進步法》在第103條提出了要建立科技倫理審查機制。而在2023年4月4日,科技部官網(wǎng)發(fā)布公開征求對《科技倫理審查辦法(試行)》,完善了科技倫理審查的流程和要求。其中涉及數(shù)據(jù)和算法的科技活動,數(shù)據(jù)處理方案需要符合國家有關(guān)數(shù)據(jù)安全的規(guī)定,數(shù)據(jù)安全風(fēng)險監(jiān)測及應(yīng)急處理方案得當(dāng);算法和系統(tǒng)研發(fā)需要符合公平、根據(jù)辦法草案,未來人工智能企業(yè)可能需要承擔(dān)的合規(guī)義務(wù)有:1)建立本單位的科技倫理(審查)委員會。2)建立健全科技活動全流程科技倫理監(jiān)管機制和審查質(zhì)量控制、監(jiān)督評價機制,加強對科技倫理高風(fēng)險科技活動的動態(tài)跟蹤、風(fēng)險評估和倫理事件應(yīng)急處置。3)在開展科技活動前進行科技倫理風(fēng)險評估或?qū)彶椤?萍蓟顒迂?fù)責(zé)人應(yīng)向本單位科技倫理(審查)委員會申請倫理審查。此外,根據(jù)科技部相關(guān)負(fù)責(zé)人在2022年《關(guān)于加強科技倫理治理的意見》新聞發(fā)布會的答復(fù),國家科技倫理委員會正在研究制定科技倫理高風(fēng)險科技活動清單,醫(yī)學(xué)、生命科學(xué)和人工智能方面是重點領(lǐng)域。未來,開展科技倫理高風(fēng)險科技活動將需要按規(guī)定進行登記。 一)監(jiān)管框架歐盟現(xiàn)行人工智能立法仍主要集中在傳統(tǒng)人工智能而非生成式人工智能上,但也逐漸觸及生成式人工智能的問題。在采用軟法方法但不足以解決人工智能技術(shù)因其特定特征而帶來的風(fēng)險后,歐盟開始著手完善立法。以下是歐盟關(guān)于人工智能的主要立法、指南。2019年4月,歐盟委員會人工智能高級專家組發(fā)布了《可信賴的人工智能的道德指南》,為在歐盟設(shè)計、開發(fā)、部署、實施或使用人工智能產(chǎn)品和服務(wù)的利益相關(guān)者提供指引。指南道出了可信賴的人工智能的四項道德原則:尊重人類原則的七項要求。 (《可信賴的人工智能的道德指南》提出的七項關(guān)鍵要求及其交互關(guān)系)2020年2月,歐盟委員會發(fā)布了《人工智能白皮書:歐洲實現(xiàn)卓越和信任的途徑》,指出歐洲未來人工智能監(jiān)管框架的關(guān)鍵是建立“卓越生態(tài)系統(tǒng)”和“可。2022年9月,歐盟委員會發(fā)布了《將非契約性民事責(zé)任規(guī)則適用于人工智能的指令的提案》,倡議推定人工智能造成的損害與受害者遭受的損失之間存在因果關(guān)系,賦予國家法院命令披露涉嫌造成損害的高風(fēng)險人工智能系統(tǒng)證據(jù)的權(quán)力,以期確保受人工智能系統(tǒng)傷害的人與受其他技術(shù)傷害的人享有相同的保護水平。2021年4月,歐盟委員會提出了《人工智能法》草案,為歐盟人工智能產(chǎn)品和服務(wù)的開發(fā)、供應(yīng)和使用制定了統(tǒng)一的法律框架。該提案建議在歐盟法律中引入技術(shù)中立的人工智能的定義,并根據(jù)“基于風(fēng)險的方法”為不同類型的人工智能系統(tǒng)制定要求和義務(wù)。 (《人工智能法》的分級監(jiān)管示意圖)2022年12月,歐盟理事會通過了其共同立場,建議縮小人工智能系統(tǒng)的定義;將禁止使用人工智能進行社會評分的禁令的適用范圍擴展到私人行為者,并增加在公共場所允許使用“實時”遠程生物識別系統(tǒng)這一例外情形;通過實施法律,對通用人工智能系統(tǒng)施加要求;增加新規(guī)以考慮人工智能系統(tǒng)可用于許多不同目的(通用人工智能)的情況;簡化《人工智能法》的合規(guī)框架,特別是加強人工智能委員會的作用。2023年6月14日,歐盟議會投票通過了最新的《人工智能法》草案。歐盟委員會、歐洲議會和歐盟理事會將進入“三方會談”階段。最新的草案再次作出了修改人工智能系統(tǒng)的定義,使其與亞太經(jīng)合組織商定的定義保持一致擴大被禁止的人工智能系統(tǒng)清單限縮高風(fēng)險人工智能系統(tǒng)的范圍為“存在可能損害人類健康、安全、基本權(quán)利或環(huán)境的‘重大風(fēng)險’”的人工智能系統(tǒng),在歐盟部署該類系統(tǒng)的主體有義務(wù)進行基本權(quán)利影響評估對通用人工智能17和ChatGPT等生成式人工智能18模型的提供者施加義務(wù)賦予各國當(dāng)局要求訪問人工智能系統(tǒng)的訓(xùn)練和培訓(xùn)模型(包括基礎(chǔ)模型)的權(quán)力。此外,成員國有權(quán)尋求加強公民權(quán)利以對人工智能系統(tǒng)提出投訴,并有權(quán)獲得對基于高風(fēng)險人工智能系統(tǒng)的決定的解釋為支持創(chuàng)新,研究活動和免費、開源人工智能組件的開發(fā)在很大程度上不受《人工智能法》的約束 (《人工智能法》最新立法進度圖)17第3條(1)(1d):可被用于和適應(yīng)各種非專門和特定設(shè)計的應(yīng)用的AI系統(tǒng)。18專門用于生成具有不同自治程度的復(fù)雜文本、圖像、音頻或視頻等內(nèi)容的人工智能 (二)一般合規(guī)義務(wù) (1)不可接受的風(fēng)險人工智能系統(tǒng):全面禁止《人工智能法》禁止以下類型的人工智能系統(tǒng)進入歐洲市場。 《人工智能法》將高風(fēng)險人工智能系統(tǒng)分為以下兩大類。該法要求高風(fēng)險人工智能系統(tǒng)完成事前合格評估以及包括風(fēng)險管理、測試、技術(shù)穩(wěn)健性、數(shù)據(jù)培訓(xùn)和治理、透明度、人為監(jiān)督和網(wǎng)絡(luò)安全在內(nèi)的其他要求。 (3)有限風(fēng)險人工智能系統(tǒng)19:有限的透明度義務(wù)有限風(fēng)險的人工智能系統(tǒng)只需遵守最低限度的透明度義務(wù),使用戶能夠在知情的情況下作出決定。在與應(yīng)用程序交互之后,用戶可以決定是否繼續(xù)使用它。用戶應(yīng)該知道其正在與人工智能——包括生成或操作圖像、音頻或視頻內(nèi)容的人工智能系統(tǒng)(生成式人工智能)互動。20 (4)低風(fēng)險或無風(fēng)險人工智能系統(tǒng):無額外法律義務(wù)19如與人類交互的系統(tǒng)(即聊天機器人)、情感識別系統(tǒng)、生物識別分類系統(tǒng),以及生成或操縱圖像、音頻或視頻內(nèi)容的人工智能系統(tǒng)(即深度偽造)20EUAIAct:firstregulationonartificialintelligence|News|EuropeanParliament(europa.eu)雖然擬議的《人工智能法》未對低風(fēng)險或無風(fēng)險人工智能系統(tǒng)施加限制,但其設(shè)想制定行為準(zhǔn)則,鼓勵非高風(fēng)險人工智能系統(tǒng)的提供者自愿適用高風(fēng)險人工智能系統(tǒng)的強制性要求。2.主體義務(wù) (1)高風(fēng)險人工智能系統(tǒng)相關(guān)主體義務(wù)1)提供者、部署者及其他各方其中,基礎(chǔ)模型的提供者、生成式人工智能系統(tǒng)中的基礎(chǔ)模型的提供者或?qū)⒒A(chǔ)模型專門用于生成式人工智能系統(tǒng)的提供者有義務(wù)在基礎(chǔ)模型投放市場或投入使用后10年內(nèi),保留其技術(shù)文件并交國家主管機關(guān)使用。在以下3種情形發(fā)生時,其他當(dāng)事方將被視為提供者,承擔(dān)使高風(fēng)險人工智能系統(tǒng)合規(guī)的義務(wù)及上述《人工智能法》對提供者、部署者及其他各方施加的義務(wù)。同時,原供應(yīng)商應(yīng)向新供應(yīng)商提供人工智能系統(tǒng)的技術(shù)文檔和所有其他相關(guān)且合理可預(yù)期的信息能力、技術(shù)訪問或基于公認(rèn)的最先進技術(shù)的其他協(xié)助。3)分銷商4)部署者 (2)與透明度相關(guān)的主體義務(wù) (三)特殊合規(guī)義務(wù)除以上一般合規(guī)義務(wù)外,特定主體還存在與知識產(chǎn)權(quán)、進出口相關(guān)的特殊合規(guī)義務(wù)。供應(yīng)商、部署者、分銷商、進口商、通用及生成式人工智能系統(tǒng)相關(guān)基礎(chǔ)模型的提供者在將高風(fēng)險人工智能系統(tǒng)投放市場或投入使用前存在下圖所示的義務(wù)。3.分銷商4.通用及生成式人工智能基礎(chǔ)模型的提供者5.部署者不遵守《人工智能法》的制裁:根據(jù)侵權(quán)行為的性質(zhì)、嚴(yán)重程度、持續(xù)時間、后果、人工智能系統(tǒng)的目的、受影響人員的數(shù)量及受影響程度等因素,相關(guān)當(dāng)事人可能被處以不同規(guī)模的行政罰款。個人公司將禁止的人工智能系統(tǒng)投放市場或投入使用最高可被處4000萬歐元罰款罰款4000萬歐元或上一財政年度全球年營業(yè)額的7%(以較高者為準(zhǔn))不遵守高風(fēng)險人工智能系統(tǒng)關(guān)于數(shù)據(jù)治理、透明度和提供信息給用戶規(guī)定最高可被處2000萬歐元罰款罰款2000萬歐元或上一財政年度全球年營業(yè)額的4%(以較高者為準(zhǔn))違反其他對于人工智能系統(tǒng)或模型的要求和義務(wù)最高可被處1000萬歐元罰款罰款1000萬歐元或上一財政年度全球年營業(yè)額的2%(以較高者為準(zhǔn))在答復(fù)請求時向公告機構(gòu)和國家主管當(dāng)局提供不正確、不完整或誤導(dǎo)性的信息最高可被處500萬歐元罰款罰款500萬歐元或上一財政年度全球年營業(yè)額的1%(以較高者為準(zhǔn))《人工智能法》還規(guī)定,成員國需制定罰則并采取一切必要措施,確保罰則得到適當(dāng)、有效的執(zhí)行。 四)監(jiān)管動態(tài)近年來,已有多個包括意大利、法國、西班牙等多個歐盟成員國對ChatGPT展開調(diào)查。時間國家監(jiān)管機構(gòu)性質(zhì)措施事由2023.3.31意大利Garante主動調(diào)查限時中止令未成年人數(shù)據(jù)處理、數(shù)據(jù)準(zhǔn)確性法國CNIL投訴驅(qū)動被動調(diào)查法性基礎(chǔ)、數(shù)據(jù)權(quán)利行使西班牙AEPD主動調(diào)查主動調(diào)查透明度2023.4.24德國BADI主動調(diào)查編制問卷數(shù)據(jù)保護影響評估2023.4.20挪威Datatilsynet未開啟調(diào)查官方表態(tài)/2023.4.21愛爾蘭DPC未開啟調(diào)查官方表態(tài)/ (歐盟成員國對ChatGPT的調(diào)查情況表21)2023年3月,歐洲消費者組織呼吁歐盟和各國安全、數(shù)據(jù)和消費者保護部門立即對ChatGPT和類似的聊天機器人展開調(diào)查。歐洲消費者組織副總干事UrsulaPachl說“像ChatGPT這樣的生成式人工智能為消費者提供了各種可能性,但是人們對這些系統(tǒng)如何欺騙、操縱和傷害人們表示嚴(yán)重關(guān)切。它們也可以被用”222023年4月13日,數(shù)據(jù)保護委員會決定成立一個專責(zé)小組(dedicatedtaskforce),以促進合作,就數(shù)據(jù)保護當(dāng)局可能采取的執(zhí)法行動交流信息。23最近,該小組正在調(diào)查ChatGPT。 五)相關(guān)機構(gòu)歐盟目前沒有專門針對人工智能監(jiān)管的獨立機構(gòu),主要由歐盟層面及成員國層面不同領(lǐng)域的主管部門聯(lián)合監(jiān)管和執(zhí)法。最新的《人工智能法》草案要求成員國指定一個或多個主管機構(gòu),包括一個國家監(jiān)管機構(gòu),負(fù)責(zé)監(jiān)督《人工智能法》的應(yīng)用和實施;并提議在歐盟層面建立由成員國和歐盟委員會的代表組成的新歐盟機構(gòu)——“人工智能辦公室”,以期為21此表引自微信公眾號“科技利維坦”《ChatGPT在歐洲“被禁”的法律邏輯》一文,ChatGPT在歐洲“被禁”的法律邏輯()22InvestigationbyEUauthoritiesneededintoChatGPTtechnology(beuc.eu)23EDPBresolvesdisputeontransfersbyMetaandcreatestaskforceonChatGPT|EuropeanDataProtectionBoard(europa.eu)《人工智能法》的統(tǒng)一適用提供指導(dǎo)、協(xié)調(diào)聯(lián)合跨境調(diào)查。在國家一級和跨境一級執(zhí)行數(shù)據(jù)保護法的歐洲數(shù)據(jù)保護委員會(EuropeanDataProtectionBoard)將從數(shù)據(jù)保護的角度對人工智能的數(shù)據(jù)處理行為進行監(jiān)管,使《通用數(shù)據(jù)保護條例》得到遵守。國家市場監(jiān)督機構(gòu)負(fù)責(zé)進行市場監(jiān)督、有責(zé)任在發(fā)現(xiàn)危險產(chǎn)品時采取適當(dāng)措商和分銷商對高風(fēng)險人工智能系統(tǒng)的義務(wù)和要求的遵守情況。不合規(guī)的人工智能系統(tǒng)或盡管合規(guī)但對人員健康或安全、基本權(quán)利或其他公共利益保護構(gòu)成風(fēng)險的人工智能系統(tǒng)可能被采取禁用、限用、撤回或召回等糾正措施。由《市場監(jiān)督條例(EU)2019/1020》建立的歐盟產(chǎn)品合規(guī)網(wǎng)絡(luò)(EUProductComplianceNetwork,EUPCN)是負(fù)責(zé)在非食品領(lǐng)域執(zhí)行歐盟產(chǎn)品立法的國家當(dāng)局之間的主要合作論壇,確保各產(chǎn)品部門市場監(jiān)督當(dāng)局間的合作和信息交流,確定歐盟一級市場監(jiān)督的優(yōu)先事項,并發(fā)起協(xié)調(diào)或聯(lián)合舉措。根據(jù)查明的風(fēng)險,海關(guān)可以在邊境拒收產(chǎn)品、實施銷售禁令或發(fā)布警告信息。如果產(chǎn)品已經(jīng)在消費者手中,可以要求召回。所有這些措施都在“安全門”(safegate)上報告,從而迅速向系統(tǒng)內(nèi)的所有國家當(dāng)局傳播信息,方便其追蹤危險產(chǎn)品、在本國采取措施,確保歐洲單一市場的安全。國家消費者保護當(dāng)局負(fù)責(zé)執(zhí)行消費者保護法。歐盟委員會與歐洲數(shù)據(jù)保護委員會(EDPB)秘書處定期舉辦聯(lián)合研討會,討論消費者和數(shù)據(jù)保護執(zhí)法人員共同的案件,并進一步加強他們的交流與合作。2020年7月,消費者和數(shù)據(jù)保護主管部門志愿者小組成立,以在國家和歐盟層面促進交流,建立最佳做法和執(zhí)法經(jīng)驗。 一)監(jiān)管框架美國目前無論在聯(lián)邦還是州一級均尚未專門針對通用人工智能或生成式人工智能進行正式立法。部分州通過了與人工智能有關(guān)的立法,主要涉及視頻面試、與就業(yè)有關(guān)的自動決策、保護消費者權(quán)利、防止保險公司人工智能的算法歧視等問題??屏_拉多州、伊利諾伊州、佛蒙特州、阿拉巴馬州等州成立了專門小組或委員會對人工智能進行研究。以下是美國與人工智能高度相關(guān)的主要政策文件、治理框架、指南等。2019年2月,美國總統(tǒng)行政辦公室發(fā)布《保持美國在人工智能領(lǐng)域的領(lǐng)導(dǎo)地位》,主張在聯(lián)邦政府、工業(yè)界和學(xué)術(shù)界推動人工智能的技術(shù)突破;減少人工智能技術(shù)安全測試和部署的障礙以便人工智能產(chǎn)業(yè)創(chuàng)新;培養(yǎng)公眾對人工智能技術(shù)的信任和信心,以維持美國在人工智能領(lǐng)域的領(lǐng)導(dǎo)地位。2020年11月,美國總統(tǒng)行政辦公室發(fā)布《行政部門和機構(gòu)負(fù)責(zé)人備忘錄——人工智能應(yīng)用監(jiān)管指南》。該指南用于規(guī)范在聯(lián)邦政府以外部署的人工智能系統(tǒng),旨在為所有聯(lián)邦政府機構(gòu)提供指導(dǎo)。指南要求,聯(lián)邦機構(gòu)必須避免不必要地阻礙人工智能創(chuàng)新和增長的監(jiān)管或非監(jiān)管行動。在法律允許的情況下,聯(lián)邦機構(gòu)在決定是否以及如何監(jiān)管人工智能可能應(yīng)用的領(lǐng)域時,應(yīng)評估潛在監(jiān)管對人工智能創(chuàng)新和發(fā)展的影響。2020年12月,美國總統(tǒng)行政辦公室發(fā)布政策文件《促進可信賴的人工智能在聯(lián)邦政府中的使用》,主張聯(lián)邦機構(gòu)應(yīng)以培養(yǎng)公眾信任和信心的方式設(shè)計、開2021年6月,美國政府問責(zé)局在《人工智能:聯(lián)邦機構(gòu)和其他實體的問責(zé)框架》中圍繞治理、數(shù)據(jù)、績效和監(jiān)督等原則確定了問責(zé)實踐,以幫助聯(lián)邦機構(gòu)和其他機構(gòu)負(fù)責(zé)任地使用人工智能。 (《人工智能:聯(lián)邦機構(gòu)和其他實體的問責(zé)框架》示意圖)2022年10月,美國白宮科技政策辦公室發(fā)布白皮書《人工智能權(quán)利法案的藍圖——讓自動化系統(tǒng)為美國人民服務(wù)》,列出了人工智能的五項基本原則,對應(yīng)美國人民都應(yīng)享有的五項核心保護。 (五項核心保護)2023年1月,美國商務(wù)部下屬機構(gòu)美國國家標(biāo)準(zhǔn)與技術(shù)研究院發(fā)布《人工智能風(fēng)險管理框架》及配套使用手冊??蚣軐θ斯ぶ悄艿娘L(fēng)險進行了界定,通過四大模塊,幫助設(shè)計、開發(fā)、部署或使用人工智能系統(tǒng)的人更好地管理與人工智能有關(guān)的個人、組織和社會的風(fēng)險。該框架的目標(biāo)是提高人工智能系統(tǒng)的可信度和(系統(tǒng)輸出結(jié)果)可解釋、隱私(保護)增強、有效和可信賴、隱私增強、透大維度。24 (《人工智能風(fēng)險管理框架》四大功能示意圖)2023年3月,美國版權(quán)局發(fā)布《包含人工智能生成材料的作品的版權(quán)登記指南》,介紹了版權(quán)局如何將《版權(quán)法》的“人類作者要求”(HumanAuthorshipRequirement)適用于此類作品的注冊申請,并為申請人提供指導(dǎo)。版權(quán)局明確《憲法》和《版權(quán)法》的“作者”僅指人類,只有存在足夠的“人類作者”要素的作品才能申請注冊并獲得版權(quán)保護,人工智能生成的內(nèi)容應(yīng)明確在申請外排除。版24引自微信公眾號“清華大學(xué)智能法治研究院”《人工智能治理|美國NIST《人工智能風(fēng)險管理框架評述》一文,/s?src=11×tamp=1691565786&ver=4701&signature=1nEYbt9wsPpmhIeQG*gU8PCuHv*O3vCZidb0V56ghyye-oJfFrWzyFXq1-u76ud4faE2bEdx0uFGcXIKxBmhEiaqjrTBTE9FjjbaEai5QaaLdikB6itbUFK6R4uoXvC8&new=1權(quán)局將逐案審查人類在多大程度上創(chuàng)造性地控制了作品的表達并實際構(gòu)成了“作者”要素。2023年5月,美國國會研究服務(wù)部發(fā)布《生成式人工智能與數(shù)據(jù)隱私:初探》的報告,對生成式人工智能的定義、數(shù)據(jù)使用、數(shù)據(jù)來源等情況進行介紹,建議國會完善隱私立法、規(guī)范數(shù)據(jù)收集、加大對替代技術(shù)方法的研究與開發(fā)。美國國會研究服務(wù)部建議立法設(shè)置如下機制:通知和披露機制:要求開發(fā)者在收集或使用個人數(shù)據(jù)之前獲得數(shù)據(jù)主體的同意并告知主體數(shù)據(jù)將用于何種目的選擇退出的機制:對于尚未公開的數(shù)據(jù),生成式人工智能的開發(fā)者應(yīng)向用戶提供退出數(shù)據(jù)收集的選項刪除和最小收集機制:用戶有權(quán)從當(dāng)前數(shù)據(jù)集中刪除自己的數(shù)據(jù),或規(guī)定個人數(shù)據(jù)的最長保留期限 (二)一般合規(guī)義務(wù)雖然美國尚未針對通用人工智能及生成式人工智能系統(tǒng)及相關(guān)主體設(shè)定合規(guī)義務(wù),但相關(guān)人工智能企業(yè)應(yīng)考慮主管部門在不同領(lǐng)域出臺的指南、框架等文聯(lián)邦貿(mào)易委員會消費者保護局局長在“人工智能和算法的商業(yè)指導(dǎo)”中提示企業(yè)在消費品中應(yīng)用人工智能時應(yīng)注意以下事項。2525UsingArtificialIntelligenceandAlgorithms|FederalTradeCommission()2023年7月21日,Amazon,Anthropic,Google,Inflection,Meta,Microsoft和OpenAI向美國政府自愿作出的一系列承諾亦可供企業(yè)參考。2626FACTSHEET:Biden-HarrisAdministrationSecuresVoluntaryCommitmentsfromLeadingArtificialIntelligenceCompaniestoManagetheRisksPosedbyAI|TheWhiteHouse (三)特殊合規(guī)義務(wù)除以上一般合規(guī)義務(wù)外,特定主體還存在與知識產(chǎn)權(quán)、進出口相關(guān)的特殊合規(guī)義務(wù)。根據(jù)美國版權(quán)局《包含人工智能生成材料的作品的版權(quán)登記指南》,為包含人工智能生成材料的作品申請版權(quán)保護的申請人在不同的申請階段存在不同義務(wù):達表示,美國官員要求其停止向中國出口兩種用于人工智能工作的頂級計算芯片。272022年10月7日,美國國家工業(yè)和安全局發(fā)布了《中國超級計算機和半導(dǎo)體產(chǎn)品出口管制公告》28,宣布對華人工智能和半導(dǎo)體技術(shù)出口管制政策。根據(jù)美國《出口管制改革法(2018年)》的規(guī)定,在2022年10月21日至2023年427/technology/nvidia-says-us-has-imposed-new-license-requirement-future-exports-china-2022-08-31/28PublicInformationonExportControlsImposedonAdvancedComputingAndSemiconductorManufacturingItemsToThePeople’SRepublicOfChina(Prc)(Doc.Gov)商或轉(zhuǎn)讓方須取得國家工業(yè)和安全局的臨時通用許可證。此外,出口商、再出口商或轉(zhuǎn)讓方須保留接收方的名稱、超級計算機在中國的目標(biāo)地址及接收方總部的所在地。據(jù)《華爾街日報》2023年7月4日的報道,美國政府計劃限制中國企業(yè)使用美國的云計算服務(wù)。29如果新規(guī)被采納,亞馬遜、微軟等美國云服務(wù)提供商向中國公司提供使用先進人工智能芯片的云計算服務(wù)前將需先征得美國政府的許可。商務(wù)部預(yù)計在未來幾周內(nèi)實施這一限制。 四)監(jiān)管動態(tài)2023年2月16日,美國司法部和商務(wù)部工業(yè)與安全局成立了顛覆性技術(shù)打擊隊(DisruptiveTechnologyStrikeForce),用以防止、起訴逃避美國對人工智2023年5月13日,美國總統(tǒng)科學(xué)技術(shù)顧問委員會成立了生成式人工智能工作組,幫助評估關(guān)鍵機遇和風(fēng)險,并就如何盡可能公平、負(fù)責(zé)和安全地確保相關(guān)技術(shù)的開發(fā)和部署提供意見。312023年6月22日,商務(wù)部部長宣布美國國家標(biāo)準(zhǔn)與技術(shù)研究所將成立生成式人工智能公共工作組,幫助研究所制定關(guān)鍵指南,進而幫助企業(yè)應(yīng)對與生成式人工智能技術(shù)相關(guān)的特殊風(fēng)險。322023年7月13日,美國聯(lián)邦貿(mào)易委員會啟動對OpenAI是否違反消費者保護法的調(diào)查,要求OpenAI提供有關(guān)其處理個人數(shù)據(jù)、向用戶提供不準(zhǔn)確信息的29/articles/u-s-looks-to-restrict-chinas-access-to-cloud-computing-to-protect-advanced-technology-f77161330OfficeofPublicAffairs|JusticeandCommerceDepartmentsAnnounceCreationofDisruptiveTechnologyStrikeForce|UnitedStatesDepartmentofJustice31PCASTWorkingGrouponGenerativeAIInvitesPublicInput|PCAST|TheWhiteHouse32Biden-HarrisAdministrationAnnouncesNewNISTPublicWorkingGrouponAI|NIST可能性以及“對消費者造成損害(包括聲譽損害)的風(fēng)險”的記錄。33 五)相關(guān)機構(gòu)美國目前沒有專門針對人工智能進行監(jiān)管的獨立機構(gòu),各領(lǐng)域主管部門將繼續(xù)執(zhí)行現(xiàn)行美國法律及根據(jù)各領(lǐng)域特殊情況制定的政策、指南。美國商務(wù)部工業(yè)和安全局執(zhí)行《出口管理條例》適用范圍內(nèi)人工智能相關(guān)商美國聯(lián)邦貿(mào)易委員會通過執(zhí)行《聯(lián)邦貿(mào)易委員會法案》和許多其他法律法規(guī),有權(quán)起訴人工智能侵犯數(shù)據(jù)隱私、數(shù)據(jù)安全、不公平競爭等行為。美國消費者產(chǎn)品安全委員會依據(jù)《消費者產(chǎn)品安全法》等法律有權(quán)監(jiān)管美國消費者金融保護局負(fù)責(zé)制定、執(zhí)行聯(lián)邦消費者金融法律,保護金融市場中的消費者免受不公平、欺詐或濫用行為的侵害及歧視。該局曾發(fā)布通告,確認(rèn)無論使用何種技術(shù)(包括人工智能),聯(lián)邦消費者金融法律和不利行動要求 (adverseaction)都將適用。33/technology/2023/07/13/ftc-openai-chatgpt-sam-altman-lina-khan/ 一)監(jiān)管框架加拿大擁有在不同領(lǐng)域規(guī)范人工智能的法律框架,包括《個人信息保護和電子文件法》《消費者隱私保護法》《加拿大消費品安全法》《食品和藥品法》《銀行法》《刑法》《機動車輛安全法》《加拿大人權(quán)法》和各省人權(quán)法等。與人工智能高度相關(guān)的主要法律、政策文件如下。2017年,加拿大發(fā)布了世界上第一個國家人工智能戰(zhàn)略《泛加拿大人工智能戰(zhàn)略》,用于推進人工智能領(lǐng)域的研究和創(chuàng)新,助力加拿大成為人工智能領(lǐng)域的先行者和全球領(lǐng)導(dǎo)者之一。2020年11月12日,加拿大隱私專員辦公室發(fā)布《人工智能監(jiān)管框架:<個人信息保護與電子文件法>改革建議》。辦公室希望在獲得人工智能的好處的同時維護個人的基本隱私權(quán)。因此,辦公室建議:開發(fā)人工智能系統(tǒng)的人員應(yīng)確保在設(shè)計系統(tǒng)時保護隱私;個人有權(quán)獲得幫助其理解人工智能系統(tǒng)對其作出的決定的解釋,該解釋應(yīng)基于準(zhǔn)確的信息,且不具有歧視性或偏見;個人應(yīng)有權(quán)對自動產(chǎn)生的決策提出質(zhì)疑;隱私和數(shù)據(jù)保護監(jiān)管機構(gòu)有權(quán)要求提供上述證據(jù)、發(fā)布具有約束力的命令及對無視隱私的企業(yè)實施經(jīng)濟處罰。2022年6月16日,加拿大創(chuàng)新、科學(xué)與工業(yè)部部長提出了C-27法案即《數(shù)字憲章實施法》,其中包括《人工智能和數(shù)據(jù)法》?!度斯ぶ悄芎蛿?shù)據(jù)法》是加拿大正式規(guī)范非聯(lián)邦政府機構(gòu)的人工智能系統(tǒng)的首次嘗試,加拿大也因此成為歐盟以外的第二個正式將此類立法提交審議的國家。該法的關(guān)鍵定義和概念與歐盟《人工智能法》、亞太經(jīng)合組織人工智能原則、美國《人工智能風(fēng)險管理框架》等存在共通之處。該法的主要內(nèi)容如下:采用類似歐盟《人工智能法》“基于風(fēng)險的方法”,重點規(guī)范在國際和省際貿(mào)易和商業(yè)活動中使用的高影響(high-impact)人工智能系統(tǒng)的相關(guān)風(fēng)險,規(guī)定了相關(guān)主體的義務(wù),以確保在可能引入風(fēng)險的每個點上都實行問責(zé)制創(chuàng)新、科學(xué)與工業(yè)部部長被授權(quán)管理和執(zhí)行該法,其有權(quán)下令制作與人工智能系統(tǒng)有關(guān)的記錄,并公布違規(guī)情況的有關(guān)信息設(shè)立由新的人工智能和數(shù)據(jù)專員領(lǐng)導(dǎo)的辦公室,作為支持該法監(jiān)管和執(zhí)行的專門知識中心。在該法生
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 2025年度二零二五民間借貸合同風(fēng)險評估與管理范本4篇
- 二零二五年度抹灰工程綠色施工與環(huán)保合同4篇
- 二零二五年度教育培訓(xùn)場地租賃合同模板4篇
- 2025年度派駐技術(shù)支持服務(wù)合同模板范本4篇
- 2025年度個人二手房交易糾紛調(diào)解服務(wù)合同
- 2025年建筑工程施工項目經(jīng)理勞動合同模板2篇
- 二零二五醫(yī)療治療期間員工勞動合同補充協(xié)議3篇
- 二零二五年度新型農(nóng)村合作社勞動者勞動合同書
- 2025年度智能家居系統(tǒng)安裝與維護個人房屋裝修合同標(biāo)準(zhǔn)范本2篇
- 2024版預(yù)售房屋購買合同書
- GB/T 43650-2024野生動物及其制品DNA物種鑒定技術(shù)規(guī)程
- 2024年南京鐵道職業(yè)技術(shù)學(xué)院高職單招(英語/數(shù)學(xué)/語文)筆試歷年參考題庫含答案解析
- 暴發(fā)性心肌炎查房
- 口腔醫(yī)學(xué)中的人工智能應(yīng)用培訓(xùn)課件
- 工程質(zhì)保金返還審批單
- 【可行性報告】2023年電動自行車項目可行性研究分析報告
- 五月天歌詞全集
- 商品退換貨申請表模板
- 實習(xí)單位鑒定表(模板)
- 數(shù)字媒體應(yīng)用技術(shù)專業(yè)調(diào)研方案
- 2023年常州市新課結(jié)束考試九年級數(shù)學(xué)試卷(含答案)
評論
0/150
提交評論