版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡介
z大模型治理藍(lán)皮報(bào)告——從規(guī)則走向?qū)嵺`(2023年)中國信息通信研究院政策與經(jīng)濟(jì)研究所中國科學(xué)院計(jì)算技術(shù)研究所智能算法安全重點(diǎn)實(shí)驗(yàn)室2023年11月前 言近一年來,以ChatGPT為代表的大模型技術(shù)引發(fā)通用人工智能新一輪發(fā)展熱潮,在帶動(dòng)大規(guī)模產(chǎn)業(yè)升級(jí)、勞動(dòng)力轉(zhuǎn)移、產(chǎn)品的分配機(jī)制等方面均帶來深刻變革,成為改變世界競爭格局的重要力量。與此同時(shí),圍繞人工智能治理的議題探討顯著增多,全球人工智能治理體系加速構(gòu)建。黨中央國務(wù)院高度重視人工智能治理工作,作出一系列重要部署。習(xí)近平總書記強(qiáng)調(diào),要共同做好風(fēng)險(xiǎn)防范,形成具有廣泛共識(shí)的人工智能治理框架和標(biāo)準(zhǔn)規(guī)范,不斷提升人工智能技術(shù)的安全性、可靠性、可控性、公平性。尋找大模型治理的準(zhǔn)確定位,構(gòu)建適應(yīng)技術(shù)發(fā)展趨勢的治理體系愈加重要且迫切。面對(duì)大模型帶來的新問題新挑戰(zhàn),傳統(tǒng)監(jiān)管模式面臨著AI自主演化控制難、迭代快速跟進(jìn)難、黑箱遮蔽追責(zé)難等問題,一勞永逸的事前監(jiān)管模式已經(jīng)難以應(yīng)對(duì)不斷推陳出新的人工智能發(fā)展需求。從治理框架來看,敏捷治理成為回應(yīng)大模型技術(shù)快速迭代的重要治理模式,軟硬法協(xié)調(diào)、多主體協(xié)同的治理需求更為突出。構(gòu)建高質(zhì)量數(shù)據(jù)集、創(chuàng)新知識(shí)產(chǎn)權(quán)制度、探索價(jià)值對(duì)齊實(shí)現(xiàn)方式、維護(hù)信息內(nèi)容安全等成為各方關(guān)注的熱點(diǎn)問題。美國、歐盟、英國等主要國家和地區(qū)加緊推進(jìn)人工智能治理布局,共同尋求具有共識(shí)和互操作性的治理規(guī)則。我國圍繞人工智能發(fā)展、安全、治理三方面提出《全球人工智能治理倡議》,通過算法備案、評(píng)估評(píng)測、事后溯源檢測等方式,推動(dòng)人工智能治理從規(guī)則走向?qū)嵺`,為全球提供人工智能治理中國方案。希望研究成果為社會(huì)各界進(jìn)一步參與大模型治理實(shí)踐提供有益參考。目 錄一、大模型治理的重要性緊迫性凸顯 1(一)大模型技術(shù)浪潮興起 1(二)大模型引領(lǐng)數(shù)字化變革 3(三)大模型帶來的典型風(fēng)險(xiǎn) 5二、技術(shù)變革下大模型治理框架日漸明朗 11(一)治理模式:敏捷治理成為國際較為通行的治理方案 11(二)治理主體:激勵(lì)多元主體協(xié)同治理成為全球共識(shí) 14(三)治理機(jī)制:軟硬兼施推進(jìn)大模型治理 18三、聚焦大模型治理核心議題規(guī)則 22(一)數(shù)據(jù)治理規(guī)則 23(二)知識(shí)產(chǎn)權(quán)保護(hù) 32(三)倫理問題治理 36(四)信息內(nèi)容治理 40四、把握全球大模型治理最新動(dòng)態(tài)趨勢 42(一)美國從松散碎片式治理逐步趨向體系化治理 42(二)歐盟繼續(xù)發(fā)揮人工智能治理領(lǐng)域布魯塞爾效應(yīng) 45(三)英國力圖以促進(jìn)創(chuàng)新的監(jiān)管方法引領(lǐng)全球治理 49(四)國際組織在大模型治理國際合作中各顯其能 52五、探索我國大模型治理的主要落地工具 55(一)事前備案 55(二)事中全流程評(píng)估 57(三)事后溯源檢測 60六、完善我國大模型治理體系的思路建議 63(一)確立促進(jìn)創(chuàng)新的人工智能敏捷治理理念 64(二)聚焦人工智能場景應(yīng)用細(xì)化制度方案 64(三)立足當(dāng)前治理實(shí)踐創(chuàng)新人工智能治理工具 65(四)激勵(lì)企業(yè)積極管控風(fēng)險(xiǎn)以推動(dòng)平臺(tái)合規(guī) 66(五)促進(jìn)全球人工智能合作治理體系構(gòu)建 67大模型治理藍(lán)皮書—從規(guī)則走向?qū)嵺`(2023年)一、大模型治理的重要性緊迫性凸顯(一)大模型技術(shù)浪潮興起當(dāng)前,世界人工智能領(lǐng)域科技創(chuàng)新異?;钴S,日益成為改變世界競爭格局的重要力量。一批里程碑意義的前沿成果陸續(xù)突破,以ChatGPT為代表的大模型技術(shù)引發(fā)通用人工智能新一輪發(fā)展熱潮。1.對(duì)大模型的基本認(rèn)識(shí)大模型(LLM,LargeLanguageModel)指的是具有超大參數(shù)規(guī)模,建立在多頭自注意力機(jī)制Transformer架構(gòu)之上,以深度神經(jīng)網(wǎng)絡(luò)為基礎(chǔ),用海量文本數(shù)據(jù)預(yù)訓(xùn)練而成的語言模型。以ChatGPT為代表的大模型能夠模擬人類的創(chuàng)造性思維,生成具有一定邏輯性和連貫性的語言文本、圖像、音頻等內(nèi)容。大模型基于大數(shù)據(jù)、大算力、多模態(tài)的技術(shù)優(yōu)勢,實(shí)現(xiàn)從感知世界、理解世界向創(chuàng)造世界的躍遷,推動(dòng)人類社會(huì)加速邁向人機(jī)共生的智能社會(huì)階段。大模型體現(xiàn)出三方面技術(shù)趨勢:一是從決策式AI到生成式AI。決策式AI主要是通過分類回歸對(duì)數(shù)據(jù)進(jìn)行分析,主要應(yīng)用于圖像識(shí)別、推薦系統(tǒng)、決策智能體等領(lǐng)域。生成式AI借助Transformer架構(gòu)等,具有全局表征能力強(qiáng)、高度并行性、通用性強(qiáng)、可擴(kuò)展性強(qiáng)等優(yōu)勢,主要應(yīng)用于內(nèi)容創(chuàng)作、科研、人機(jī)交互等領(lǐng)域,實(shí)現(xiàn)了從簡單感知到內(nèi)容創(chuàng)造的躍遷。二是從單模態(tài)模型到多模態(tài)模型。多模態(tài)是指通過處理和關(guān)聯(lián)來自多種模態(tài)的多源異構(gòu)數(shù)據(jù),挖掘分析信息、提高模型能力的學(xué)習(xí)方法。典型任務(wù)是圖像/視頻/語言間的跨模態(tài)預(yù)訓(xùn)練、跨模態(tài)定位等,如給定文本生成一段對(duì)應(yīng)的聲音、圖像/視頻與文本1大模型治理藍(lán)皮書—從規(guī)則走向?qū)嵺`(2023年)的相互檢索或生成等。三是從億級(jí)到千億、萬億級(jí)參數(shù)的預(yù)訓(xùn)練模型。大模型指的正是模型參數(shù)規(guī)模龐大,大模型參數(shù)規(guī)模從億級(jí)發(fā)展到百億、千億級(jí)別,并向著更高規(guī)模的參數(shù)探索。例如,GPT-3參數(shù)量達(dá)1750億,文心一言參數(shù)規(guī)模為2600億等。隨著參數(shù)規(guī)模的增長,模型能力也得到顯著提升。2.大模型的變革影響(1)內(nèi)容生產(chǎn)方式的“顛覆者”大模型實(shí)現(xiàn)了高質(zhì)量、高效率、多樣化的內(nèi)容生產(chǎn),成為推動(dòng)內(nèi)容生產(chǎn)方式變革的重要力量。一是信息內(nèi)容生產(chǎn)主體發(fā)生顯著變革。人工智能在信息收集、篩選和整合、推理的全過程都能替代人力,極大地解放人力資源。二是信息內(nèi)容生產(chǎn)效率快速提升。大算力驅(qū)動(dòng)強(qiáng)算法處理大數(shù)據(jù),在自然語言處理、計(jì)算機(jī)視覺、自動(dòng)駕駛、等各領(lǐng)域多種任務(wù)上,都能高質(zhì)量作出結(jié)果判斷,高效率進(jìn)行內(nèi)容生成。三是信息內(nèi)容傳播出現(xiàn)顛覆性變化。信息的生產(chǎn)、傳播更加便利,尤其是降低了專業(yè)知識(shí)的獲取門檻。信息內(nèi)容的表現(xiàn)形態(tài)更加豐富,利用人工智能創(chuàng)生技術(shù),圖、文、代碼等相互轉(zhuǎn)換更加自由,可以一鍵生成“數(shù)字人”分身,開啟智能互聯(lián)時(shí)代。(2)通用人工智能的“先行者”大模型是邁向通用人工智能的重要技術(shù)探索。一是具備了與人類智能相媲美的綜合智能能力。大模型的能力不再局限于自然語言、視覺等特定方面,而是具備了執(zhí)行一般智慧行為的能力,廣泛拓展了人工智能技術(shù)的適用范圍。二是具備了通用型技術(shù)能力的潛力。業(yè)界普2大模型治理藍(lán)皮書—從規(guī)則走向?qū)嵺`(2023年)遍認(rèn)為,大模型是智能時(shí)代的關(guān)鍵基礎(chǔ)底座,各領(lǐng)域不再需要單獨(dú)開發(fā)人工智能,僅需調(diào)用大模型接口即可。將來可能構(gòu)建出新的應(yīng)用生態(tài)、創(chuàng)造新的用戶接口,并帶來潛在商業(yè)模式的變革。三是具備了賦能千行百業(yè)的適應(yīng)性。大模型可作為底層技術(shù),垂直應(yīng)用于各個(gè)產(chǎn)業(yè)和復(fù)雜場景。這種可以嫁接千行百業(yè)的智能生產(chǎn)力,正在重塑和影響未來生活。(3)人機(jī)交互的“協(xié)作者”大模型使得人類行為與機(jī)器運(yùn)行之間的協(xié)作更加自然、高效和智能,拓展了更為廣闊的人機(jī)交互空間。一是呈現(xiàn)出極大的語言表達(dá)的自由度。大模型“善于”理解和生成自然語言,人們可以自由提問或表達(dá)需求,不必?fù)?dān)心特定的格式或指令。這種自由度使得人與機(jī)器的交互更為自然、靈活。二是呈現(xiàn)出極為個(gè)性化的交互體驗(yàn)。大模型可以通過分析和理解用戶的喜好、興趣和上下文信息,進(jìn)行定制化的服務(wù)和建議。大模型的即時(shí)回應(yīng)和連續(xù)對(duì)話,給用戶提供了實(shí)時(shí)的幫助和引導(dǎo)。Web2.0之父蒂姆·奧萊利(TimO'Reilly)認(rèn)為未來的人工智能系統(tǒng)將成為人類工作的協(xié)作者,通過人機(jī)合作實(shí)現(xiàn)更強(qiáng)大的效果。(二)大模型引領(lǐng)數(shù)字化變革大模型體現(xiàn)出強(qiáng)智能性、強(qiáng)通用性、強(qiáng)交互性,為進(jìn)一步的產(chǎn)業(yè)革新與數(shù)字政府發(fā)展奠定了堅(jiān)實(shí)的基礎(chǔ)。根據(jù)麥肯錫報(bào)告,生成式人工智能每年或?qū)槿騁DP增加2.6-4.4萬億美元。根據(jù)MarketsandMarkets報(bào)告,2023年全球生成式人工智能的市場規(guī)模預(yù)計(jì)為110.3億美元,2028年預(yù)計(jì)將達(dá)到518億美元,年復(fù)合增長率達(dá)35.6%。3大模型治理藍(lán)皮書—從規(guī)則走向?qū)嵺`(2023年)1.大模型推動(dòng)產(chǎn)業(yè)跨域深度融合憑借大數(shù)據(jù)、大市場、多場景優(yōu)勢,人工智能與交通、醫(yī)療、工業(yè)等傳統(tǒng)行業(yè)深入融合,涌現(xiàn)出一批新業(yè)態(tài)新模式。在工業(yè)領(lǐng)域,大模型實(shí)現(xiàn)汽車、建模等設(shè)計(jì)的自動(dòng)優(yōu)化、打造3D模型、通過智能物流、智能安防實(shí)現(xiàn)智能化管理;在醫(yī)療領(lǐng)域,大模型實(shí)現(xiàn)蛋白質(zhì)分子的結(jié)構(gòu)預(yù)測、輔助醫(yī)生影像讀片與分析病例報(bào)告,推出AI陪護(hù)與交互式心理咨詢;在金融領(lǐng)域,大模型催生了數(shù)字員工,借助AI客服、AI投資顧問、AI財(cái)務(wù)實(shí)現(xiàn)服務(wù)的自動(dòng)化,并進(jìn)一步優(yōu)化投資管理與風(fēng)險(xiǎn)管理。據(jù)埃森哲預(yù)計(jì),2035年人工智能應(yīng)用將為制造業(yè)帶來4萬億美元額外增長,年增長率可達(dá)4.4%。2.大模型提升公共服務(wù)水平當(dāng)前,公共領(lǐng)域大模型應(yīng)用如火如荼,為公共服務(wù)提質(zhì)增效。美國、英國、葡萄牙、新加坡等13個(gè)國家或地區(qū)已將ChatGPT應(yīng)用于政府內(nèi)部辦公、公共服務(wù)提供等場景。據(jù)日本野村綜合研究所開展的網(wǎng)絡(luò)問卷調(diào)查顯示,政府部門對(duì)ChatGPT的利用率達(dá)17.5%,僅次于信息通信業(yè)(32.8%)和制造業(yè)(19.2%)。從市場份額來看,根據(jù)普魯杜爾公司(PrudourPvt.Ltd)數(shù)據(jù)顯示,2022年各國政府應(yīng)用大模型的市場份額超過1千萬美元,預(yù)計(jì)2032年超過5億美元,年復(fù)合增長率達(dá)45.8%。大模型技術(shù)的引入可以顯著提升人機(jī)交互的友好程度。同時(shí),大模型在信息收集、數(shù)據(jù)分析以及語言重塑能力層面的優(yōu)勢,能夠有效協(xié)助整合政府治理資源,改善政府治理結(jié)構(gòu),打破政府組織壁壘,實(shí)現(xiàn)跨部門、跨層級(jí)的協(xié)同治理。4大模型治理藍(lán)皮書—從規(guī)則走向?qū)嵺`(2023年)(三)大模型帶來的典型風(fēng)險(xiǎn)大模型在提升產(chǎn)業(yè)效率與社會(huì)生產(chǎn)力的同時(shí),亦伴隨著多重風(fēng)險(xiǎn)與挑戰(zhàn),有必要從技術(shù)自身缺陷引發(fā)的風(fēng)險(xiǎn)、技術(shù)應(yīng)用在不同層面帶來的問題與挑戰(zhàn)等維度出發(fā),梳理和探討大模型發(fā)展面臨的困局。1.大模型自身技術(shù)缺陷帶來的風(fēng)險(xiǎn)挑戰(zhàn)一是大模型的生成“幻覺”問題引發(fā)生成內(nèi)容不可信。生成幻覺通常指模型按照流暢正確的語法規(guī)則產(chǎn)生的包含虛假信息甚至無意義內(nèi)容的文本。幻覺一般被認(rèn)為是模型生成的文本不遵循原文或不符合事實(shí),在大模型場景下主要指不符合事實(shí),即出現(xiàn)“一本正經(jīng)胡說八道”的情形?;糜X產(chǎn)生的本質(zhì)原因是大模型的輸出結(jié)果是根據(jù)概率推理而成的,這導(dǎo)致了大模型可能針對(duì)一個(gè)原本模糊或者不確定的預(yù)測,給出一個(gè)“過度自信”的結(jié)果。因此,OpenAI公司首席技術(shù)官M(fèi)iraMurati亦指出,ChatGPT和底層大型語言模型的最大挑戰(zhàn)是其會(huì)編造錯(cuò)誤的或不存在的事實(shí)。二是大模型的“涌現(xiàn)”效應(yīng)帶來模型能力不可控。所謂智能“涌現(xiàn)”,是指大語言模型在沒有經(jīng)過針對(duì)性訓(xùn)練的任務(wù),包括需要復(fù)雜推理能力的任務(wù)中,同樣表現(xiàn)出卓越的性能。這種“智能涌現(xiàn)”能力通常在小模型中未被發(fā)現(xiàn),而只會(huì)在具備一定規(guī)模的大模型中出現(xiàn)。目前僅能夠明確觀測到當(dāng)模型大小超過一定閾值時(shí),模型各方面綜合能力得到質(zhì)變式爆發(fā)增長的“涌現(xiàn)”現(xiàn)象,但卻無法確定“涌現(xiàn)”的閾值所在,這使現(xiàn)有大模型的“智能涌現(xiàn)”能力具有突發(fā)性、不可預(yù)測性和不可控性,例如,在某用戶故意“激怒”ChatGPT后,后者威5大模型治理藍(lán)皮書—從規(guī)則走向?qū)嵺`(2023年)脅將披露該用戶的IP、居所等個(gè)人信息,甚至損害其名譽(yù)。不少人工智能研究人員亦發(fā)出警告,如果控制不當(dāng),足夠強(qiáng)大的人工智能模型可能超越人類智能成為地球主導(dǎo)力量,引發(fā)災(zāi)難性后果。三是大模型的脆弱性和攻擊性造成外部安全隱患難以根除。由于技術(shù)本身的特性,沒有一個(gè)系統(tǒng)是永遠(yuǎn)安全和不可能被攻破的。一方面,隨著大模型生成側(cè)的高度發(fā)展,對(duì)其進(jìn)行網(wǎng)絡(luò)攻擊日漸增多。例如通過在提示詞后增加一些不規(guī)則后綴,即可讓此提示詞繞過大模型的攔截策略,讓其生成預(yù)料之外的內(nèi)容。另一方面,大模型應(yīng)用降低了漏洞查找與系統(tǒng)攻擊的難度。如果模型被惡意植入后門,模型的安全也會(huì)受到威脅,尤其在大模型應(yīng)用下,漏洞查找與系統(tǒng)攻擊變得更加容易,導(dǎo)致系統(tǒng)安全隱患持續(xù)升級(jí)。例如,有攻擊者利用ChatGPT生成自動(dòng)攻擊的代碼,讓它更加高效的利用某個(gè)目標(biāo)系統(tǒng)的漏洞,進(jìn)行網(wǎng)絡(luò)攻擊。2.大模型在個(gè)人維度引發(fā)的風(fēng)險(xiǎn)挑戰(zhàn)一是加深“信息繭房”并影響公平正義。一方面,以呈現(xiàn)高頻次單一信息為生成機(jī)制會(huì)加深“信息繭房”。過去,個(gè)人自主進(jìn)行信息檢索是往往能夠獲得來源豐富、多種多樣的信息以供選擇,從而形成對(duì)所欲探究事物更全面的認(rèn)知;而在大模型應(yīng)用下,個(gè)人只能被動(dòng)接受模型提供的信息,而無法獲取樣本數(shù)量不占優(yōu)勢的“小眾”信息,使得大模型生成內(nèi)容類似于“繭房”,將個(gè)體對(duì)事物的認(rèn)知桎梏于有限信息之中。1另一方面,大模型訓(xùn)練數(shù)據(jù)存在的固有偏見和歧視問參見/s/FIX1cUkw6PiduOwJ00l0mA6大模型治理藍(lán)皮書—從規(guī)則走向?qū)嵺`(2023年)題。這是由于大模型對(duì)數(shù)據(jù)高度依賴,所以生成結(jié)果會(huì)體現(xiàn)出數(shù)據(jù)源的偏向性。如GPT-3顯示出了基于宗教信仰的偏見和性別歧視,大語言模型Gopher存在職業(yè)與性別之間的刻板印象聯(lián)想,圖像生成模Dalle-2則表現(xiàn)出顯著的性別和種族歧視。二是技術(shù)濫用侵犯人格尊嚴(yán)并阻礙個(gè)人發(fā)展。一方面,大模型的惡意利用侵犯人格尊嚴(yán)。當(dāng)前已有大量案例表明,大模型被用于生成虛假的有損公民人格尊嚴(yán)的視頻、音頻、圖像等,進(jìn)而被惡意應(yīng)用于網(wǎng)絡(luò)欺凌、辱罵、造謠等場景下,給當(dāng)事人帶來極大的精神及財(cái)產(chǎn)損害。例如,喬治華盛頓大學(xué)法學(xué)院教授JonathanTurley發(fā)現(xiàn),ChatGPT生成內(nèi)容顯示他在阿拉斯加課程旅行中對(duì)學(xué)生進(jìn)行了性騷擾。然而,Turley教授并未帶領(lǐng)學(xué)生去阿拉斯加或任何其他地方進(jìn)行課程旅行,也未曾受到過性騷擾學(xué)生的指控。另一方面,大模型的過度依賴阻礙個(gè)人發(fā)展。當(dāng)前越來越多個(gè)體頻繁應(yīng)用大模型服務(wù)完成工作學(xué)習(xí)任務(wù),例如用ChatGPT寫論文、寫判決書的案例屢見不鮮,且個(gè)人對(duì)大模型的依賴表現(xiàn)出應(yīng)用日益廣泛、程度日益加深的特征,恐導(dǎo)致個(gè)人學(xué)習(xí)能力以及認(rèn)知水平可能大幅退化,影響人與社會(huì)的長期發(fā)展?jié)摿ΑC绹菐觳剪斀鹚箤W(xué)會(huì)刊文指出,ChatGPT將可能導(dǎo)致人類記憶和批判能力的下降。三是情感計(jì)算造成潛在倫理風(fēng)險(xiǎn)并擾亂人際關(guān)系。情感計(jì)算是模擬某個(gè)角色并設(shè)定其情緒或心理狀態(tài)的新型人工智能應(yīng)用,其發(fā)展與普及可能給個(gè)人行為、社會(huì)關(guān)系、倫理道德等諸多領(lǐng)域帶來巨大的沖擊。一方面,情感計(jì)算可能瓦解傳統(tǒng)人際關(guān)系。以近期眾多人工智能7大模型治理藍(lán)皮書—從規(guī)則走向?qū)嵺`(2023年)企業(yè)推出的“AI伴侶”為例,該類應(yīng)用可能導(dǎo)致個(gè)人不愿花時(shí)間精力與真正的人類進(jìn)行情感交流,從而導(dǎo)致傳統(tǒng)的人際關(guān)系與婚姻家庭結(jié)構(gòu)遭到重創(chuàng),甚至顛覆過往的倫理道德觀念。另一方面,情感計(jì)算可能不正當(dāng)?shù)匾龑?dǎo)個(gè)人情緒、行為乃至價(jià)值觀。人工智能產(chǎn)品可能會(huì)有偏見或有目的性地引導(dǎo)某些個(gè)體,尤其當(dāng)人類習(xí)慣于長期與機(jī)器人交互時(shí),人獲取的信息會(huì)很自然地被機(jī)器所引導(dǎo),進(jìn)而影響個(gè)人的價(jià)值觀,或是控制個(gè)人的情緒與行為。3.大模型在企業(yè)維度引發(fā)的風(fēng)險(xiǎn)挑戰(zhàn)一是用戶過度授權(quán)、違規(guī)信息使用以及黑客攻擊,引發(fā)用戶隱私與商業(yè)秘密的泄露風(fēng)險(xiǎn)。在用戶個(gè)人隱私方面面臨侵權(quán)訴訟,當(dāng)前,大模型的用戶使用條款普遍給予企業(yè)超出必要限度的個(gè)人信息使用權(quán),加大了用戶個(gè)人信息泄漏的風(fēng)險(xiǎn),從而擔(dān)負(fù)極大的違規(guī)風(fēng)險(xiǎn)。以ChatGPT為例,其使用條款明確規(guī)定,除非用戶要求OpenAI不對(duì)其輸入和輸出內(nèi)容進(jìn)行使用,否則OpenAI擁有對(duì)任何用戶輸入和輸出內(nèi)容的廣泛使用權(quán),以達(dá)成優(yōu)化訓(xùn)練ChatGPT的目的。在企業(yè)商業(yè)秘密方面,企業(yè)員工很有可能故意或過失地違反公司保密制度,將公司的營業(yè)信息、技術(shù)信息、平臺(tái)底層代碼、近期營銷計(jì)劃、公司薪酬體系等信息泄露,黑客也可能利用系統(tǒng)漏洞發(fā)起攻擊獲取海量涉密信息,從而導(dǎo)致企業(yè)商業(yè)秘密泄露風(fēng)險(xiǎn)。二是內(nèi)容生成依托海量文本與圖像數(shù)據(jù),引發(fā)版權(quán)侵權(quán)風(fēng)險(xiǎn)。一方面,大模型生成內(nèi)容由于缺乏規(guī)范的許可使用機(jī)制具有侵權(quán)風(fēng)險(xiǎn)。由于大模型根據(jù)概率推理的生成機(jī)制,其使用作品難以逐個(gè)、準(zhǔn)確地8大模型治理藍(lán)皮書—從規(guī)則走向?qū)嵺`(2023年)援引法定許可或合理使用條款,這使得大模型未經(jīng)許可使用作品的行為可能會(huì)侵犯被使用作品的復(fù)制、改編、信息網(wǎng)絡(luò)傳播權(quán)等權(quán)利。例2023年1月,全球知名圖片提供商華蓋創(chuàng)意(GettyImages)起訴熱門人工智能繪畫工具StableDiffusion的開發(fā)者StabilityAI,稱其未經(jīng)許可從網(wǎng)站上竊取了數(shù)百萬張圖片。再如,用于谷歌T5和METALLaMA等大模型訓(xùn)練的C4數(shù)據(jù)集,雖然源自公開網(wǎng)站,但也包括至少27個(gè)被美國政府認(rèn)定為盜版和假冒產(chǎn)品市場的網(wǎng)站。另一方面,大模型生成內(nèi)容存在與既有作品“實(shí)質(zhì)性相似”的潛在侵權(quán)風(fēng)險(xiǎn)。如果大模型通過分析學(xué)習(xí)后生成的內(nèi)容與原始作品過于相似,以至于可能會(huì)誤導(dǎo)公眾或混淆原始作品的來源,其可能會(huì)因與他人作品存在“實(shí)質(zhì)性相似”而被認(rèn)定為侵權(quán),從而導(dǎo)致著作權(quán)侵權(quán)相關(guān)的訴訟,而含有侵權(quán)內(nèi)容的大模型生成內(nèi)容的使用者亦有可能需要承擔(dān)侵權(quán)責(zé)任。2三是應(yīng)用形態(tài)顛覆現(xiàn)有數(shù)據(jù)收集模式,引發(fā)數(shù)據(jù)安全風(fēng)險(xiǎn)。大模型生成工具的運(yùn)作機(jī)制導(dǎo)致企業(yè)緯度的違規(guī)數(shù)據(jù)傳輸與敏感信息泄露頻發(fā)。以ChatGPT為例,根據(jù)其運(yùn)作原理,用戶在輸入端提出的問題首先會(huì)傳輸?shù)轿挥诿绹腛penAI公司,隨后ChatGPT才會(huì)給出相應(yīng)回答,因此存在數(shù)據(jù)泄露風(fēng)險(xiǎn)。如韓媒報(bào)道,三星半導(dǎo)體事業(yè)部向員工開放使用ChatGPT后短短20天內(nèi)即發(fā)生多起數(shù)據(jù)違規(guī)輸入事件。又如數(shù)據(jù)安全公司Cyberhaven調(diào)研顯示,不同行業(yè)客戶的160萬名員工平均每周向ChatGPT泄露敏感數(shù)據(jù)達(dá)數(shù)百次。參見/s/LbeMIgeJeZSAqDWeLTBX9g9大模型治理藍(lán)皮書—從規(guī)則走向?qū)嵺`(2023年)4.大模型在社會(huì)維度引發(fā)的風(fēng)險(xiǎn)挑戰(zhàn)一是沖擊就業(yè)市場,提升勞動(dòng)力轉(zhuǎn)型下的社會(huì)不安定性。雖然大模型帶來的崗位智能化升級(jí)將提升社會(huì)生產(chǎn)效率、創(chuàng)造新興崗位,但也會(huì)導(dǎo)致特定領(lǐng)域或人群的失業(yè)危機(jī)。大模型對(duì)初等和中等技能白領(lǐng)崗位需求的沖擊較大,從事重復(fù)性、機(jī)械性等工作的勞動(dòng)者將極易被大模型工具替代。據(jù)高盛研究報(bào)告分析,以美國為例,46%的行政工作和44%的法律工作將受到較高程度的影響。在此趨勢下,相當(dāng)數(shù)量的勞動(dòng)者需在短期內(nèi)進(jìn)行與社會(huì)新需求相匹配的職業(yè)轉(zhuǎn)換,這對(duì)他們的經(jīng)濟(jì)收入、社會(huì)地位、身心健康都可能產(chǎn)生較大影響,如果大規(guī)模勞動(dòng)力轉(zhuǎn)型不當(dāng)甚至有可能引發(fā)社會(huì)動(dòng)蕩等風(fēng)險(xiǎn)。二是擴(kuò)大數(shù)字鴻溝,加劇社會(huì)分化和不平等。大模型的擁有程度、應(yīng)用程度以及創(chuàng)新能力的差別將引發(fā)信息落差,進(jìn)而造成新一輪數(shù)字鴻溝,甚至加劇社會(huì)分化和不平等。從國家與地區(qū)層面來看,在大模型加速迭代的進(jìn)程中,僅有少數(shù)發(fā)達(dá)國家能夠能夠憑借龐大的數(shù)據(jù)、算力等資源進(jìn)一步掌控生產(chǎn)力資源,這將進(jìn)一步擴(kuò)大發(fā)達(dá)國家與發(fā)展中國家的差距。例如,美國的GPT-4總共包含了1.8萬億參數(shù),一次的訓(xùn)練成本為6300萬美元,非百億美金公司很難持續(xù)跟進(jìn)。從組織和個(gè)人層面來看,大模型服務(wù)對(duì)于不同群體的可得性是不同的。部分地區(qū)或群體可能由于無法獲得高質(zhì)量的互聯(lián)網(wǎng)連接、教育水平與專業(yè)背景不足等原因,無法有效且正確地使用GPT技術(shù)。這會(huì)使得ChatGPT等技術(shù)成為精英階層提升和優(yōu)化生產(chǎn)力的有力工具,進(jìn)一步拉大精英階層和社會(huì)底層、高知分子與普通勞動(dòng)者之間的差距。大模10大模型治理藍(lán)皮書—從規(guī)則走向?qū)嵺`(2023年)型生成機(jī)制對(duì)于不同群體的“關(guān)注度”是不同的。特殊群體及其呼聲會(huì)在數(shù)字化進(jìn)程中成為被排斥的對(duì)象,淪為“數(shù)字棄民”,這可能導(dǎo)致未來日益依托于大模型的社會(huì)治理框架忽視特殊群體的需求,加劇社會(huì)在年齡、地域等緯度的不平等。三是深度偽造與對(duì)抗性攻擊,危及公共安全與利益。一方面,大模型被用于制作虛假文本、音頻、視頻等深度偽造內(nèi)容,損害公共利益。當(dāng)前,通過AI換臉、語音模擬、人臉合成、視頻生成等惡意運(yùn)用手段生成的深度偽造信息,既加劇了公眾對(duì)于公開信息的不信任感,又導(dǎo)致相關(guān)虛假信息與虛假形象被運(yùn)用于詐騙、政治干預(yù)、煽動(dòng)暴力和犯罪等破壞公共利益的領(lǐng)域,造成了極大的安全風(fēng)險(xiǎn)。另一方面,對(duì)抗性攻擊的存在威脅著公共安全。大模型容易受到對(duì)手生成的對(duì)抗樣本的“注入式攻擊”,即圖謀不軌者從算法角度別有用心地構(gòu)造并注入特定詞語、符號(hào)或圖片,進(jìn)而誘導(dǎo)大模型邏輯混亂、輸出錯(cuò)誤,再利用這一漏洞進(jìn)行欺詐或篡改,甚至直接圖謀根源極其隱蔽的安全事故。3例如,研究人員通過在停止信號(hào)圖片添加細(xì)微噪聲,就可以欺騙自動(dòng)駕駛系統(tǒng)錯(cuò)認(rèn)為速度限制45英里/小時(shí),產(chǎn)生潛在事故風(fēng)險(xiǎn)。二、技術(shù)變革下大模型治理框架日漸明朗(一)治理模式:敏捷治理成為國際較為通行的治理方案2018年,世界經(jīng)濟(jì)論壇提出敏捷治理概念,討論如何應(yīng)對(duì)第四次工業(yè)革命中的政策制定問題,敏捷治理理念開始受到廣泛關(guān)注。敏參見/s/yAEBHtf-SEPgC65vmtdMEQ11大模型治理藍(lán)皮書—從規(guī)則走向?qū)嵺`(2023年)捷治理是“一套具有柔韌性、流動(dòng)性、靈活性或適應(yīng)性的行動(dòng)或方法,是一種自適應(yīng)、以人為本以及具有包容性和可持續(xù)的決策過程”。一方面,敏捷治理體現(xiàn)為快速感知能力。強(qiáng)調(diào)對(duì)時(shí)間的高度靈敏度,需要時(shí)刻準(zhǔn)備應(yīng)對(duì)快速發(fā)展中的變化,主動(dòng)接受變化并在變化中學(xué)習(xí)。能夠快速感知到內(nèi)外部環(huán)境的變化,預(yù)測內(nèi)外部面臨的風(fēng)險(xiǎn)問題。另一方面,敏捷治理強(qiáng)調(diào)參與主體應(yīng)具有廣泛性。治理主體不再局限于政府,而是需要與開發(fā)者、部署者、用戶等利益相關(guān)者密切互動(dòng),建立機(jī)制持續(xù)性監(jiān)測和討論政策內(nèi)容,保持長期可持續(xù)性。從治理原則來看,采取原則指引為主、靈活政策為輔的策略。敏捷治理強(qiáng)調(diào)在治理原則指導(dǎo)下,使用靈活政策工具作為補(bǔ)充,依據(jù)情況及時(shí)調(diào)整大模型治理方向和落地舉措。在治理關(guān)系上,監(jiān)管者和市場主體之間存在重要的相互依賴關(guān)系。雙方在信任基礎(chǔ)上深入密切交流,監(jiān)管者可以更好了解技術(shù)趨勢和產(chǎn)業(yè)發(fā)展走向,準(zhǔn)備評(píng)估相關(guān)風(fēng)險(xiǎn)并制定合理措施。從治理工具來看,治理措施要“下手快”并允許包容試錯(cuò)空間?!跋率挚臁笨梢詼p少企業(yè)的沉默成本,減少技術(shù)路徑和商業(yè)模式的轉(zhuǎn)變損失。包容試錯(cuò)意味著鼓勵(lì)企業(yè)積極創(chuàng)新,對(duì)于風(fēng)險(xiǎn)程度較低的問題,支持企業(yè)自行整改消除風(fēng)險(xiǎn)。4在治理模式選擇上,靈活感知、動(dòng)態(tài)調(diào)適的敏捷治理更契合大模型發(fā)展需求。大模型具有突破性、變革性、高風(fēng)險(xiǎn)性等特點(diǎn),傳統(tǒng)監(jiān)管模式面臨著AI自主演化控制難、迭代快速跟進(jìn)難、黑箱遮蔽追責(zé)難等問題,一勞永逸的事前監(jiān)管模式已經(jīng)難以應(yīng)對(duì)不斷推陳出新的人參見薛瀾,《走向敏捷治理:新興產(chǎn)業(yè)發(fā)展與監(jiān)管模式探究》,《中國行政管理》2019年第8期。12大模型治理藍(lán)皮書—從規(guī)則走向?qū)嵺`(2023年)工智能發(fā)展需求。開展科技倫理敏捷治理試點(diǎn)工作,是邊發(fā)展、邊治理,邊摸索、邊修正的動(dòng)態(tài)治理方式,對(duì)于平衡安全和創(chuàng)新,在實(shí)踐中不斷提煉和打磨大模型治理方案具有重要意義。歐盟、英國、美國均在不同層面引入敏捷治理以規(guī)制大模型風(fēng)險(xiǎn)。美國出臺(tái)法案細(xì)化基于風(fēng)險(xiǎn)的敏捷治理具體實(shí)施路徑。2023年5月,美國提出建立數(shù)字平臺(tái)委員會(huì)相關(guān)法案,指出應(yīng)采用基于風(fēng)險(xiǎn)的敏捷方法,并建立規(guī)制技術(shù)風(fēng)險(xiǎn)的新機(jī)構(gòu)。法案認(rèn)為,新機(jī)構(gòu)應(yīng)效仿企業(yè)的敏捷治理做法,制定行為守則,并以透明、反應(yīng)迅速的方法執(zhí)行相關(guān)標(biāo)準(zhǔn)。法案還為敏捷治理提出了具體的實(shí)施路徑,例如為準(zhǔn)則制定過程設(shè)定時(shí)間表,確定并量化需要解決的問題,建立多利益相關(guān)方專家小組,專家組對(duì)政策實(shí)施效果進(jìn)行持續(xù)追蹤,找出新問題并循環(huán)整個(gè)過程。英國實(shí)行靈活的“按比例監(jiān)管”以提升在人工智能領(lǐng)域的競爭優(yōu)勢。2023年3月,英國發(fā)布《促進(jìn)創(chuàng)新的人工智能監(jiān)管方式》白皮書,明確監(jiān)管目標(biāo)為“提供清晰的、有利于創(chuàng)新的監(jiān)管環(huán)境”,強(qiáng)調(diào)“按比例監(jiān)管”的靈活監(jiān)管方式,力圖推動(dòng)英國成為“世界上建立基礎(chǔ)人工智能企業(yè)的最佳地點(diǎn)之一”。歐盟總體基調(diào)嚴(yán)苛,但仍體現(xiàn)出敏捷治理思路。如《人工智能法案》第56b條款指出,人工智能辦公室應(yīng)對(duì)基礎(chǔ)模型進(jìn)行監(jiān)測,并與開發(fā)者、部署者就其合規(guī)性進(jìn)行定期對(duì)話,討論行業(yè)自我治理的最佳做法;定期更新將基礎(chǔ)模型界定為大型訓(xùn)練模型的判定標(biāo)準(zhǔn),記錄并監(jiān)測大模型運(yùn)行的實(shí)例。再如,該法案第五章“支持創(chuàng)新的措施”中,提出人工智能監(jiān)管沙箱制度,要求建立受控環(huán)境,在一定時(shí)間內(nèi)推動(dòng)人工智能系統(tǒng)的開發(fā)、測試和13大模型治理藍(lán)皮書—從規(guī)則走向?qū)嵺`(2023年)驗(yàn)證。我國采取包容審慎、分類分級(jí)監(jiān)管的敏捷治理模式。兩辦印發(fā)《關(guān)于加強(qiáng)科技倫理治理的意見》,提出敏捷治理的治理理念,要求加強(qiáng)科技倫理風(fēng)險(xiǎn)預(yù)警與跟蹤研判,及時(shí)動(dòng)態(tài)調(diào)整治理方式和倫理規(guī)范,快速、靈活應(yīng)對(duì)科技創(chuàng)新帶來的倫理挑戰(zhàn)。國家網(wǎng)信辦等七部門出臺(tái)《生成式人工智能服務(wù)管理暫行辦法》,堅(jiān)持發(fā)展和安全并重、促進(jìn)創(chuàng)新和依法治理相結(jié)合的原則,采取有效措施鼓勵(lì)大模型創(chuàng)新發(fā)展,對(duì)大模型服務(wù)實(shí)行包容審慎和分類分級(jí)監(jiān)管。相反,加拿大立法進(jìn)程中的非敏捷做法遭到外界批判。國際治理創(chuàng)新中心評(píng)論文章《加拿大人工智能立法草案需要重新修訂》一文批評(píng)道,加拿大正在制定的《人工智能與數(shù)據(jù)法案》敏捷性不足,敏捷監(jiān)管應(yīng)該是不斷迭代和數(shù)據(jù)驅(qū)動(dòng)的,有明確的程序來評(píng)估政策影響并作出調(diào)整,但該草案并不具備這些要素??傮w來看,作為一種新型治理思路,敏捷治理具備全面性、適應(yīng)性和靈活性特征,契合大模型的治理需求。如何有效落地敏捷治理理念,是當(dāng)前需要探索的重要任務(wù)。(二)治理主體:激勵(lì)多元主體協(xié)同治理成為全球共識(shí)1.國際組織是全球人工智能治理的重要力量越來越多的國際組織開始關(guān)注人工智能的全球治理問題。在增進(jìn)全球利益方面,國際組織有助于推動(dòng)人工智能的全球應(yīng)用和普及,提升各地產(chǎn)業(yè)發(fā)展和社會(huì)服務(wù)水平,惠及發(fā)展中國家和地區(qū)。在管理共同風(fēng)險(xiǎn)方面,人工智能具有不受制于國界的風(fēng)險(xiǎn)跨境生成、擴(kuò)散特征,單純的國內(nèi)監(jiān)管無法有效管控風(fēng)險(xiǎn),因此,在國際組織推動(dòng)下,全球14大模型治理藍(lán)皮書—從規(guī)則走向?qū)嵺`(2023年)協(xié)同制定標(biāo)準(zhǔn)規(guī)范、支持和激勵(lì)最佳國際實(shí)踐,成為人工智能治理的應(yīng)有之義。根據(jù)歐洲委員會(huì)正在推進(jìn)的《關(guān)于人工智能規(guī)制框架的建議》,從2020年起國際組織已經(jīng)超過國家成為主要的人工智能舉措的來源;從2015年到2023年,國家政府層面共發(fā)布了172項(xiàng)舉措,而國際組織5同期實(shí)施了214項(xiàng)舉措,總體數(shù)量也超過各國政府。(6見1)國際組織在引導(dǎo)形成國際共識(shí)、建立國際通行和互操作的治理規(guī)則、確保新一輪人工智能發(fā)展造福全人類等方面具有重要作用和獨(dú)特優(yōu)勢。來源:歐洲委員會(huì)圖12010-2023年間政府和國際組織發(fā)布的人工智能舉措數(shù)量對(duì)比2.國家政府加緊完善人工智能監(jiān)管架構(gòu)國家政府在人工智能治理中發(fā)揮著領(lǐng)導(dǎo)性作用,從國家層面統(tǒng)領(lǐng)大模型研發(fā)、設(shè)立專業(yè)監(jiān)管機(jī)構(gòu)、以及政策與法律規(guī)則的制定等。國參見統(tǒng)計(jì)數(shù)據(jù)中的“國際組織”包括歐洲委員會(huì)(CoE)與歐盟(EU)、經(jīng)合組織(OECD)和聯(lián)合國教科文組織(UNESCO)、G7、G20等。參見CouncilofEurope,AIInitiatives,/en/web/artificial-intelligence/national-initiatives,visitedon29August,202315大模型治理藍(lán)皮書—從規(guī)則走向?qū)嵺`(2023年)家政府作為肩負(fù)公共事務(wù)管理職責(zé)的公權(quán)力機(jī)關(guān),是公共利益和廣大民意的代言人,也是國家安全和社會(huì)穩(wěn)定的捍衛(wèi)者。為更好應(yīng)對(duì)大模型對(duì)傳統(tǒng)監(jiān)管架構(gòu)和機(jī)制挑戰(zhàn),部分國家從不同維度加緊推進(jìn)監(jiān)管組織機(jī)構(gòu)調(diào)整。一是部分國家和地區(qū)“另起爐灶”,探索建立專門的人工智能監(jiān)管機(jī)構(gòu)。歐盟將根據(jù)《人工智能法案》設(shè)立歐洲人工智能辦公室,負(fù)責(zé)監(jiān)督并確保法律的有效實(shí)施,協(xié)調(diào)聯(lián)合調(diào)查等。歐洲人工智能辦公室將下設(shè)管理委員會(huì)(由各成員國代表組成的)、秘書處、咨詢論壇(包括企業(yè)、民間社會(huì)、學(xué)術(shù)界等利益關(guān)聯(lián)方)三個(gè)部分。7西班牙率先成立歐洲首個(gè)人工智能監(jiān)管機(jī)構(gòu)——西班牙人工智能監(jiān)管局(AESIA)。該機(jī)構(gòu)將負(fù)責(zé)監(jiān)管算法應(yīng)用、數(shù)據(jù)使用以及確保AI系統(tǒng)遵守道德規(guī)范,其首要任務(wù)是執(zhí)行歐盟《人工智能法案》。二是現(xiàn)有監(jiān)管部門下設(shè)人工智能工作組,規(guī)制本部門管轄范圍內(nèi)大模型帶來的風(fēng)險(xiǎn)。美國國土安全部成立首個(gè)人工智能特別工作組,旨在保護(hù)國家免受人工智能技術(shù)尖端發(fā)展造成的安全威脅。美商務(wù)部宣布,國家標(biāo)準(zhǔn)與技術(shù)研究院(NIST)將成立新的人工智能公共工作組,集合私營和公共部門的專家力量,重點(diǎn)關(guān)注大模型相關(guān)風(fēng)險(xiǎn)挑戰(zhàn)。8韓國文化體育觀光部成立版權(quán)制度改進(jìn)工作組、數(shù)字內(nèi)容人工智能工作組、產(chǎn)業(yè)應(yīng)用工作組,將致力于開發(fā)韓文語料庫、審查版權(quán)侵權(quán)行為、開發(fā)試點(diǎn)項(xiàng)目等。三是在中央層面加強(qiáng)各行業(yè)部門之間的監(jiān)管協(xié)同。大模型技術(shù)可被普遍調(diào)用于各類行業(yè)場景,對(duì)政參見歐盟《人工智能法案》第六編第一章要求參見NIST制定指導(dǎo)意見,指導(dǎo)在NIST發(fā)布的AI風(fēng)險(xiǎn)管理框架內(nèi)開展研發(fā)等短期目標(biāo),中期來看工作組將致力于開展大模型測試評(píng)估,長期來看,將探索有效利用大模型解決環(huán)境、健康等社會(huì)問題的可能性。16大模型治理藍(lán)皮書—從規(guī)則走向?qū)嵺`(2023年)府部門的監(jiān)管協(xié)調(diào)能力提出更高要求。英國《支持創(chuàng)新的人工智能監(jiān)管方案》白皮書指出,由于通用大模型供應(yīng)鏈的廣泛性,難以將其納入任一監(jiān)管機(jī)構(gòu)的職權(quán)范圍,應(yīng)加強(qiáng)中央層面的監(jiān)管協(xié)調(diào)。英國將重點(diǎn)依靠現(xiàn)有的金融行為監(jiān)管局、信息專員辦公室、競爭與市場管理局、平等與人權(quán)委員會(huì)、藥品和保健產(chǎn)品監(jiān)管機(jī)構(gòu)展開監(jiān)管。3.企業(yè)站在人工智能治理的最前線最前沿企業(yè)在推動(dòng)人工智能治理規(guī)則和標(biāo)準(zhǔn)落地上發(fā)揮著決定性作用,是踐行治理規(guī)則和行業(yè)標(biāo)準(zhǔn)的中堅(jiān)力量。當(dāng)下人工智能領(lǐng)域內(nèi)產(chǎn)業(yè)界呈現(xiàn)出領(lǐng)先于學(xué)術(shù)界的發(fā)展態(tài)勢。2022年,由產(chǎn)業(yè)界開發(fā)的機(jī)器學(xué)習(xí)模型數(shù)量高達(dá)32個(gè),而學(xué)術(shù)界則只研發(fā)了3個(gè)。(見圖2)一是建立人工智能行業(yè)治理共同體。微軟、谷歌、OpenAI等成立前沿模型論壇,致力于推進(jìn)人工智能安全研究,確定部署前沿人工智能模型的最佳實(shí)踐,并促進(jìn)政企之間的信息共享。9韓國汽車、造船、機(jī)器人等十大主要行業(yè)領(lǐng)軍企業(yè)則啟動(dòng)建立了包括政府部門、公共機(jī)構(gòu)及400多家國內(nèi)企業(yè)的跨行業(yè)人工智能聯(lián)盟,該聯(lián)盟將設(shè)立行業(yè)數(shù)據(jù)、法律法規(guī)兩個(gè)政策小組以推進(jìn)人工智能治理。10二是企業(yè)內(nèi)部增設(shè)人工智能治理相關(guān)組織架構(gòu)。國內(nèi)外多家企業(yè)均設(shè)置了人工智能治理專門工作組。例如,微軟設(shè)置了三個(gè)機(jī)構(gòu)負(fù)責(zé)人工智能治理事務(wù),分別是AI辦公室、AI戰(zhàn)略管理團(tuán)隊(duì)以及人工智能、倫理與工程研究委員會(huì)。IBM為踐行人工智能倫理治理成立了AI倫理委員會(huì),參見/2023/07/26/google-openai-microsoft-anthropic-join-forces-promote-safe-ai-development/參見/view.php?ud=2023072500058417大模型治理藍(lán)皮書—從規(guī)則走向?qū)嵺`(2023年)以支持公司執(zhí)行人工智能倫理原則。商湯科技則成立AI倫理與治理委員會(huì),統(tǒng)籌推進(jìn)人工智能倫理治理工作體系建設(shè)。三是企業(yè)自身推動(dòng)完善人工智能治理機(jī)制。一方面,企業(yè)提出治理原則和指南等構(gòu)建人工智能治理生態(tài)系統(tǒng)。2023年5月,微軟發(fā)布《人工智能治理:未來藍(lán)圖》,提出治理人工智能的五大建議,例如應(yīng)建立并實(shí)施政府主導(dǎo)的人工智能安全框架,為控制關(guān)鍵基礎(chǔ)設(shè)施的人工智能系統(tǒng)部署安全“剎車”。另一方面,企業(yè)不斷創(chuàng)新治理工具來落實(shí)AI治理工作。在2023年RSA大會(huì)上,谷歌推出大模型網(wǎng)絡(luò)安全套件云安全AIWorkbench,將大模型引入網(wǎng)絡(luò)安全領(lǐng)域。來源:斯坦福HAI圖22002-2022重要機(jī)器學(xué)習(xí)系統(tǒng)數(shù)量(按行業(yè)劃分)(三)治理機(jī)制:軟硬兼施推進(jìn)大模型治理圍繞可信可控、以人為本、公平公正等人工智能治理價(jià)值目標(biāo),全球各國注重“剛?cè)岵?jì)、軟硬兼施”,從柔性倫理規(guī)范和硬性法律法規(guī)等維度發(fā)布具體的人工智能規(guī)則規(guī)范。根據(jù)世界經(jīng)合組織18大模型治理藍(lán)皮書—從規(guī)則走向?qū)嵺`(2023年)(OECD)人工智能政策觀察站最新統(tǒng)計(jì),已有69個(gè)國家和地區(qū)發(fā)布800多項(xiàng)人工智能政策。111.以軟法為引領(lǐng)的社會(huì)規(guī)范體系全球在人工智能治理中率先推進(jìn)“軟法”創(chuàng)制,“軟法”與促進(jìn)創(chuàng)新發(fā)展的治理需求有著天然的契合性。一般而言,倫理、行業(yè)標(biāo)準(zhǔn)等“軟法”的制定方式和周期更富彈性,參與主體具有高程度的協(xié)商性,內(nèi)容更細(xì)致更具針對(duì)性,有助于實(shí)現(xiàn)人工智能治理的敏捷化、多元化和場景化。近年來,主要國家和國際組織紛紛發(fā)布AI倫理原則和規(guī)范文件,例如G20《人工智能原則》、國際電氣和電子工程師協(xié)會(huì)(IEEE)《人工智能設(shè)計(jì)倫理準(zhǔn)則》、歐盟《可信人工智能倫理指南》等。我國在《科學(xué)技術(shù)進(jìn)步法》《關(guān)于加強(qiáng)科技倫理治理的意見》等頂層設(shè)計(jì)下,積極推進(jìn)制定人工智能倫理治理規(guī)范,落實(shí)科技倫理審查、監(jiān)測預(yù)警、檢測評(píng)估等要求,提升公共服務(wù)水平,推動(dòng)科技倫理治理技術(shù)化、工程化、標(biāo)準(zhǔn)化落地。伴隨大模型的應(yīng)用,軟法治理體現(xiàn)出以下趨勢特點(diǎn):一是受地域文化、發(fā)展水平等因素影響,各國倫理治理重點(diǎn)存在分歧。西方國家更關(guān)注算法偏見歧視問題,保障少數(shù)族裔免受大模型應(yīng)用帶來的歧視風(fēng)險(xiǎn)。發(fā)展中國家更為重視透明度和可解釋性,保障新一輪人工智能浪潮下的國家數(shù)字主權(quán)。二是推進(jìn)出臺(tái)可評(píng)估、可驗(yàn)證的標(biāo)準(zhǔn)。為同步落實(shí)《人工智能法案》要求,歐盟委員會(huì)下發(fā)人工智能標(biāo)準(zhǔn)需求清單,歐盟立法委員直接參與標(biāo)準(zhǔn)工作,保障立法到標(biāo)準(zhǔn)的落地。參見https://oecd.ai/en/dashboards/overview19大模型治理藍(lán)皮書—從規(guī)則走向?qū)嵺`(2023年)愛爾蘭政府推出《人工智能標(biāo)準(zhǔn)和保證路線圖》,協(xié)助愛爾蘭企業(yè)以合乎道德的方式使用人工智能。三是提升人工智能的社會(huì)化服務(wù)水平。國際標(biāo)準(zhǔn)組織IEEE面向行業(yè)推出了人工智能治理認(rèn)證制度。英國則發(fā)布《建立有效人工智能認(rèn)證生態(tài)系統(tǒng)的路線圖》,建立包括影響評(píng)估、偏見審計(jì)、認(rèn)證、性能測試等中立第三方服務(wù),力圖培育世界領(lǐng)先的人工智能認(rèn)證行業(yè)。四是出臺(tái)行為守則、指南文件等作為過渡階段的適用規(guī)則。在出臺(tái)正式的法律法規(guī)之前,部分國家率先發(fā)布行為守則等,為企業(yè)或政府利用大模型提供指引。例如,加拿大政府發(fā)布《生成式人工智能行為守則》,要求在《加拿大人工智能和數(shù)據(jù)法》生效之前,由加拿大公司自愿執(zhí)行。12美國波士頓發(fā)布全球首份《政府應(yīng)用生成式人工智能臨時(shí)指南》,指南適用于除波士頓公立學(xué)校外的所有城市機(jī)構(gòu)和部門,列明了政府部門應(yīng)用大模型的部分示例用例及注意事項(xiàng),例如不要在提示詞中包含機(jī)密信息等。2.以硬法為底線的風(fēng)險(xiǎn)防控體系面對(duì)大模型風(fēng)險(xiǎn)調(diào)整,建立完善“剛性”的硬法約束,通過構(gòu)建風(fēng)險(xiǎn)防控體系,提前布局、樹立起防火墻,把握大模型發(fā)展的底線以規(guī)避風(fēng)險(xiǎn)的發(fā)生。在新一輪人工智能浪潮中,以歐盟《人工智能法案》、我國《生成式人工智能服務(wù)管理暫行辦法》為代表的法律法規(guī)均受到各國高度關(guān)注。具體來看,體現(xiàn)如下趨勢特點(diǎn):一是總體來看人工智能立法步伐加快,但仍有部分國家采取保守觀望態(tài)度。斯坦福報(bào)告顯示,大模型的廣泛應(yīng)用成為推動(dòng)人工智能立參見/s/xCfDeoWepskSVierIrUA4w20大模型治理藍(lán)皮書—從規(guī)則走向?qū)嵺`(2023年)法的關(guān)鍵節(jié)點(diǎn)。2016至2022年間全球AI法律的數(shù)量增加了36項(xiàng),立法程序中提到人工智能的次數(shù)增長近6.5倍(見圖3、圖4)。美國參議院舒默等召開數(shù)次聽證會(huì),提出《兩黨人工智能立法框架》,以加快立法進(jìn)程。新加坡、印度則表示暫不監(jiān)管人工智能,印度信息技術(shù)部部長阿什溫尼·瓦什納在2023年4月表示,政府目前并未考慮出臺(tái)任何法律來規(guī)范人工智能在印度的發(fā)展。二是基于風(fēng)險(xiǎn)的分級(jí)分類方式仍然是大模型治理的重要訴求。在歐盟基于風(fēng)險(xiǎn)的治理理念影響下,分級(jí)分類成為平衡創(chuàng)新與發(fā)展的重要方式。歐盟-美國貿(mào)易和技術(shù)委員會(huì)發(fā)布了一份聯(lián)合聲明,重申“基于風(fēng)險(xiǎn)的(人工智能)方法,以推進(jìn)值得信賴和負(fù)責(zé)任的人工智能技術(shù)”。日本提出風(fēng)險(xiǎn)鏈模型(RiskChainModel),根據(jù)不同行業(yè)場景提出不同風(fēng)險(xiǎn)分級(jí)。德國電力電子與信息技術(shù)協(xié)會(huì)提出VCIO模型,指導(dǎo)使用者對(duì)應(yīng)用場景風(fēng)險(xiǎn)等級(jí)作出判斷。三是后發(fā)國家立法注重與已有法律框架的互操作性?!都幽么笕斯ぶ悄芎蛿?shù)據(jù)法》立法文件指出,該法案在關(guān)鍵定義和概念、采取以風(fēng)險(xiǎn)為基礎(chǔ)的監(jiān)管路徑等方面,均注重與人工智能領(lǐng)域的國際規(guī)范相銜接,包括歐盟《人工智能法案》、經(jīng)濟(jì)合作與發(fā)展組織《人工智能原則》和美國NIST《人工智能風(fēng)險(xiǎn)管理框架》等。四是在傳統(tǒng)法律框架下探索有效、靈活的執(zhí)法手段。例如美國注重利用傳統(tǒng)立法,例如反歧視法、消費(fèi)者權(quán)益保護(hù)法、競爭法等現(xiàn)有法規(guī),來打擊詐騙、虛假宣傳、欺騙性廣告、不公平競爭等行為,并采取相應(yīng)處罰措施,甚至要求公司刪除根據(jù)不正當(dāng)數(shù)據(jù)訓(xùn)練出的算法。21大模型治理藍(lán)皮書—從規(guī)則走向?qū)嵺`(2023年)來源13:中國信息通信研究院根據(jù)斯坦福HAI報(bào)告數(shù)據(jù)整理圖32016-22年81個(gè)選定國家立法程序中提及人工智能的次數(shù)來源:中國信息通信研究院根據(jù)斯坦福HAI報(bào)告數(shù)據(jù)整理圖42016-22年127個(gè)選定國家人工智能相關(guān)立法數(shù)量三、聚焦大模型治理核心議題規(guī)則數(shù)據(jù)來源:斯坦福HAI《2023人工智能指數(shù)報(bào)告》22大模型治理藍(lán)皮書—從規(guī)則走向?qū)嵺`(2023年)如何構(gòu)建高質(zhì)量數(shù)據(jù)集,如何更新知識(shí)產(chǎn)權(quán)制度以激勵(lì)創(chuàng)新,如何實(shí)現(xiàn)價(jià)值對(duì)齊等問題,是大模型帶來的新興問題挑戰(zhàn)。基于此,本章設(shè)定四大議題予以回應(yīng)。(一)數(shù)據(jù)治理規(guī)則1.構(gòu)建高質(zhì)量數(shù)據(jù)集高質(zhì)量訓(xùn)練數(shù)據(jù)是大模型發(fā)展的基礎(chǔ)。數(shù)據(jù)作為新型生產(chǎn)要素,是人工智能技術(shù)創(chuàng)新和產(chǎn)業(yè)應(yīng)用的基礎(chǔ)。在大模型時(shí)代,數(shù)據(jù)質(zhì)量的重要性大幅提升。當(dāng)前,以模型為中心的傳統(tǒng)開發(fā)模式逐漸式微,巨量優(yōu)質(zhì)數(shù)據(jù)堆疊對(duì)模型表現(xiàn)的提升效果遠(yuǎn)優(yōu)于微小的算法改動(dòng),因此數(shù)據(jù)成為大模型開發(fā)的核心要素。以GPT為例,GPT-1只使用了4629MB文本數(shù)據(jù),GPT-2使用了40GB從Reddit爬取并篩選的文本,而GPT-3用了至少45TB的純文本,GPT-4的數(shù)據(jù)需求量更隨著模型參數(shù)的躍升而顯著增加。我國高質(zhì)量中文數(shù)據(jù)集尤為匱乏,當(dāng)前用于大模型訓(xùn)練的英文文本較中文文本更為規(guī)范、豐富,針對(duì)中文文本的標(biāo)注規(guī)范、質(zhì)量把控、成果激勵(lì)等均有不足。對(duì)于數(shù)據(jù)質(zhì)量差而帶來的負(fù)面影響,“1-10-100”數(shù)據(jù)法則指出,如果最初用于驗(yàn)證數(shù)據(jù)的成本是1美元,則糾正錯(cuò)誤數(shù)據(jù)則需10美元,可能導(dǎo)致的業(yè)務(wù)成本增加將達(dá)100美元。在大模型開發(fā)中,這種負(fù)面影響將因模型改進(jìn)對(duì)數(shù)據(jù)依賴性增強(qiáng)而呈指數(shù)放大,除影響企業(yè)成本、收入外,還將增加數(shù)據(jù)生態(tài)系統(tǒng)的復(fù)雜性,最終可能導(dǎo)致模型訓(xùn)練失敗。數(shù)據(jù)流通共享是建立高質(zhì)量數(shù)據(jù)集的前提。高質(zhì)量數(shù)據(jù)集需要經(jīng)歷數(shù)據(jù)資源化、數(shù)據(jù)共享、交易流通與分析應(yīng)用等數(shù)據(jù)價(jià)值化過程;23大模型治理藍(lán)皮書—從規(guī)則走向?qū)嵺`(2023年)尤其是其中的流通共享環(huán)節(jié),有利于充分發(fā)揮數(shù)據(jù)可無損地被重復(fù)利用的潛在價(jià)值。14各主要經(jīng)濟(jì)體制定促進(jìn)數(shù)據(jù)流通共享的框架法規(guī)。2023年3月,美白宮OSTP正式發(fā)布《國家戰(zhàn)略:推進(jìn)隱私保護(hù)的數(shù)據(jù)共享與分析》15,旨在通過技術(shù)手段推動(dòng)公共和私營部門數(shù)據(jù)共享,實(shí)現(xiàn)“負(fù)責(zé)任地利用隱私保護(hù)的數(shù)據(jù)共享與分析來造福個(gè)人和社會(huì)”的愿景。16歐盟《人工智能法案》提出,歐盟委員會(huì)建立的歐洲共同數(shù)據(jù)空間以及促進(jìn)企業(yè)之間和與政府之間的公共數(shù)據(jù)共享,將有助于為人工智能系統(tǒng)的訓(xùn)練、驗(yàn)證和測試提供可信的、可問責(zé)的和非歧視性的高質(zhì)量數(shù)據(jù)訪問。為充分利用歐盟本土數(shù)據(jù),2022年3月,美國積極推動(dòng)與歐盟達(dá)成“歐盟-美國數(shù)據(jù)隱私框架(DPA)”,該框架于2023年7月被歐盟委員會(huì)批準(zhǔn)通過,使美國公司可以在新的監(jiān)管要求下,在美國和歐盟之間自由傳輸個(gè)人數(shù)據(jù)。為促進(jìn)商業(yè)數(shù)據(jù)流通共享,中國在《反不正當(dāng)競爭法(修訂草案征求意見稿)》第十八條提出“獲取、使用或者披露與公眾可以無償利用的信息相同的數(shù)據(jù)”,不屬于其所稱對(duì)商業(yè)數(shù)據(jù)的不正當(dāng)獲取或使用。但目前數(shù)據(jù)的流通共享仍存在一些阻礙。數(shù)據(jù)權(quán)屬的界定問題、權(quán)責(zé)不清問題、平臺(tái)經(jīng)濟(jì)生態(tài)封閉問題等成為降低數(shù)據(jù)要素市場供需匹配效率、阻礙數(shù)據(jù)流通共享的重要原因。在我國,數(shù)據(jù)要素入場交易仍存在多重壁壘,全國各地雖已建設(shè)或建成諸多數(shù)據(jù)交易平臺(tái),但實(shí)際交易流量與活躍參見/s/S8VmeOHh7CB1yIOjapwyqw.參見/s/_B8mE5swyAxDR2Lh1cVnFQ.參見/articles/crs-congress-should-consider-data-privacy-in-generative-ai-regulation/.24大模型治理藍(lán)皮書—從規(guī)則走向?qū)嵺`(2023年)度偏低;數(shù)據(jù)市場交易主體及模式也較為單一,數(shù)據(jù)資源挖掘能力和供需關(guān)系匹配能力較弱。17數(shù)據(jù)標(biāo)注是提升數(shù)據(jù)集質(zhì)量的重要環(huán)節(jié)。一是數(shù)據(jù)標(biāo)注是大模型開發(fā)訓(xùn)練的關(guān)鍵環(huán)節(jié)。初始數(shù)據(jù)通常是雜亂無章、不具有直接使用價(jià)值的,因此需要對(duì)數(shù)據(jù)進(jìn)行不同形式的標(biāo)注,方可滿足模型訓(xùn)練的質(zhì)量要求。作為大模型開發(fā)與訓(xùn)練不可或缺的上游環(huán)節(jié),數(shù)據(jù)標(biāo)注的工作高效性、標(biāo)準(zhǔn)一致性與結(jié)果準(zhǔn)確性,將直接影響有效數(shù)據(jù)集的生產(chǎn)速度、適用范圍與質(zhì)量水平。二是當(dāng)前數(shù)據(jù)加工產(chǎn)業(yè)高速發(fā)展,大模型推動(dòng)數(shù)據(jù)標(biāo)注在產(chǎn)業(yè)應(yīng)用模式上迅速革新。當(dāng)前,隨著數(shù)據(jù)要素市場化配置進(jìn)程加速、生產(chǎn)力度加大,數(shù)據(jù)標(biāo)注產(chǎn)業(yè)迎來快速發(fā)展階段,2021年我國數(shù)據(jù)標(biāo)注行業(yè)市場規(guī)模已達(dá)到43.3億元。18數(shù)據(jù)標(biāo)注在產(chǎn)業(yè)應(yīng)用上正經(jīng)歷著從外包手動(dòng)標(biāo)注到一體化數(shù)據(jù)處理的模式變革。過去,多數(shù)公司委托外包公司或眾包平臺(tái),對(duì)數(shù)據(jù)集進(jìn)行手動(dòng)標(biāo)注,以提升數(shù)據(jù)集質(zhì)量;后來,隨著大模型對(duì)數(shù)據(jù)需求的提升,單靠人力已無法滿足數(shù)據(jù)供給的效率要求,一體化的數(shù)據(jù)處理平臺(tái)、算法工具鏈開始發(fā)展起來,并在行業(yè)中得到了廣泛的應(yīng)用。三是數(shù)據(jù)標(biāo)注規(guī)范逐步完善?!渡墒饺斯ぶ悄芊?wù)管理暫行辦法》第八條要求,在生成式人工智能技術(shù)研發(fā)過程中進(jìn)行數(shù)據(jù)標(biāo)注的,提供者應(yīng)當(dāng)制定符合本辦法要求的清晰、具體、可操作的標(biāo)注規(guī)則;開展數(shù)據(jù)標(biāo)注質(zhì)量評(píng)估,抽樣核驗(yàn)標(biāo)注內(nèi)容的準(zhǔn)確性;對(duì)標(biāo)注人員進(jìn)行必要培訓(xùn),提升遵法守法意識(shí),監(jiān)督指導(dǎo)標(biāo)注人員規(guī)范開展標(biāo)注工作。此外,我國出臺(tái)參見陳蕾、薛欽源:《著力構(gòu)建高質(zhì)量數(shù)據(jù)要素市場》,載《中國社會(huì)科學(xué)報(bào)》2023年第3期。參見/s/JGc-iPFDESgTz9riM7MTug.25大模型治理藍(lán)皮書—從規(guī)則走向?qū)嵺`(2023年)《人工智能面向機(jī)器學(xué)習(xí)的數(shù)據(jù)標(biāo)注規(guī)程》《大同市促進(jìn)數(shù)據(jù)呼叫(標(biāo)注)產(chǎn)業(yè)發(fā)展的若干政策》等相關(guān)政策標(biāo)準(zhǔn),細(xì)化數(shù)據(jù)標(biāo)注規(guī)范。合成數(shù)據(jù)成為未來大模型訓(xùn)練重要數(shù)據(jù)來源。合成數(shù)據(jù)是通過計(jì)算機(jī)模擬技術(shù)或者算法創(chuàng)建、生成的,在數(shù)學(xué)、物理或者統(tǒng)計(jì)學(xué)上可以反映真實(shí)世界數(shù)據(jù)屬性的自標(biāo)注信息。MIT科技評(píng)論將AI合成數(shù)據(jù)列為2022年10大突破性技術(shù)之一。第一,合成數(shù)據(jù)誕生于高質(zhì)量數(shù)據(jù)集匱乏的大背景之下。當(dāng)前社會(huì)中充斥著大量如聊天記錄等連續(xù)性弱、邏輯性差、訓(xùn)練作用有限的低質(zhì)量數(shù)據(jù),造成了有效數(shù)據(jù)的稀缺;GPT-3的開發(fā)文檔揭露,其對(duì)純文本數(shù)據(jù)進(jìn)行質(zhì)量過濾后僅可獲1.27%有效數(shù)據(jù)。此外,在隱私保護(hù)、知識(shí)產(chǎn)權(quán)、信息壟斷等因素作用下,特殊行業(yè)的高質(zhì)量數(shù)據(jù)難以獲取,即使獲取也時(shí)常無法進(jìn)入訓(xùn)練集使用。專家警告,ChatGPT等人工智能驅(qū)動(dòng)的機(jī)器人可能很快就會(huì)“耗盡宇宙中的文本”;更有研究在探討了數(shù)據(jù)短缺的可能性后預(yù)測,按照目前的模型增長速度,到2026年左右,高質(zhì)量NLP數(shù)據(jù)將會(huì)不足以支持訓(xùn)練。19第二,合成數(shù)據(jù)在生產(chǎn)效率提升、獲取成本降低、數(shù)據(jù)質(zhì)量提升、隱私/安全問題規(guī)避等方面具有顯著優(yōu)勢。在效率上,合成數(shù)據(jù)可以自動(dòng)產(chǎn)生,緩解真實(shí)數(shù)據(jù)集增速有限的問題。在成本上,合成數(shù)據(jù)既能在采集方面節(jié)省數(shù)據(jù)采集團(tuán)隊(duì)、數(shù)據(jù)回傳系統(tǒng)和數(shù)據(jù)篩選系統(tǒng),也因其自標(biāo)注的特征在圖片標(biāo)注上僅需花費(fèi)人工標(biāo)注約1%的成本。在質(zhì)量上,合成數(shù)據(jù)為定向生產(chǎn)數(shù)據(jù)、定制大模型特征提供了可能,有利于保證數(shù)據(jù)的均衡性,解決真實(shí)數(shù)據(jù)長尾特參見PabloVillalobos,JaimeSevilla,LennartHeim,TamayBesiroglu,MariusHobbhahn,AnsonHo.Willwerunoutofdata?AnanalysisofthelimitsofscalingdatasetsinMachineLearning.arXive-prints.26大模型治理藍(lán)皮書—從規(guī)則走向?qū)嵺`(2023年)征導(dǎo)致的無法針對(duì)邊緣案例進(jìn)行大模型訓(xùn)練的問題,在AI訓(xùn)練中發(fā)揮較真實(shí)數(shù)據(jù)同樣甚至更好的效果。20在隱私與安全上,合成數(shù)據(jù)避免了基于真實(shí)數(shù)據(jù)常見的用戶隱私問題與國家安全問題,對(duì)于金融、醫(yī)療等數(shù)據(jù)開放度低、壟斷性強(qiáng)的領(lǐng)域具有重要意義。21第三,當(dāng)前,合成數(shù)據(jù)在全球范圍內(nèi)的應(yīng)用場景日益多元,產(chǎn)業(yè)細(xì)分化程度逐漸提升,未來的人工智能或?qū)⒁蕾嚭铣蓴?shù)據(jù)進(jìn)行訓(xùn)練。合成數(shù)據(jù)早期主要應(yīng)用于計(jì)算機(jī)視覺領(lǐng)域,借此解決自動(dòng)駕駛汽車、機(jī)器人、安防、制造業(yè)等行業(yè)中真實(shí)數(shù)據(jù)難以獲取的問題。例如,騰訊開發(fā)的自動(dòng)駕駛仿真系統(tǒng)TADSim可以自動(dòng)生成無需標(biāo)注的各種交通場景數(shù)據(jù),助力自動(dòng)駕駛系統(tǒng)開發(fā)。目前,合成數(shù)據(jù)正迅速向金融、醫(yī)療、零售、工業(yè)等諸多產(chǎn)業(yè)領(lǐng)域拓展應(yīng)用。微軟、OpenAI、Cohere等公司,紛紛轉(zhuǎn)向使用合成數(shù)據(jù)作為解決方案,以降低數(shù)據(jù)成本,推動(dòng)AI技術(shù)的發(fā)展。在此需求之下,針對(duì)各種應(yīng)用情景的合成數(shù)據(jù)創(chuàng)業(yè)公司應(yīng)運(yùn)而生,產(chǎn)業(yè)整體正在向更細(xì)分化、專業(yè)化的方向發(fā)展。Gartner預(yù)測,2024年用于訓(xùn)練AI的數(shù)據(jù)中有60%將是合成數(shù)據(jù),到2030年合成數(shù)據(jù)將徹底取代真實(shí)數(shù)據(jù),成為訓(xùn)練人工智能的主要數(shù)據(jù)來源。2.數(shù)據(jù)隱私保護(hù)各國探索在現(xiàn)有的個(gè)人信息保護(hù)框架下應(yīng)對(duì)大模型帶來的隱私風(fēng)險(xiǎn)。一是在人工智能立法中援引已有的個(gè)人信息保護(hù)法律規(guī)則。例如,歐盟《人工智能法案》第45條要求,在人工智能系統(tǒng)全生命周參見/2022/synthetic-data-ai-improvements-1103.參見曹建峰、陳楚儀:《AIGC浪潮下,合成數(shù)據(jù)關(guān)乎人工智能的未來》,載《新經(jīng)濟(jì)導(dǎo)刊》2022年第4期,第25-31頁。27大模型治理藍(lán)皮書—從規(guī)則走向?qū)嵺`(2023年)期中,應(yīng)當(dāng)保障個(gè)人數(shù)據(jù)權(quán)利,要求數(shù)據(jù)收集和處理符合《通用數(shù)據(jù)保護(hù)條例》的規(guī)定。我國《生成式人工智能服務(wù)管理暫行辦法》第七條規(guī)定,生成式人工智能服務(wù)提供者應(yīng)當(dāng)使用具有合法來源的數(shù)據(jù)依法開展預(yù)訓(xùn)練、優(yōu)化訓(xùn)練等訓(xùn)練數(shù)據(jù)處理活動(dòng),遵守《個(gè)人信息保護(hù)法》等法律。二是出臺(tái)解釋性或指引性規(guī)則保障數(shù)據(jù)隱私。法國數(shù)據(jù)保護(hù)監(jiān)管機(jī)構(gòu)CNIL發(fā)布《人工智能:國家信息與自由委員會(huì)(CNIL)行動(dòng)計(jì)劃》指出,未來幾個(gè)月將重點(diǎn)關(guān)注ChatGPT等大模型技術(shù),開發(fā)隱私友好型人工智能系統(tǒng)、開發(fā)審計(jì)和控制人工智能的手段、探索最佳實(shí)踐等。224月,英國信息專員辦公室(ICO)發(fā)布開發(fā)或使AIGC的指南文件,列明了ICO重點(diǎn)關(guān)注的八大領(lǐng)域,包括處理個(gè)人數(shù)據(jù)的合法依據(jù)、數(shù)據(jù)保護(hù)影響評(píng)估、限制不必要處理等內(nèi)容。新加坡個(gè)人數(shù)據(jù)保護(hù)委員會(huì)(PDPC)研究生成式人工智能對(duì)新加坡《個(gè)人數(shù)據(jù)保護(hù)法》的影響,發(fā)布《關(guān)于在人工智能推薦與決策系統(tǒng)中使用個(gè)人數(shù)據(jù)的建議指南草案》。23三是積極探索監(jiān)管沙盒等創(chuàng)新治理手段。挪威數(shù)據(jù)保護(hù)監(jiān)管機(jī)構(gòu)嘗試對(duì)處理個(gè)人信息的人工智能企業(yè)進(jìn)行沙盒測試,在安全可控的環(huán)境中測試人工智能處理個(gè)人信息的影響。24訓(xùn)練數(shù)據(jù)的合法性基礎(chǔ)是個(gè)人信息保護(hù)的焦點(diǎn)問題。訓(xùn)練數(shù)據(jù)的來源包括企業(yè)直接收集、網(wǎng)絡(luò)抓取、使用開源數(shù)據(jù)集和通過商業(yè)途徑參見《人工智能:國家信息與自由委員會(huì)(CNIL)的行動(dòng)計(jì)劃》,il.fr/en/artificial-intelligence-action-plan-cnil參見《關(guān)于在人工智能推薦與決策系統(tǒng)中使用個(gè)人數(shù)據(jù)的建議指南草案》,.sg/-/media/Files/PDPC/PDF-Files/Legislation-and-Guidelines/Public-Consult-on-Proposed-AG-on-Use-of-PD-in-AI-Recommendation-and-Systems-2023-07-18-Draft-Advisory-Guidelines.pdf參見《挪威DPA關(guān)于在Ruter參與AI監(jiān)管沙盒的最終報(bào)告》,https://www.datatilsynet.no/en/regulations-and-tools/sandbox-for-artificial-intelligence/reports/ruter-exit-report-on-track-with-artificial-intelligence/going-forward/.28大模型治理藍(lán)皮書—從規(guī)則走向?qū)嵺`(2023年)獲取等途徑。企業(yè)直接收集數(shù)據(jù)應(yīng)取得使用數(shù)據(jù)的合法性基礎(chǔ)。當(dāng)超出原有目的,將有關(guān)個(gè)人信息用作模型訓(xùn)練時(shí),如何取得相應(yīng)的合法性基礎(chǔ)?對(duì)此,百度等開發(fā)大模型的廠商在其隱私協(xié)議中指出,在使用用戶的個(gè)人信息前,會(huì)對(duì)個(gè)人信息進(jìn)行匿名化或去標(biāo)識(shí)化處理,以達(dá)到無法識(shí)別具體個(gè)人的程度。25OECD在今年2月份發(fā)布的《推進(jìn)人工智能的可問責(zé)原則》的數(shù)字經(jīng)濟(jì)文件中強(qiáng)調(diào),無論是在用于訓(xùn)練的數(shù)據(jù)集中還是在終端用戶可以訪問的數(shù)據(jù)集中,應(yīng)當(dāng)進(jìn)行敏感數(shù)據(jù)和個(gè)人數(shù)據(jù)的識(shí)別。26如模型涉及提取人臉、聲紋等敏感個(gè)人信息用于人臉識(shí)別、對(duì)比、關(guān)聯(lián)與挖掘,在訓(xùn)練數(shù)據(jù)獲取前需通過產(chǎn)品端上單獨(dú)的彈窗、協(xié)議或其他單獨(dú)的授權(quán)頁面等“選擇加入”(opt-in)的方式獲得個(gè)人信息主體的單獨(dú)同意。通過商業(yè)途徑獲得授權(quán)的訓(xùn)練數(shù)據(jù),應(yīng)要求交易方提供語料合法性證明。美國加州《刪除法》(TheDeleteAct)提出應(yīng)允許個(gè)人要求數(shù)據(jù)經(jīng)紀(jì)商刪除其個(gè)人信息,減少公民個(gè)人信息在數(shù)據(jù)交易中泄露的可能。27從采買、外部采集等外部渠道獲取的敏感個(gè)人信息用于模型訓(xùn)練的目的,需要和個(gè)人信息權(quán)利主體單獨(dú)簽署《個(gè)人信息授權(quán)書》等相關(guān)授權(quán)文件,文件中需明確寫明收集的敏感個(gè)人信息的類型以及使用的場景與目的,不得超出授權(quán)的范圍對(duì)敏感個(gè)人信息進(jìn)行使用。網(wǎng)絡(luò)抓取訓(xùn)練數(shù)據(jù)應(yīng)合法進(jìn)行。澳大利亞信息專員辦公室聯(lián)合其他11個(gè)國家的數(shù)據(jù)和隱私保護(hù)機(jī)構(gòu),發(fā)布《關(guān)于數(shù)據(jù)抓取和隱私保護(hù)的聯(lián)合聲明》,旨在說明社交媒體公參見《文心一言個(gè)人信息保護(hù)規(guī)則》,/talk/protectionrule/android.參見《推進(jìn)人工智能的可問責(zé)原則》,/docserver/2448f04b-en.pdf?expires=1699552106&id=id&accname=guest&checksum=F7E1FC3A212BF83F1BF2AB818C22EE3F.參見Trahan,Edwards,Cassidy,OssoffReintroduceBicameralBilltoReininDataBrokers,/news/documentsingle.aspx?DocumentID=2934.29大模型治理藍(lán)皮書—從規(guī)則走向?qū)嵺`(2023年)司和個(gè)人網(wǎng)站如何保護(hù)個(gè)人信息免受非法抓取,以滿足監(jiān)管需求。28開源數(shù)據(jù)集的使用應(yīng)當(dāng)遵守開源協(xié)議或者取得相應(yīng)授權(quán)文件。202310月,全國信安標(biāo)委發(fā)布《生成式人工智能服務(wù)安全基本要求》(征求意見稿)第5條規(guī)定,生成式人工智能服務(wù)的提供者應(yīng)當(dāng)對(duì)生成式人工智能的語料來源進(jìn)行評(píng)估,通過開源協(xié)議獲得的語料應(yīng)當(dāng)遵守開源協(xié)議或者相應(yīng)授權(quán)文件。使用包含個(gè)人信息的語料時(shí),獲得對(duì)應(yīng)個(gè)人信息主體的授權(quán)同意,或滿足其他合法使用該個(gè)人信息的條件。專欄1:金融領(lǐng)域考慮數(shù)據(jù)安全而謹(jǐn)慎應(yīng)用大模型服務(wù)根據(jù)彭博社在今年二月的報(bào)道,美國銀行、花旗集團(tuán)、德意志銀行、高盛集團(tuán)和富國銀行等多家金融機(jī)構(gòu)在不同程度上限制類似ChatGPT等大模型產(chǎn)品的應(yīng)用。富國銀行的發(fā)言人表示,其在評(píng)估ChatGPT等應(yīng)用的安全性之前,將繼續(xù)限制其在本機(jī)構(gòu)的應(yīng)用。2920233月20日,OpenAI開源代碼庫出現(xiàn)漏洞,導(dǎo)致1.2%ChatGPT付費(fèi)用戶的姓名、賬戶信息、聊天記錄等數(shù)據(jù)泄露,引發(fā)全球數(shù)據(jù)安全和隱私憂慮。由于金融業(yè)對(duì)身份信息、金融資產(chǎn)、交易記錄、信用歷史等數(shù)據(jù)流動(dòng)的合規(guī)要求較高,在數(shù)據(jù)安全和隱私保護(hù)方面面臨巨大挑戰(zhàn),金融機(jī)構(gòu)對(duì)于大模型在其業(yè)務(wù)中的應(yīng)用顯得更為謹(jǐn)慎。202210月,中國人民銀行發(fā)布并實(shí)施《金融領(lǐng)域科技倫理指引》,提出金融機(jī)構(gòu)應(yīng)當(dāng)嚴(yán)格采取防護(hù)措施,嚴(yán)防隱私泄露,保護(hù)數(shù)據(jù)主體權(quán)利不受侵害。參見《關(guān)于數(shù)據(jù)抓取和隱私保護(hù)的聯(lián)合聲明》,.au/newsroom/global-expectations-of-social-media-platforms-and-other-sites-to-safeguard-against-unlawful-data-scraping.參見/news/articles/2023-11-16/apple-plans-to-adopt-rcs-texting-standard-in-truce-with-android.30大模型治理藍(lán)皮書—從規(guī)則走向?qū)嵺`(2023年)透明度和可問責(zé)是個(gè)人信息保護(hù)的重要制度保障。透明度方面,今年7月,美國聯(lián)邦貿(mào)易委員會(huì)(FTC)對(duì)OpenAI啟動(dòng)新的民事調(diào)查質(zhì)詢(CivilInvestigativeDemand),在此次質(zhì)詢文本中,F(xiàn)TC主要圍繞大模型產(chǎn)品設(shè)計(jì)了49個(gè)問題,其中特別包括了原始訓(xùn)練數(shù)據(jù)和數(shù)據(jù)隱私保護(hù)政策,要求OpenAI披露相關(guān)信息,提供相關(guān)說明。美國參議院召開聽證會(huì)討論《人工智能兩黨立法框架》,框架要求AI開發(fā)和部署人員必須遵守與系統(tǒng)透明度相關(guān)的責(zé)任要求,包括披露AI系統(tǒng)的訓(xùn)練數(shù)據(jù)。30問責(zé)方面,OECD在今年2月份發(fā)布的《推進(jìn)人工智能的可問責(zé)原則》的數(shù)字經(jīng)濟(jì)文件中提到,在人工智能生命周期的不同階段采取不同技術(shù)相關(guān)和流程相關(guān)的方法來增加人工智能的透明度和可問責(zé)性。31英國政府于2023年3月發(fā)布的《人工智能監(jiān)管:支持創(chuàng)新的方法》中,將問責(zé)和管理原則列為其五項(xiàng)核心原則之一。同時(shí),該原則也是英國數(shù)據(jù)監(jiān)管機(jī)關(guān)在監(jiān)管人工智能使用和生成個(gè)人數(shù)據(jù)方面的重點(diǎn)關(guān)注。32以刪除權(quán)為代表的個(gè)人信息權(quán)益實(shí)現(xiàn)面臨實(shí)踐困境。美國國會(huì)研究處發(fā)布的《生成式人工智能與數(shù)據(jù)隱私:入門指南》指出,目前,大多數(shù)領(lǐng)先的聊天機(jī)器人和其他人工智能模型并不提供讓用戶刪除其個(gè)人信息的選項(xiàng)。國會(huì)可能會(huì)考慮要求公司為用戶提供退出數(shù)據(jù)收集的選項(xiàng)(Opt-out),或要求公司提供機(jī)制,讓用戶能夠從現(xiàn)有數(shù)據(jù)參見《人工智能兩黨立法框架》,/imo/media/doc/09072023bipartisanaiframework.pdf.參見《推進(jìn)人工智能的可問責(zé)原則》,/science-and-technology/advancing-accountability-in-ai_2448f04b-en.參見《人工智能監(jiān)管:支持創(chuàng)新的方法》,.uk/government/publications/ai-regulation-a-pro-innovation-approach.31大模型治理藍(lán)皮書—從規(guī)則走向?qū)嵺`(2023年)集中刪除他們的數(shù)據(jù),或者規(guī)定個(gè)人數(shù)據(jù)的最大保留期限。332023年10月26日,歐洲數(shù)據(jù)保護(hù)組織聯(lián)盟(CEDPO)發(fā)布《生成式人工智能:數(shù)據(jù)保護(hù)的影響》報(bào)告強(qiáng)調(diào),數(shù)據(jù)主體請(qǐng)求修改或者刪除原始訓(xùn)練數(shù)據(jù)集中的個(gè)人信息可能會(huì)影響模型的準(zhǔn)確性。不僅如此,要求刪除已嵌入模型中的訓(xùn)練數(shù)據(jù)往往會(huì)增加企業(yè)的時(shí)間與金錢成本。因此,其建議采用匿名技術(shù)和數(shù)據(jù)最小化的實(shí)踐在維護(hù)個(gè)人信息權(quán)利和保持人工智能生成模型的整體實(shí)用性之間取得平衡34。面對(duì)用戶刪除權(quán)的訴求,OpenAI在其隱私協(xié)議中表示將會(huì)根據(jù)用戶請(qǐng)求盡量“刪除”模型中用戶的個(gè)人信息。35用戶交互信息帶來的隱私問題受到關(guān)注。用戶有意或無意輸入的個(gè)人信息可能會(huì)被用來進(jìn)行訓(xùn)練,從而進(jìn)入模型的參數(shù)并泄露在其他用戶生成的內(nèi)容中。OpenAI等廠商在其大模型服務(wù)的協(xié)議中規(guī)定用戶與大模型產(chǎn)品交互的內(nèi)容會(huì)被用來進(jìn)行大模型的訓(xùn)練36,而在OpenAI根據(jù)意大利數(shù)據(jù)保護(hù)機(jī)構(gòu)修訂的隱私政策中,規(guī)定為所有的用戶提供了不保留交互記錄的選項(xiàng)。37(二)知識(shí)產(chǎn)權(quán)保護(hù)1.輸入端:訓(xùn)練數(shù)據(jù)版權(quán)治理規(guī)則探索為更好地釋放作品數(shù)據(jù)價(jià)值,世界主要經(jīng)濟(jì)體積極為人工智能訓(xùn)練提供版權(quán)制度保障。韓國、日本、以色列等國家持開放態(tài)度。2022年12月,以色列司法部發(fā)布意見書明確,受版權(quán)作品可用于機(jī)器學(xué)參見《生成式人工智能與數(shù)據(jù)隱私:入門指南》,/product/pdf/R/R47569.參見《生成式人工智能:數(shù)據(jù)保護(hù)的影響》,https://cedpo.eu/generative-ai-the-data-protection-implications/.參見OpenAI《隱私政策》第4條,/policies/privacy-policy.參見《OpenAI隱私政策》,/policies/privacy-policy.參見《ChatGPT:OpenAI重新在意大利開放平臺(tái),保證給歐洲的用戶和非用戶更多的透明度和更多的權(quán)利》,https://www.garanteprivacy.it/web/guest/home/docweb/-/docweb-display/docweb/9881490.32大模型治理藍(lán)皮書—從規(guī)則走向?qū)嵺`(2023年)習(xí)。2023年2月,韓國發(fā)布《新增長4.0推進(jìn)計(jì)劃》指出,為促進(jìn)人工智能服務(wù)創(chuàng)新發(fā)展,需推動(dòng)版權(quán)法修訂,允許在數(shù)據(jù)分析中使用版權(quán)作品。5月,日本政府人工智能戰(zhàn)略委員會(huì)發(fā)布草案規(guī)定,人工智能訓(xùn)練數(shù)據(jù)不受版權(quán)法限制,因此被稱為人工智能“訓(xùn)練天堂”。美國現(xiàn)有規(guī)定提供了一定的解釋空間。美國在2017年《人工智能未來法案》中表明了其對(duì)大模型開發(fā)和數(shù)據(jù)共享的支持立場38。司法領(lǐng)域中,2023年9月,作為ChatGPT發(fā)布以來首起關(guān)于大模型訓(xùn)練“合理使用”的案例,美國法院在ThomsonReutersEnterpriseCenterv.RossIntelligenceInc.一案指出,人工智能訓(xùn)練使用版權(quán)作品是否滿足作為合理使用關(guān)鍵判定因素的轉(zhuǎn)換性使用,主要取決于人工智能復(fù)制目的是為學(xué)習(xí)語言模式還是重復(fù)作品的創(chuàng)新性成果39。目前我國對(duì)此則持有保守態(tài)度。網(wǎng)信辦等七部門發(fā)布《生成式人工智能服務(wù)管理暫行辦法》規(guī)定,大模型服務(wù)提供者應(yīng)當(dāng)依法開展預(yù)訓(xùn)練、優(yōu)化訓(xùn)練等訓(xùn)練數(shù)據(jù)處理活動(dòng),使用具有合法來源的數(shù)據(jù)和基礎(chǔ)模型;不得侵害他人依法享有的知識(shí)產(chǎn)權(quán)?!吨鳈?quán)法》第24條中列舉的合理使用原則的具體情形,也無法將大規(guī)模機(jī)器學(xué)習(xí)行為涵蓋在內(nèi),在我國大模型訓(xùn)練過程未經(jīng)許可利用版權(quán)作品存在一定侵權(quán)風(fēng)險(xiǎn)?!吨鳈?quán)法》立法目的不僅在于賦予著作權(quán)人專有權(quán)以激勵(lì)作品的創(chuàng)作,促進(jìn)創(chuàng)新和文化繁榮;更在于平衡社會(huì)公共利益與相關(guān)主體的利益訴求,促進(jìn)知識(shí)公眾傳播并保障公眾獲取知識(shí)的權(quán)利。為作品參見《人工智能未來法案》第4節(jié)b.1.e.參見ThomsonReutersEnterpriseCenterGMBHandWestPublishingCorp.,v.RossIntelligenceInc.,MemorandumOpinion,Sep.25,2023,CaseNo.1:20-cv-613-SB.33大模型治理藍(lán)皮書—從規(guī)則走向?qū)嵺`(2023年)數(shù)據(jù)挖掘使用提供合理使用空間的立法例,主要存在以下考量:一是展現(xiàn)開放姿態(tài),吸引人工智能企業(yè)。為避免侵權(quán)賠償而需投入大量金錢以獲取授權(quán),生成人工智能系統(tǒng)開發(fā)運(yùn)營商可能將運(yùn)營基地轉(zhuǎn)移到允許使用版權(quán)作品進(jìn)行訓(xùn)練的國家。二是提高訓(xùn)練數(shù)據(jù)集質(zhì)量。出于對(duì)高昂許可費(fèi)用和潛在侵權(quán)風(fēng)險(xiǎn)的擔(dān)心,生成式人工智能系統(tǒng)的開發(fā)運(yùn)營商往往選擇公共領(lǐng)域的作品或者經(jīng)由協(xié)議獲得的有限作品進(jìn)行訓(xùn)練。規(guī)模和質(zhì)量有限的數(shù)據(jù)集會(huì)導(dǎo)致模型出現(xiàn)“算法偏見”“內(nèi)容毒性”等問題。三是提供良性競爭環(huán)境,避免行業(yè)壟斷。授權(quán)的高昂費(fèi)用導(dǎo)致進(jìn)一步擴(kuò)大生成人工智能系統(tǒng)開發(fā)運(yùn)營商之間的差距,最終導(dǎo)致“贏者通吃”不公平的競爭環(huán)境甚至行業(yè)壟斷。為抵消版權(quán)過度保護(hù)可能產(chǎn)生的壁壘效用,可以在兼顧社會(huì)公眾利益、科技創(chuàng)新發(fā)展和著作權(quán)保護(hù)的基礎(chǔ)上,構(gòu)建更加開放的合理使用制度。2.輸出端:人工智能生成物知識(shí)產(chǎn)權(quán)保護(hù)進(jìn)路展望生成式人工智能基于深度學(xué)習(xí)等技術(shù)實(shí)現(xiàn)了人類所理解的知識(shí)生產(chǎn)方式的顛覆,并在文化市場與工業(yè)應(yīng)用中展現(xiàn)了巨大商業(yè)價(jià)值。其獨(dú)立創(chuàng)作、多元主體參與的知識(shí)生產(chǎn)方式不僅給以人類為中心構(gòu)建的知識(shí)產(chǎn)權(quán)制度本身帶來了沖擊,而且也給司法實(shí)踐帶來了新問題。人工智能輸出端的治理不僅在于精準(zhǔn)賦權(quán)以避免公地悲劇,更在于市場主體之間的利益平衡以保障人工智能產(chǎn)業(yè)健康發(fā)展。生成式人工智能的發(fā)展超出各國知識(shí)產(chǎn)權(quán)制度立法預(yù)期,人工智能生成內(nèi)容可版權(quán)性與可專利性存在較大爭議。2023年9月,經(jīng)濟(jì)合作與發(fā)展組織(OECD)發(fā)布報(bào)告《七國集團(tuán)(G7)生成式人工智34大模型治理藍(lán)皮書—從規(guī)則走向?qū)嵺`(2023年)能廣島進(jìn)程:達(dá)成G7生成式人工智能共識(shí)》,報(bào)告指出:生成式人工智能對(duì)知識(shí)產(chǎn)權(quán)帶來了挑戰(zhàn)。國家層面正在調(diào)查完全或部分由生成式人工智能創(chuàng)建的內(nèi)容的知識(shí)產(chǎn)權(quán)法律地位問題。英國重視人工智能生成物的知識(shí)產(chǎn)權(quán)保護(hù)問題,并做出了積極的嘗試。英國《版權(quán)、外觀設(shè)計(jì)和專利法》明確提及計(jì)算機(jī)生成作品的文學(xué)、戲劇、音樂或藝術(shù)作品。美國當(dāng)前實(shí)踐并不認(rèn)可人工智能生成物知識(shí)產(chǎn)權(quán)客體屬性。美國聯(lián)邦巡回上訴法院認(rèn)為人工智能無法成為發(fā)明人,從而駁回人工智能生成技術(shù)方案的專利申請(qǐng)。美國版權(quán)局《版權(quán)登記指南》同樣指出,只有由人類創(chuàng)作的內(nèi)容才有資格成為作品,不會(huì)登記沒有人類作者的任何創(chuàng)造性投入或干預(yù)隨機(jī)或自動(dòng)運(yùn)行的內(nèi)容為作品。我國司法實(shí)踐對(duì)人工智能生成物可版權(quán)性存在不同見解。在“菲林訴百度案”中,二審法院認(rèn)為作品的作者范圍應(yīng)當(dāng)限于自然人,人工智能生成的作品不能構(gòu)成著作權(quán)法上的作品40。在“騰訊訴盈訊案”中,法院認(rèn)為相關(guān)人員個(gè)性化安排與選擇對(duì)案涉人工智能生成物具有決定作用,具有一定的獨(dú)創(chuàng)性,構(gòu)成文字作品41。面臨大模型所帶來的價(jià)值沖突,需作為“技術(shù)之子”的知識(shí)產(chǎn)權(quán)制度積極回應(yīng)。一是對(duì)人工智能生成物法律屬性予以明確。知識(shí)產(chǎn)權(quán)客體并未明確排除人工智能生成物,其在一定程度上滿足作品與發(fā)明構(gòu)成要件,但是也存在著主體適格、思想價(jià)值等質(zhì)疑。二是厘定權(quán)屬分配以保障利益公平。目前人工智能生成物的權(quán)屬分配尚不明晰,英國在《版權(quán)、外觀設(shè)計(jì)和專利法》中,將計(jì)算機(jī)生成作品的版權(quán)授予參見北京知識(shí)產(chǎn)權(quán)法院民事判決書,(2019)京73民終2030號(hào)。參見廣東省深圳市南山區(qū)人民法院民事判決書,(2019)粵0305民初14010號(hào)。35大模型治理藍(lán)皮書—從規(guī)則走向?qū)嵺`(2023年)“在作品創(chuàng)作過程中進(jìn)行了必要安排的人”,但司法實(shí)踐中對(duì)“必要安排的人”尚存爭議。OpenAI公司則在《共享和發(fā)布政策》中提出ChatGPT共同創(chuàng)作的內(nèi)容歸屬于用戶。三是對(duì)相關(guān)權(quán)利行使作出適當(dāng)限制。例如,人工智能作品相較于人類作品具備生產(chǎn)效率高、迭代迅速的優(yōu)勢,針對(duì)人工智能生成物的權(quán)利保護(hù)期限是否應(yīng)當(dāng)合理調(diào)整。(三)倫理問題治理超越人類控制是大模型的典型倫理風(fēng)險(xiǎn)。大模型潛在的失控風(fēng)險(xiǎn)性,很大程度來源于大模型的“智能涌現(xiàn)”能力,使大模型可能超越人類控制,生成具有各類倫理風(fēng)險(xiǎn)、不服從人類價(jià)值觀的內(nèi)容。價(jià)值對(duì)齊是人工智能倫理治理的重要解決方案。價(jià)值對(duì)齊即要求人工智能系統(tǒng)的能力和行為與人類的價(jià)值觀、真實(shí)意圖、利益以及倫理原則相一致,確保人類與人工智能協(xié)作過程中的安全與信任,是讓大模型更加安全、可靠和實(shí)用的核心議題。大模型價(jià)值對(duì)齊的實(shí)現(xiàn),需要多種對(duì)齊技術(shù)和監(jiān)管治理措施的結(jié)合。通過對(duì)訓(xùn)練數(shù)據(jù)的有效干預(yù),從根源層面消除數(shù)據(jù)蘊(yùn)含的倫理安全風(fēng)險(xiǎn);通過人類反饋強(qiáng)化學(xué)習(xí)(RLHF)、模型可解釋性等技術(shù),在模型訓(xùn)練和學(xué)習(xí)過程中,從模型層面讓人工智能理解和遵從人類的價(jià)值、偏好與倫理原則;通過對(duì)抗測試和內(nèi)容過濾工具,從使用層面發(fā)現(xiàn)模型的潛在倫理安全問題,過濾可能存在倫理風(fēng)險(xiǎn)的模型輸出。利用上述多種技術(shù)和治理措施的36大模型治理藍(lán)皮書—從規(guī)則走向?qū)嵺`(2023年)結(jié)合,從人工智能開發(fā)和使用流程多個(gè)層面上實(shí)現(xiàn)價(jià)值對(duì)齊,創(chuàng)建安全、可靠、實(shí)用的人工智能模型。專欄2:醫(yī)療領(lǐng)域人工智能大模型存在的偏見風(fēng)險(xiǎn)2019年發(fā)表在《科學(xué)》雜志上的一項(xiàng)具有里程碑意義的研究發(fā)現(xiàn),一種用于預(yù)測1億多人醫(yī)療需求的算法對(duì)黑人患者存在偏見。該算法依靠醫(yī)療支出來預(yù)測未來的醫(yī)療需求。但由于歷史上黑人患者獲得醫(yī)療服務(wù)的機(jī)會(huì)較少,他們往往花費(fèi)較少。因此,根據(jù)該算法,黑人患者的病情必須嚴(yán)重得多,才會(huì)被推薦接受額外護(hù)理。42如果大模型的訓(xùn)練數(shù)據(jù)集中存在樣本不平衡、歧視、偏見、歪曲表述等內(nèi)容,由此產(chǎn)生的模型可能會(huì)無意中學(xué)習(xí)和
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 西京學(xué)院《微機(jī)原理與接口技術(shù)》2022-2023學(xué)年期末試卷
- 西南林業(yè)大學(xué)《地理信息系統(tǒng)原理與應(yīng)用》2022-2023學(xué)年第一學(xué)期期末試卷
- 從事專業(yè)與所學(xué)專業(yè)不一致專業(yè)技術(shù)人員申報(bào)職稱崗位任職合格證明附件6
- 西京學(xué)院《電機(jī)學(xué)實(shí)驗(yàn)》2021-2022學(xué)年期末試卷
- 西華師范大學(xué)《中學(xué)思想政治學(xué)科教學(xué)論》2021-2022學(xué)年第一學(xué)期期末試卷
- 西華師范大學(xué)《音樂作品分析與寫作》2023-2024學(xué)年第一學(xué)期期末試卷
- 西華師范大學(xué)《文藝作品演播》2022-2023學(xué)年第一學(xué)期期末試卷
- 2024-2025學(xué)年高中物理舉一反三系列專題4.1 普朗克黑體輻射理論(含答案)
- 房地產(chǎn)金融與投資概論教學(xué)課件第二章房地產(chǎn)抵押貸款
- 匆匆 朱自清課件
- 【初中道法】增強(qiáng)安全意識(shí) 課件-2024-2025學(xué)年統(tǒng)編版道德與法治七年級(jí)上冊
- 2024-2030年中國非物質(zhì)文化遺產(chǎn)保護(hù)行業(yè)開發(fā)模式分析規(guī)劃研究報(bào)告
- 【初中化學(xué)】二氧化碳的實(shí)驗(yàn)室制取課件-2024-2025學(xué)年九年級(jí)化學(xué)人教版上冊
- 學(xué)校提高《規(guī)范書寫水平、傳承漢字文化》活動(dòng)方案3篇
- 2024年湖北省公務(wù)員考試《行測》真題及答案解析
- 2024-2030年中國動(dòng)漫產(chǎn)業(yè)園行業(yè)發(fā)展現(xiàn)狀及投資前景規(guī)劃展望報(bào)告
- 第4章《一元一次方程》-2024-2025學(xué)年七年級(jí)數(shù)學(xué)上冊單元測試卷(蘇科版2024新教材)
- 浙江省杭州市采荷中學(xué)2024-2025學(xué)年七年級(jí)上學(xué)期期中考試英語試題
- DB3502T 148-2024中小型水庫生產(chǎn)運(yùn)行標(biāo)準(zhǔn)化管理規(guī)程
- 公司組織機(jī)構(gòu)管理制度
- 預(yù)習(xí)-21《蟬》導(dǎo)學(xué)案
評(píng)論
0/150
提交評(píng)論