版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)
文檔簡介
z大模型治理藍皮報告——從規(guī)則走向?qū)嵺`(2023
年)中國信息通信研究院政策與經(jīng)濟研究所中國科學院計算技術(shù)研究所智能算法安全重點實驗室2023年11月版
權(quán)
聲
明本報告版權(quán)屬于中國信息通信研究院、中國科學院,并受法律保護。轉(zhuǎn)載、摘編或利用其它方式使用本報告文字或者觀點的,應(yīng)注明“來源:中國信息通信研究院、中國科學院”。違反上述聲明者,編者將追究其相關(guān)法律責任。前
言近一年來,以
ChatGPT
為代表的大模型技術(shù)引發(fā)通用人工智能新一輪發(fā)展熱潮,在帶動大規(guī)模產(chǎn)業(yè)升級、勞動力轉(zhuǎn)移、產(chǎn)品的分配機制等方面均帶來深刻變革,成為改變世界競爭格局的重要力量。與此同時,圍繞人工智能治理的議題探討顯著增多,全球人工智能治理體系加速構(gòu)建。黨中央國務(wù)院高度重視人工智能治理工作,作出一系列重要部署。習近平總書記強調(diào),要共同做好風險防范,形成具有廣泛共識的人工智能治理框架和標準規(guī)范,不斷提升人工智能技術(shù)的安全性、可靠性、可控性、公平性。尋找大模型治理的準確定位,構(gòu)建適應(yīng)技術(shù)發(fā)展趨勢的治理體系愈加重要且迫切。面對大模型帶來的新問題新挑戰(zhàn),傳統(tǒng)監(jiān)管模式面臨著
AI
自主演化控制難、迭代快速跟進難、黑箱遮蔽追責難等問題,一勞永逸的事前監(jiān)管模式已經(jīng)難以應(yīng)對不斷推陳出新的人工智能發(fā)展需求。從治理框架來看,敏捷治理成為回應(yīng)大模型技術(shù)快速迭代的重要治理模式,軟硬法協(xié)調(diào)、多主體協(xié)同的治理需求更為突出。構(gòu)建高質(zhì)量數(shù)據(jù)集、創(chuàng)新知識產(chǎn)權(quán)制度、探索價值對齊實現(xiàn)方式、維護信息內(nèi)容安全等成為各方關(guān)注的熱點問題。美國、歐盟、英國等主要國家和地區(qū)加緊推進人工智能治理布局,共同尋求具有共識和互操作性的治理規(guī)則。我國圍繞人工智能發(fā)展、安全、治理三方面提出《全球人工智能治理倡議》,通過算法備案、評估評測、事后溯源檢測等方式,推動人工智能治理從規(guī)則走向?qū)嵺`,為全球提供人工智能治理中國方案。希望研究成果為社會各界進一步參與大模型治理實踐提供有益參考。目
錄一、大模型治理的重要性緊迫性凸顯.......................................................................
1(一)大模型技術(shù)浪潮興起...............................................................................
1(二)大模型引領(lǐng)數(shù)字化變革...........................................................................
3(三)大模型帶來的典型風險...........................................................................
5二、技術(shù)變革下大模型治理框架日漸明朗.............................................................
11(一)治理模式:敏捷治理成為國際較為通行的治理方案.........................
11(二)治理主體:激勵多元主體協(xié)同治理成為全球共識.............................
14(三)治理機制:軟硬兼施推進大模型治理.................................................
18三、聚焦大模型治理核心議題規(guī)則.........................................................................
22(一)數(shù)據(jù)治理規(guī)則.........................................................................................
23(二)知識產(chǎn)權(quán)保護.........................................................................................
32(三)倫理問題治理.........................................................................................
36(四)信息內(nèi)容治理.........................................................................................
40四、把握全球大模型治理最新動態(tài)趨勢.................................................................
42(一)美國從松散碎片式治理逐步趨向體系化治理.....................................
42(二)歐盟繼續(xù)發(fā)揮人工智能治理領(lǐng)域布魯塞爾效應(yīng).................................
45(三)英國力圖以促進創(chuàng)新的監(jiān)管方法引領(lǐng)全球治理.................................
49(四)國際組織在大模型治理國際合作中各顯其能.....................................
52五、探索我國大模型治理的主要落地工具.............................................................
55(一)事前備案.................................................................................................
55(二)事中全流程評估.....................................................................................
57(三)事后溯源檢測.........................................................................................
60六、
完善我國大模型治理體系的思路建議...........................................................
63(一)確立促進創(chuàng)新的人工智能敏捷治理理念.............................................
64(二)聚焦人工智能場景應(yīng)用細化制度方案.................................................
64(三)立足當前治理實踐創(chuàng)新人工智能治理工具.........................................
65(四)激勵企業(yè)積極管控風險以推動平臺合規(guī).............................................
66(五)促進全球人工智能合作治理體系構(gòu)建.................................................
67大模型治理藍皮書—從規(guī)則走向?qū)嵺`(2023
年)一、大模型治理的重要性緊迫性凸顯(一)大模型技術(shù)浪潮興起當前,世界人工智能領(lǐng)域科技創(chuàng)新異?;钴S,日益成為改變世界競爭格局的重要力量。一批里程碑意義的前沿成果陸續(xù)突破,以ChatGPT
為代表的大模型技術(shù)引發(fā)通用人工智能新一輪發(fā)展熱潮。1.對大模型的基本認識大模型(LLM,Large
Language
Model)指的是具有超大參數(shù)規(guī)模,建立在多頭自注意力機制
Transformer
架構(gòu)之上,以深度神經(jīng)網(wǎng)絡(luò)為基礎(chǔ),用海量文本數(shù)據(jù)預(yù)訓練而成的語言模型。以
ChatGPT
為代表的大模型能夠模擬人類的創(chuàng)造性思維,生成具有一定邏輯性和連貫性的語言文本、圖像、音頻等內(nèi)容。大模型基于大數(shù)據(jù)、大算力、多模態(tài)的技術(shù)優(yōu)勢,實現(xiàn)從感知世界、理解世界向創(chuàng)造世界的躍遷,推動人類社會加速邁向人機共生的智能社會階段。大模型體現(xiàn)出三方面技術(shù)趨勢:一是從決策式
AI
到生成式
AI。決策式
AI
主要是通過分類回歸對數(shù)據(jù)進行分析,主要應(yīng)用于圖像識別、推薦系統(tǒng)、決策智能體等領(lǐng)域。生成式
AI
借助
Transformer
架構(gòu)等,具有全局表征能力強、高度并行性、通用性強、可擴展性強等優(yōu)勢,主要應(yīng)用于內(nèi)容創(chuàng)作、科研、人機交互等領(lǐng)域,實現(xiàn)了從簡單感知到內(nèi)容創(chuàng)造的躍遷。二是從單模態(tài)模型到多模態(tài)模型。多模態(tài)是指通過處理和關(guān)聯(lián)來自多種模態(tài)的多源異構(gòu)數(shù)據(jù),挖掘分析信息、提高模型能力的學習方法。典型任務(wù)是圖像/視頻/語言間的跨模態(tài)預(yù)訓練、跨模態(tài)定位等,如給定文本生成一段對應(yīng)的聲音、圖像/視頻與文本1大模型治理藍皮書—從規(guī)則走向?qū)嵺`(2023
年)的相互檢索或生成等。三是從億級到千億、萬億級參數(shù)的預(yù)訓練模型。大模型指的正是模型參數(shù)規(guī)模龐大,大模型參數(shù)規(guī)模從億級發(fā)展到百億、千億級別,并向著更高規(guī)模的參數(shù)探索。例如,GPT-3
參數(shù)量達1750
億,文心一言參數(shù)規(guī)模為
2600
億等。隨著參數(shù)規(guī)模的增長,模型能力也得到顯著提升。2.大模型的變革影響(1)內(nèi)容生產(chǎn)方式的“顛覆者”大模型實現(xiàn)了高質(zhì)量、高效率、多樣化的內(nèi)容生產(chǎn),成為推動內(nèi)容生產(chǎn)方式變革的重要力量。一是信息內(nèi)容生產(chǎn)主體發(fā)生顯著變革。人工智能在信息收集、篩選和整合、推理的全過程都能替代人力,極大地解放人力資源。二是信息內(nèi)容生產(chǎn)效率快速提升。大算力驅(qū)動強算法處理大數(shù)據(jù),在自然語言處理、計算機視覺、自動駕駛、等各領(lǐng)域多種任務(wù)上,都能高質(zhì)量作出結(jié)果判斷,高效率進行內(nèi)容生成。三是信息內(nèi)容傳播出現(xiàn)顛覆性變化。信息的生產(chǎn)、傳播更加便利,尤其是降低了專業(yè)知識的獲取門檻。信息內(nèi)容的表現(xiàn)形態(tài)更加豐富,利用人工智能創(chuàng)生技術(shù),圖、文、代碼等相互轉(zhuǎn)換更加自由,可以一鍵生成“數(shù)字人”分身,開啟智能互聯(lián)時代。(2)通用人工智能的“先行者”大模型是邁向通用人工智能的重要技術(shù)探索。一是具備了與人類智能相媲美的綜合智能能力。大模型的能力不再局限于自然語言、視覺等特定方面,而是具備了執(zhí)行一般智慧行為的能力,廣泛拓展了人工智能技術(shù)的適用范圍。二是具備了通用型技術(shù)能力的潛力。業(yè)界普2大模型治理藍皮書—從規(guī)則走向?qū)嵺`(2023
年)遍認為,大模型是智能時代的關(guān)鍵基礎(chǔ)底座,各領(lǐng)域不再需要單獨開發(fā)人工智能,僅需調(diào)用大模型接口即可。將來可能構(gòu)建出新的應(yīng)用生態(tài)、創(chuàng)造新的用戶接口,并帶來潛在商業(yè)模式的變革。三是具備了賦能千行百業(yè)的適應(yīng)性。大模型可作為底層技術(shù),垂直應(yīng)用于各個產(chǎn)業(yè)和復(fù)雜場景。這種可以嫁接千行百業(yè)的智能生產(chǎn)力,正在重塑和影響未來生活。(3)人機交互的“協(xié)作者”大模型使得人類行為與機器運行之間的協(xié)作更加自然、高效和智能,拓展了更為廣闊的人機交互空間。一是呈現(xiàn)出極大的語言表達的自由度。大模型“善于”理解和生成自然語言,人們可以自由提問或表達需求,不必擔心特定的格式或指令。這種自由度使得人與機器的交互更為自然、靈活。二是呈現(xiàn)出極為個性化的交互體驗。大模型可以通過分析和理解用戶的喜好、興趣和上下文信息,進行定制化的服務(wù)和建議。大模型的即時回應(yīng)和連續(xù)對話,給用戶提供了實時的幫助和引導(dǎo)。Web
2.0
之父蒂姆·奧萊利(Tim
O'Reilly)認為未來的人工智能系統(tǒng)將成為人類工作的協(xié)作者,通過人機合作實現(xiàn)更強大的效果。(二)大模型引領(lǐng)數(shù)字化變革大模型體現(xiàn)出強智能性、強通用性、強交互性,為進一步的產(chǎn)業(yè)革新與數(shù)字政府發(fā)展奠定了堅實的基礎(chǔ)。根據(jù)麥肯錫報告,生成式人工智能每年或?qū)槿?/p>
GDP
增加
2.6-4.4
萬億美元。根據(jù)
Markets
andMarkets
報告,2023
年全球生成式人工智能的市場規(guī)模預(yù)計為
110.3億美元,2028
年預(yù)計將達到
518
億美元,年復(fù)合增長率達
35.6%。3大模型治理藍皮書—從規(guī)則走向?qū)嵺`(2023
年)1.大模型推動產(chǎn)業(yè)跨域深度融合憑借大數(shù)據(jù)、大市場、多場景優(yōu)勢,人工智能與交通、醫(yī)療、工業(yè)等傳統(tǒng)行業(yè)深入融合,涌現(xiàn)出一批新業(yè)態(tài)新模式。在工業(yè)領(lǐng)域,大模型實現(xiàn)汽車、建模等設(shè)計的自動優(yōu)化、打造
3D
模型、通過智能物流、智能安防實現(xiàn)智能化管理;在醫(yī)療領(lǐng)域,大模型實現(xiàn)蛋白質(zhì)分子的結(jié)構(gòu)預(yù)測、輔助醫(yī)生影像讀片與分析病例報告,推出
AI
陪護與交互式心理咨詢;在金融領(lǐng)域,大模型催生了數(shù)字員工,借助
AI
客服、AI
投資顧問、AI
財務(wù)實現(xiàn)服務(wù)的自動化,并進一步優(yōu)化投資管理與風險管理。據(jù)埃森哲預(yù)計,2035
年人工智能應(yīng)用將為制造業(yè)帶來
4萬億美元額外增長,年增長率可達
4.4%。2.大模型提升公共服務(wù)水平當前,公共領(lǐng)域大模型應(yīng)用如火如荼,為公共服務(wù)提質(zhì)增效。美國、英國、葡萄牙、新加坡等
13
個國家或地區(qū)已將
ChatGPT
應(yīng)用于政府內(nèi)部辦公、公共服務(wù)提供等場景。據(jù)日本野村綜合研究所開展的網(wǎng)絡(luò)問卷調(diào)查顯示,政府部門對
ChatGPT
的利用率達
17.5%,僅次于信息通信業(yè)(32.8%)和制造業(yè)(19.2%)。從市場份額來看,根據(jù)普魯杜爾公司(Prudour
Pvt.Ltd)數(shù)據(jù)顯示,2022
年各國政府應(yīng)用大模型的市場份額超過
1
千萬美元,預(yù)計
2032
年超過
5
億美元,年復(fù)合增長率達
45.8%。大模型技術(shù)的引入可以顯著提升人機交互的友好程度。同時,大模型在信息收集、數(shù)據(jù)分析以及語言重塑能力層面的優(yōu)勢,能夠有效協(xié)助整合政府治理資源,改善政府治理結(jié)構(gòu),打破政府組織壁壘,實現(xiàn)跨部門、跨層級的協(xié)同治理。4大模型治理藍皮書—從規(guī)則走向?qū)嵺`(2023
年)(三)大模型帶來的典型風險大模型在提升產(chǎn)業(yè)效率與社會生產(chǎn)力的同時,亦伴隨著多重風險與挑戰(zhàn),有必要從技術(shù)自身缺陷引發(fā)的風險、技術(shù)應(yīng)用在不同層面帶來的問題與挑戰(zhàn)等維度出發(fā),梳理和探討大模型發(fā)展面臨的困局。1.大模型自身技術(shù)缺陷帶來的風險挑戰(zhàn)一是大模型的生成“幻覺”問題引發(fā)生成內(nèi)容不可信。生成幻覺通常指模型按照流暢正確的語法規(guī)則產(chǎn)生的包含虛假信息甚至無意義內(nèi)容的文本?;糜X一般被認為是模型生成的文本不遵循原文或不符合事實,在大模型場景下主要指不符合事實,即出現(xiàn)“一本正經(jīng)胡說八道”的情形?;糜X產(chǎn)生的本質(zhì)原因是大模型的輸出結(jié)果是根據(jù)概率推理而成的,這導(dǎo)致了大模型可能針對一個原本模糊或者不確定的預(yù)測,給出一個“過度自信”的結(jié)果。因此,OpenAI
公司首席技術(shù)官Mira
Murati
亦指出,ChatGPT
和底層大型語言模型的最大挑戰(zhàn)是其會編造錯誤的或不存在的事實。二是大模型的“涌現(xiàn)”效應(yīng)帶來模型能力不可控。所謂智能“涌現(xiàn)”,是指大語言模型在沒有經(jīng)過針對性訓練的任務(wù),包括需要復(fù)雜推理能力的任務(wù)中,同樣表現(xiàn)出卓越的性能。這種“智能涌現(xiàn)”能力通常在小模型中未被發(fā)現(xiàn),而只會在具備一定規(guī)模的大模型中出現(xiàn)。目前僅能夠明確觀測到當模型大小超過一定閾值時,模型各方面綜合能力得到質(zhì)變式爆發(fā)增長的“涌現(xiàn)”現(xiàn)象,但卻無法確定“涌現(xiàn)”的閾值所在,這使現(xiàn)有大模型的“智能涌現(xiàn)”能力具有突發(fā)性、不可預(yù)測性和不可控性,例如,在某用戶故意“激怒”ChatGPT
后,后者威5大模型治理藍皮書—從規(guī)則走向?qū)嵺`(2023
年)脅將披露該用戶的
IP、居所等個人信息,甚至損害其名譽。不少人工智能研究人員亦發(fā)出警告,如果控制不當,足夠強大的人工智能模型可能超越人類智能成為地球主導(dǎo)力量,引發(fā)災(zāi)難性后果。三是大模型的脆弱性和攻擊性造成外部安全隱患難以根除。由于技術(shù)本身的特性,沒有一個系統(tǒng)是永遠安全和不可能被攻破的。一方面,隨著大模型生成側(cè)的高度發(fā)展,對其進行網(wǎng)絡(luò)攻擊日漸增多。例如通過在提示詞后增加一些不規(guī)則后綴,即可讓此提示詞繞過大模型的攔截策略,讓其生成預(yù)料之外的內(nèi)容。另一方面,大模型應(yīng)用降低了漏洞查找與系統(tǒng)攻擊的難度。如果模型被惡意植入后門,模型的安全也會受到威脅,尤其在大模型應(yīng)用下,漏洞查找與系統(tǒng)攻擊變得更加容易,導(dǎo)致系統(tǒng)安全隱患持續(xù)升級。例如,有攻擊者利用
ChatGPT生成自動攻擊的代碼,讓它更加高效的利用某個目標系統(tǒng)的漏洞,進行網(wǎng)絡(luò)攻擊。2.大模型在個人維度引發(fā)的風險挑戰(zhàn)一是加深“信息繭房”并影響公平正義。一方面,以呈現(xiàn)高頻次單一信息為生成機制會加深“信息繭房”。過去,個人自主進行信息檢索是往往能夠獲得來源豐富、多種多樣的信息以供選擇,從而形成對所欲探究事物更全面的認知;而在大模型應(yīng)用下,個人只能被動接受模型提供的信息,而無法獲取樣本數(shù)量不占優(yōu)勢的“小眾”信息,使得大模型生成內(nèi)容類似于“繭房”,將個體對事物的認知桎梏于有限信息之中。1另一方面,大模型訓練數(shù)據(jù)存在的固有偏見和歧視問1參見
/s/FIX1cUkw6PiduOwJ00l0mA6大模型治理藍皮書—從規(guī)則走向?qū)嵺`(2023
年)題。這是由于大模型對數(shù)據(jù)高度依賴,所以生成結(jié)果會體現(xiàn)出數(shù)據(jù)源的偏向性。如
GPT-3
顯示出了基于宗教信仰的偏見和性別歧視,大語言模型
Gopher
存在職業(yè)與性別之間的刻板印象聯(lián)想,圖像生成模型
Dalle-2
則表現(xiàn)出顯著的性別和種族歧視。二是技術(shù)濫用侵犯人格尊嚴并阻礙個人發(fā)展。一方面,大模型的惡意利用侵犯人格尊嚴。當前已有大量案例表明,大模型被用于生成虛假的有損公民人格尊嚴的視頻、音頻、圖像等,進而被惡意應(yīng)用于網(wǎng)絡(luò)欺凌、辱罵、造謠等場景下,給當事人帶來極大的精神及財產(chǎn)損害。例如,喬治華盛頓大學法學院教授
Jonathan
Turley
發(fā)現(xiàn),ChatGPT生成內(nèi)容顯示他在阿拉斯加課程旅行中對學生進行了性騷擾。然而,Turley
教授并未帶領(lǐng)學生去阿拉斯加或任何其他地方進行課程旅行,也未曾受到過性騷擾學生的指控。另一方面,大模型的過度依賴阻礙個人發(fā)展。當前越來越多個體頻繁應(yīng)用大模型服務(wù)完成工作學習任務(wù),例如用
ChatGPT
寫論文、寫判決書的案例屢見不鮮,且個人對大模型的依賴表現(xiàn)出應(yīng)用日益廣泛、程度日益加深的特征,恐導(dǎo)致個人學習能力以及認知水平可能大幅退化,影響人與社會的長期發(fā)展?jié)摿?。美國智庫布魯金斯學會刊文指出,ChatGPT
將可能導(dǎo)致人類記憶和批判能力的下降。三是情感計算造成潛在倫理風險并擾亂人際關(guān)系。情感計算是模擬某個角色并設(shè)定其情緒或心理狀態(tài)的新型人工智能應(yīng)用,其發(fā)展與普及可能給個人行為、社會關(guān)系、倫理道德等諸多領(lǐng)域帶來巨大的沖擊
。一方面,情感計算可能瓦解傳統(tǒng)人際關(guān)系。以近期眾多人工智能7大模型治理藍皮書—從規(guī)則走向?qū)嵺`(2023
年)企業(yè)推出的“AI
伴侶”為例,該類應(yīng)用可能導(dǎo)致個人不愿花時間精力與真正的人類進行情感交流,從而導(dǎo)致傳統(tǒng)的人際關(guān)系與婚姻家庭結(jié)構(gòu)遭到重創(chuàng),甚至顛覆過往的倫理道德觀念。另一方面,情感計算可能不正當?shù)匾龑?dǎo)個人情緒、行為乃至價值觀。人工智能產(chǎn)品可能會有偏見或有目的性地引導(dǎo)某些個體,尤其當人類習慣于長期與機器人交互時,人獲取的信息會很自然地被機器所引導(dǎo),進而影響個人的價值觀,或是控制個人的情緒與行為。3.大模型在企業(yè)維度引發(fā)的風險挑戰(zhàn)一是用戶過度授權(quán)、違規(guī)信息使用以及黑客攻擊,引發(fā)用戶隱私與商業(yè)秘密的泄露風險。在用戶個人隱私方面面臨侵權(quán)訴訟,當前,大模型的用戶使用條款普遍給予企業(yè)超出必要限度的個人信息使用權(quán),加大了用戶個人信息泄漏的風險,從而擔負極大的違規(guī)風險。以ChatGPT
為例,其使用條款明確規(guī)定,除非用戶要求
OpenAI
不對其輸入和輸出內(nèi)容進行使用,否則
OpenAI
擁有對任何用戶輸入和輸出內(nèi)容的廣泛使用權(quán),以達成優(yōu)化訓練
ChatGPT
的目的。在企業(yè)商業(yè)秘密方面,企業(yè)員工很有可能故意或過失地違反公司保密制度,將公司的營業(yè)信息、技術(shù)信息、平臺底層代碼、近期營銷計劃、公司薪酬體系等信息泄露,黑客也可能利用系統(tǒng)漏洞發(fā)起攻擊獲取海量涉密信息,從而導(dǎo)致企業(yè)商業(yè)秘密泄露風險。二是內(nèi)容生成依托海量文本與圖像數(shù)據(jù),引發(fā)版權(quán)侵權(quán)風險。一方面,大模型生成內(nèi)容由于缺乏規(guī)范的許可使用機制具有侵權(quán)風險。由于大模型根據(jù)概率推理的生成機制,其使用作品難以逐個、準確地8大模型治理藍皮書—從規(guī)則走向?qū)嵺`(2023
年)援引法定許可或合理使用條款,這使得大模型未經(jīng)許可使用作品的行為可能會侵犯被使用作品的復(fù)制、改編、信息網(wǎng)絡(luò)傳播權(quán)等權(quán)利。例如
2023
年
1
月,全球知名圖片提供商華蓋創(chuàng)意(Getty
Images)起
訴熱門人工智能繪畫工具
Stable
Diffusion
的開發(fā)者
Stability
AI,稱其未經(jīng)許可從網(wǎng)站上竊取了數(shù)百萬張圖片。再如,用于谷歌
T5
和
META的
LLaMA
等大模型訓練的
C4
數(shù)據(jù)集,雖然源自公開網(wǎng)站,但也包括至少
27
個被美國政府認定為盜版和假冒產(chǎn)品市場的網(wǎng)站。另一方面,大模型生成內(nèi)容存在與既有作品“實質(zhì)性相似”的潛在侵權(quán)風險。如果大模型通過分析學習后生成的內(nèi)容與原始作品過于相似,以至于可能會誤導(dǎo)公眾或混淆原始作品的來源,其可能會因與他人作品存在“實質(zhì)性相似”而被認定為侵權(quán),從而導(dǎo)致著作權(quán)侵權(quán)相關(guān)的訴訟,而含有侵權(quán)內(nèi)容的大模型生成內(nèi)容的使用者亦有可能需要承擔侵權(quán)責任。2三是應(yīng)用形態(tài)顛覆現(xiàn)有數(shù)據(jù)收集模式,引發(fā)數(shù)據(jù)安全風險。大模型生成工具的運作機制導(dǎo)致企業(yè)緯度的違規(guī)數(shù)據(jù)傳輸與敏感信息泄露頻發(fā)。以
ChatGPT
為例,根據(jù)其運作原理,用戶在輸入端提出的問題首先會傳輸?shù)轿挥诿绹?/p>
OpenAI
公司,隨后
ChatGPT
才會給出相應(yīng)回答,因此存在數(shù)據(jù)泄露風險。如韓媒報道,三星半導(dǎo)體事業(yè)部向員工開放使用
ChatGPT
后短短
20
天內(nèi)即發(fā)生多起數(shù)據(jù)違規(guī)輸入事件。又如數(shù)據(jù)安全公司
Cyberhaven
調(diào)研顯示,不同行業(yè)客戶的
160萬名員工平均每周向
ChatGPT
泄露敏感數(shù)據(jù)達數(shù)百次。2
參見
/s/LbeMIgeJeZSAqDWeLTBX9g9大模型治理藍皮書—從規(guī)則走向?qū)嵺`(2023
年)4.大模型在社會維度引發(fā)的風險挑戰(zhàn)一是沖擊就業(yè)市場,提升勞動力轉(zhuǎn)型下的社會不安定性。雖然大模型帶來的崗位智能化升級將提升社會生產(chǎn)效率、創(chuàng)造新興崗位,但也會導(dǎo)致特定領(lǐng)域或人群的失業(yè)危機。大模型對初等和中等技能白領(lǐng)崗位需求的沖擊較大,從事重復(fù)性、機械性等工作的勞動者將極易被大模型工具替代。據(jù)高盛研究報告分析,以美國為例,46%的行政工作和
44%的法律工作將受到較高程度的影響。在此趨勢下,相當數(shù)量的勞動者需在短期內(nèi)進行與社會新需求相匹配的職業(yè)轉(zhuǎn)換,這對他們的經(jīng)濟收入、社會地位、身心健康都可能產(chǎn)生較大影響,如果大規(guī)模勞動力轉(zhuǎn)型不當甚至有可能引發(fā)社會動蕩等風險。二是擴大數(shù)字鴻溝,加劇社會分化和不平等。大模型的擁有程度、應(yīng)用程度以及創(chuàng)新能力的差別將引發(fā)信息落差,進而造成新一輪數(shù)字鴻溝,甚至加劇社會分化和不平等。從國家與地區(qū)層面來看,在大模型加速迭代的進程中,僅有少數(shù)發(fā)達國家能夠能夠憑借龐大的數(shù)據(jù)、算力等資源進一步掌控生產(chǎn)力資源,這將進一步擴大發(fā)達國家與發(fā)展中國家的差距。例如,美國的
GPT-4
總共包含了
1.8
萬億參數(shù),一次的訓練成本為
6300
萬美元,非百億美金公司很難持續(xù)跟進。從組織和個人層面來看,大模型服務(wù)對于不同群體的可得性是不同的。部分地區(qū)或群體可能由于無法獲得高質(zhì)量的互聯(lián)網(wǎng)連接、教育水平與專業(yè)背景不足等原因,無法有效且正確地使用
GPT
技術(shù)。這會使得ChatGPT
等技術(shù)成為精英階層提升和優(yōu)化生產(chǎn)力的有力工具,進一步拉大精英階層和社會底層、高知分子與普通勞動者之間的差距。大模10大模型治理藍皮書—從規(guī)則走向?qū)嵺`(2023
年)型生成機制對于不同群體的“關(guān)注度”是不同的。特殊群體及其呼聲會在數(shù)字化進程中成為被排斥的對象,淪為“數(shù)字棄民”,這可能導(dǎo)致未來日益依托于大模型的社會治理框架忽視特殊群體的需求,加劇社會在年齡、地域等緯度的不平等。三是深度偽造與對抗性攻擊,危及公共安全與利益。一方面,大模型被用于制作虛假文本、音頻、視頻等深度偽造內(nèi)容,損害公共利益。當前,通過
AI
換臉、語音模擬、人臉合成、視頻生成等惡意運用手段生成的深度偽造信息,既加劇了公眾對于公開信息的不信任感,又導(dǎo)致相關(guān)虛假信息與虛假形象被運用于詐騙、政治干預(yù)、煽動暴力和犯罪等破壞公共利益的領(lǐng)域,造成了極大的安全風險。另一方面,對抗性攻擊的存在威脅著公共安全。大模型容易受到對手生成的對抗樣本的“注入式攻擊”,即圖謀不軌者從算法角度別有用心地構(gòu)造并注入特定詞語、符號或圖片,進而誘導(dǎo)大模型邏輯混亂、輸出錯誤,再利用這一漏洞進行欺詐或篡改,甚至直接圖謀根源極其隱蔽的安全事故。3例如,研究人員通過在停止信號圖片添加細微噪聲,就可以欺騙自動駕駛系統(tǒng)錯認為速度限制
45
英里/小時,產(chǎn)生潛在事故風險。二、技術(shù)變革下大模型治理框架日漸明朗(一)治理模式:敏捷治理成為國際較為通行的治理方案2018
年,世界經(jīng)濟論壇提出敏捷治理概念,討論如何應(yīng)對第四次工業(yè)革命中的政策制定問題,敏捷治理理念開始受到廣泛關(guān)注。敏3參見
/s/yAEBHtf-SEPgC65vmtdMEQ11大模型治理藍皮書—從規(guī)則走向?qū)嵺`(2023
年)捷治理是“一套具有柔韌性、流動性、靈活性或適應(yīng)性的行動或方法,是一種自適應(yīng)、以人為本以及具有包容性和可持續(xù)的決策過程”。一方面,敏捷治理體現(xiàn)為快速感知能力。強調(diào)對時間的高度靈敏度,需要時刻準備應(yīng)對快速發(fā)展中的變化,主動接受變化并在變化中學習。能夠快速感知到內(nèi)外部環(huán)境的變化,預(yù)測內(nèi)外部面臨的風險問題。另一方面,敏捷治理強調(diào)參與主體應(yīng)具有廣泛性。治理主體不再局限于政府,而是需要與開發(fā)者、部署者、用戶等利益相關(guān)者密切互動,建立機制持續(xù)性監(jiān)測和討論政策內(nèi)容,保持長期可持續(xù)性。從治理原則來看,采取原則指引為主、靈活政策為輔的策略。敏捷治理強調(diào)在治理原則指導(dǎo)下,使用靈活政策工具作為補充,依據(jù)情況及時調(diào)整大模型治理方向和落地舉措。在治理關(guān)系上,監(jiān)管者和市場主體之間存在重要的相互依賴關(guān)系。雙方在信任基礎(chǔ)上深入密切交流,監(jiān)管者可以更好了解技術(shù)趨勢和產(chǎn)業(yè)發(fā)展走向,準備評估相關(guān)風險并制定合理措施。從治理工具來看,治理措施要“下手快”并允許包容試錯空間?!跋率挚臁笨梢詼p少企業(yè)的沉默成本,減少技術(shù)路徑和商業(yè)模式的轉(zhuǎn)變損失。包容試錯意味著鼓勵企業(yè)積極創(chuàng)新,對于風險程度較低的問題,支持企業(yè)自行整改消除風險。4在治理模式選擇上,靈活感知、動態(tài)調(diào)適的敏捷治理更契合大模型發(fā)展需求。大模型具有突破性、變革性、高風險性等特點,傳統(tǒng)監(jiān)管模式面臨著
AI
自主演化控制難、迭代快速跟進難、黑箱遮蔽追責難等問題,一勞永逸的事前監(jiān)管模式已經(jīng)難以應(yīng)對不斷推陳出新的人4
參見薛瀾,《走向敏捷治理:新興產(chǎn)業(yè)發(fā)展與監(jiān)管模式探究》,《中國行政管理》2019年第
8
期。12大模型治理藍皮書—從規(guī)則走向?qū)嵺`(2023
年)工智能發(fā)展需求。開展科技倫理敏捷治理試點工作,是邊發(fā)展、邊治理,邊摸索、邊修正的動態(tài)治理方式,對于平衡安全和創(chuàng)新,在實踐中不斷提煉和打磨大模型治理方案具有重要意義。歐盟、英國、美國均在不同層面引入敏捷治理以規(guī)制大模型風險。美國出臺法案細化基于風險的敏捷治理具體實施路徑。2023
年
5
月,美國提出建立數(shù)字平臺委員會相關(guān)法案,指出應(yīng)采用基于風險的敏捷方法,并建立規(guī)制技術(shù)風險的新機構(gòu)。法案認為,新機構(gòu)應(yīng)效仿企業(yè)的敏捷治理做法,制定行為守則,并以透明、反應(yīng)迅速的方法執(zhí)行相關(guān)標準。法案還為敏捷治理提出了具體的實施路徑,例如為準則制定過程設(shè)定時間表,確定并量化需要解決的問題,建立多利益相關(guān)方專家小組,專家組對政策實施效果進行持續(xù)追蹤,找出新問題并循環(huán)整個過程。英國實行靈活的“按比例監(jiān)管”以提升在人工智能領(lǐng)域的競爭優(yōu)勢。2023
年
3
月,英國發(fā)布《促進創(chuàng)新的人工智能監(jiān)管方式》白皮書,明確監(jiān)管目標為“提供清晰的、有利于創(chuàng)新的監(jiān)管環(huán)境”,強調(diào)“按比例監(jiān)管”的靈活監(jiān)管方式,力圖推動英國成為“世界上建立基礎(chǔ)人工智能企業(yè)的最佳地點之一”。歐盟總體基調(diào)嚴苛,但仍體現(xiàn)出敏捷治理思路。如《人工智能法案》第
56b
條款指出,人工智能辦公室應(yīng)對基礎(chǔ)模型進行監(jiān)測,并與開發(fā)者、部署者就其合規(guī)性進行定期對話,討論行業(yè)自我治理的最佳做法;定期更新將基礎(chǔ)模型界定為大型訓練模型的判定標準,記錄并監(jiān)測大模型運行的實例。再如,該法案第五章“支持創(chuàng)新的措施”中,提出人工智能監(jiān)管沙箱制度,要求建立受控環(huán)境,在一定時間內(nèi)推動人工智能系統(tǒng)的開發(fā)、測試和13大模型治理藍皮書—從規(guī)則走向?qū)嵺`(2023
年)驗證。我國采取包容審慎、分類分級監(jiān)管的敏捷治理模式。兩辦印發(fā)《關(guān)于加強科技倫理治理的意見》,提出敏捷治理的治理理念,要求加強科技倫理風險預(yù)警與跟蹤研判,及時動態(tài)調(diào)整治理方式和倫理規(guī)范,快速、靈活應(yīng)對科技創(chuàng)新帶來的倫理挑戰(zhàn)。國家網(wǎng)信辦等七部門出臺《生成式人工智能服務(wù)管理暫行辦法》,堅持發(fā)展和安全并重、促進創(chuàng)新和依法治理相結(jié)合的原則,采取有效措施鼓勵大模型創(chuàng)新發(fā)展,對大模型服務(wù)實行包容審慎和分類分級監(jiān)管。相反,加拿大立法進程中的非敏捷做法遭到外界批判。國際治理創(chuàng)新中心評論文章《加拿大人工智能立法草案需要重新修訂》一文批評道,加拿大正在制定的《人工智能與數(shù)據(jù)法案》敏捷性不足,敏捷監(jiān)管應(yīng)該是不斷迭代和數(shù)據(jù)驅(qū)動的,有明確的程序來評估政策影響并作出調(diào)整,但該草案并不具備這些要素??傮w來看,作為一種新型治理思路,敏捷治理具備全面性、適應(yīng)性和靈活性特征,契合大模型的治理需求。如何有效落地敏捷治理理念,是當前需要探索的重要任務(wù)。(二)治理主體:激勵多元主體協(xié)同治理成為全球共識1.國際組織是全球人工智能治理的重要力量越來越多的國際組織開始關(guān)注人工智能的全球治理問題。在增進全球利益方面,國際組織有助于推動人工智能的全球應(yīng)用和普及,提升各地產(chǎn)業(yè)發(fā)展和社會服務(wù)水平,惠及發(fā)展中國家和地區(qū)。在管理共同風險方面,人工智能具有不受制于國界的風險跨境生成、擴散特征,單純的國內(nèi)監(jiān)管無法有效管控風險,因此,在國際組織推動下,全球14大模型治理藍皮書—從規(guī)則走向?qū)嵺`(2023
年)協(xié)同制定標準規(guī)范、支持和激勵最佳國際實踐,成為人工智能治理的應(yīng)有之義。根據(jù)歐洲委員會正在推進的《關(guān)于人工智能規(guī)制框架的建議》,從
2020
年起國際組織已經(jīng)超過國家成為主要的人工智能舉措的來源;從
2015
年到
2023
年,國家政府層面共發(fā)布了
172
項舉措,而國際組織5同期實施了
214
項舉措,總體數(shù)量也超過各國政府。(6
見圖
1)國際組織在引導(dǎo)形成國際共識、建立國際通行和互操作的治理規(guī)則、確保新一輪人工智能發(fā)展造福全人類等方面具有重要作用和獨特優(yōu)勢。來源:歐洲委員會圖
1
2010-2023
年間政府和國際組織發(fā)布的人工智能舉措數(shù)量對比2.國家政府加緊完善人工智能監(jiān)管架構(gòu)國家政府在人工智能治理中發(fā)揮著領(lǐng)導(dǎo)性作用,從國家層面統(tǒng)領(lǐng)大模型研發(fā)、設(shè)立專業(yè)監(jiān)管機構(gòu)、以及政策與法律規(guī)則的制定等。國5參見統(tǒng)計數(shù)據(jù)中的“國際組織”包括歐洲委員會(CoE)與歐盟(EU)、經(jīng)合組織(OECD)和聯(lián)合國教科文組織(UNESCO)、G7、G20
等。6
參見
Council
of
Europe,AI
Initiatives,/en/web/artificial-intelligence/national-initiatives,
visited
on
29
August,202315大模型治理藍皮書—從規(guī)則走向?qū)嵺`(2023
年)家政府作為肩負公共事務(wù)管理職責的公權(quán)力機關(guān),是公共利益和廣大民意的代言人,也是國家安全和社會穩(wěn)定的捍衛(wèi)者。為更好應(yīng)對大模型對傳統(tǒng)監(jiān)管架構(gòu)和機制挑戰(zhàn),部分國家從不同維度加緊推進監(jiān)管組織機構(gòu)調(diào)整。一是部分國家和地區(qū)“另起爐灶”,探索建立專門的人工智能監(jiān)管機構(gòu)。歐盟將根據(jù)《人工智能法案》設(shè)立歐洲人工智能辦公室,負責監(jiān)督并確保法律的有效實施,協(xié)調(diào)聯(lián)合調(diào)查等。歐洲人工智能辦公室將下設(shè)管理委員會(由各成員國代表組成的)、秘書處、咨詢論壇(包括企業(yè)、民間社會、學術(shù)界等利益關(guān)聯(lián)方)三個部分。7西班牙率先成立歐洲首個人工智能監(jiān)管機構(gòu)——西班牙人工智能監(jiān)管局(AESIA)。該機構(gòu)將負責監(jiān)管算法應(yīng)用、數(shù)據(jù)使用以及確保
AI
系統(tǒng)遵守道德規(guī)范,其首要任務(wù)是執(zhí)行歐盟《人工智能法案》。二是現(xiàn)有監(jiān)管部門下設(shè)人工智能工作組,規(guī)制本部門管轄范圍內(nèi)大模型帶來的風險。美國國土安全部成立首個人工智能特別工作組,旨在保護國家免受人工智能技術(shù)尖端發(fā)展造成的安全威脅。美商務(wù)部宣布,國家標準與技術(shù)研究院(NIST)將成立新的人工智能公共工作組,集合私營和公共部門的專家力量,重點關(guān)注大模型相關(guān)風險挑戰(zhàn)。8韓國文化體育觀光部成立版權(quán)制度改進工作組、數(shù)字內(nèi)容人工智能工作組、產(chǎn)業(yè)應(yīng)用工作組,將致力于開發(fā)韓文語料庫、審查版權(quán)侵權(quán)行為、開發(fā)試點項目等。三是在中央層面加強各行業(yè)部門之間的監(jiān)管協(xié)同。大模型技術(shù)可被普遍調(diào)用于各類行業(yè)場景,對政7
參見歐盟《人工智能法案》第六編第一章要求8
參見
NIST
制定指導(dǎo)意見,指導(dǎo)在
NIST
發(fā)布的
AI
風險管理框架內(nèi)開展研發(fā)等短期目標,中期來看工作組將致力于開展大模型測試評估,長期來看,將探索有效利用大模型解決環(huán)境、健康等社會問題的可能性。16大模型治理藍皮書—從規(guī)則走向?qū)嵺`(2023
年)府部門的監(jiān)管協(xié)調(diào)能力提出更高要求。英
國《支持創(chuàng)新的人工智能監(jiān)管方案》白皮書指出,由于通用大模型供應(yīng)鏈的廣泛性,難以將其納入任一監(jiān)管機構(gòu)的職權(quán)范圍,應(yīng)加強中央層面的監(jiān)管協(xié)調(diào)。英國將重點依靠現(xiàn)有的金融行為監(jiān)管局、信息專員辦公室、競爭與市場管理局、平等與人權(quán)委員會、藥品和保健產(chǎn)品監(jiān)管機構(gòu)展開監(jiān)管。3.企業(yè)站在人工智能治理的最前線最前沿企業(yè)在推動人工智能治理規(guī)則和標準落地上發(fā)揮著決定性作用,是踐行治理規(guī)則和行業(yè)標準的中堅力量。當下人工智能領(lǐng)域內(nèi)產(chǎn)業(yè)界呈現(xiàn)出領(lǐng)先于學術(shù)界的發(fā)展態(tài)勢。2022
年,由產(chǎn)業(yè)界開發(fā)的機器學習模型數(shù)量高達
32
個,而學術(shù)界則只研發(fā)了
3
個。(見圖
2)一是建立人工智能行業(yè)治理共同體。微軟、谷歌、OpenAI
等成立前沿模型論壇,致力于推進人工智能安全研究,確定部署前沿人工智能模型的最佳實踐,并促進政企之間的信息共享。9韓國汽車、造船、機器人等十大主要行業(yè)領(lǐng)軍企業(yè)則啟動建立了包括政府部門、公共機構(gòu)及
400
多家國內(nèi)企業(yè)的跨行業(yè)人工智能聯(lián)盟,該聯(lián)盟將設(shè)立行業(yè)數(shù)據(jù)、法律法規(guī)兩個政策小組以推進人工智能治理。10二是企業(yè)內(nèi)部增設(shè)人工智能治理相關(guān)組織架構(gòu)。國內(nèi)外多家企業(yè)均設(shè)置了人工智能治理專門工作組。例如,微軟設(shè)置了三個機構(gòu)負責人工智能治理事務(wù),分別是
AI
辦公室、AI
戰(zhàn)略管理團隊以及人工智能、倫理與工程研究委員會。IBM
為踐行人工智能倫理治理成立了
AI
倫理委員會,9
參見/2023/07/26/google-openai-microsoft-anthropic-join-forces-promote-safe-ai-development/10
參見
/view.php?ud=2023072500058417大模型治理藍皮書—從規(guī)則走向?qū)嵺`(2023
年)以支持公司執(zhí)行人工智能倫理原則。商湯科技則成立
AI
倫理與治理委員會,統(tǒng)籌推進人工智能倫理治理工作體系建設(shè)。三是企業(yè)自身推動完善人工智能治理機制。一方面,企業(yè)提出治理原則和指南等構(gòu)建人工智能治理生態(tài)系統(tǒng)。2023
年
5
月,微軟發(fā)布《人工智能治理:未來藍圖》,提出治理人工智能的五大建議,例如應(yīng)建立并實施政府主導(dǎo)的人工智能安全框架,為控制關(guān)鍵基礎(chǔ)設(shè)施的人工智能系統(tǒng)部署安全“剎車”。另一方面,企業(yè)不斷創(chuàng)新治理工具來落實
AI
治理工作。在
2023
年
RSA
大會上,谷歌推出大模型網(wǎng)絡(luò)安全套件云安全AI
Workbench,將大模型引入網(wǎng)絡(luò)安全領(lǐng)域。來源:斯坦福
HAI圖
2
2002-2022
重要機器學習系統(tǒng)數(shù)量(按行業(yè)劃分)(三)治理機制:軟硬兼施推進大模型治理圍繞可信可控、以人為本、公平公正等人工智能治理價值目標,全球各國注重“剛?cè)岵?、軟硬兼施”,從柔性倫理?guī)范和硬性法律法規(guī)等維度發(fā)布具體的人工智能規(guī)則規(guī)范。根據(jù)世界經(jīng)合組織18大模型治理藍皮書—從規(guī)則走向?qū)嵺`(2023
年)(OECD)人工智能政策觀察站最新統(tǒng)計,已有
69
個國家和地區(qū)發(fā)布
800
多項人工智能政策。111.以軟法為引領(lǐng)的社會規(guī)范體系全球在人工智能治理中率先推進“軟法”創(chuàng)制,“軟法”與促進創(chuàng)新發(fā)展的治理需求有著天然的契合性。一般而言,倫理、行業(yè)標準等“軟法”的制定方式和周期更富彈性,參與主體具有高程度的協(xié)商性,內(nèi)容更細致更具針對性,有助于實現(xiàn)人工智能治理的敏捷化、多元化和場景化。近年來,主要國家和國際組織紛紛發(fā)布
AI
倫理原則和規(guī)范文件,例
如
G20《人工智能原則》、國際電氣和電子工程師協(xié)會(IEEE)《人工智能設(shè)計倫理準則》、歐盟《可信人工智能倫理指南》等。我國在《科學技術(shù)進步法》《關(guān)于加強科技倫理治理的意見》等頂層設(shè)計下,積極推進制定人工智能倫理治理規(guī)范,落實科技倫理審查、監(jiān)測預(yù)警、檢測評估等要求,提升公共服務(wù)水平,推動科技倫理治理技術(shù)化、工程化、標準化落地。伴隨大模型的應(yīng)用,軟法治理體現(xiàn)出以下趨勢特點:一是受地域文化、發(fā)展水平等因素影響,各國倫理治理重點存在分歧。西方國家更關(guān)注算法偏見歧視問題,保障少數(shù)族裔免受大模型應(yīng)用帶來的歧視風險。發(fā)展中國家更為重視透明度和可解釋性,保障新一輪人工智能浪潮下的國家數(shù)字主權(quán)。二是推進出臺可評估、可驗證的標準。為同步落實《人工智能法案》要求,歐盟委員會下發(fā)人工智能標準需求清單,歐盟立法委員直接參與標準工作,保障立法到標準的落地。11
參見
https://oecd.ai/en/dashboards/overview19大模型治理藍皮書—從規(guī)則走向?qū)嵺`(2023
年)愛爾蘭政府推出《人工智能標準和保證路線圖》,協(xié)助愛爾蘭企業(yè)以合乎道德的方式使用人工智能。三是提升人工智能的社會化服務(wù)水平。國際標準組織
IEEE
面向行業(yè)推出了人工智能治理認證制度。英國則發(fā)布《建立有效人工智能認證生態(tài)系統(tǒng)的路線圖》,建立包括影響評估、偏見審計、認證、性能測試等中立第三方服務(wù),力圖培育世界領(lǐng)先的人工智能認證行業(yè)。四
是出臺行為守則、指南文件等作為過渡階段的適用規(guī)則。在出臺正式的法律法規(guī)之前,部分國家率先發(fā)布行為守則等,為企業(yè)或政府利用大模型提供指引。例如,加拿大政府發(fā)布《生成式人工智能行為守則》,要求在《加拿大人工智能和數(shù)據(jù)法》生效之前,由加拿大公司自愿執(zhí)行。
美國波士頓發(fā)布全球首份《政12府應(yīng)用生成式人工智能臨時指南》,指南適用于除波士頓公立學校外的所有城市機構(gòu)和部門,列明了政府部門應(yīng)用大模型的部分示例用例及注意事項,例如不要在提示詞中包含機密信息等。2.以硬法為底線的風險防控體系面對大模型風險調(diào)整,建立完善“剛性”的硬法約束,通過構(gòu)建風險防控體系,提前布局、樹立起防火墻,把握大模型發(fā)展的底線以規(guī)避風險的發(fā)生。在新一輪人工智能浪潮中,以歐盟《人工智能法案》、我國《生成式人工智能服務(wù)管理暫行辦法》為代表的法律法規(guī)均受到各國高度關(guān)注。具體來看,體現(xiàn)如下趨勢特點:一是總體來看人工智能立法步伐加快,但仍有部分國家采取保守觀望態(tài)度。斯坦福報告顯示,大模型的廣泛應(yīng)用成為推動人工智能立12
參見
/s/xCfDeoWepskSVierIrUA4w20大模型治理藍皮書—從規(guī)則走向?qū)嵺`(2023
年)法的關(guān)鍵節(jié)點。2016
至
2022
年間全球
AI
法律的數(shù)量增加了
36
項,立法程序中提到人工智能的次數(shù)增長近
6.5
倍(見圖
3、圖
4)。美國參議院舒默等召開數(shù)次聽證會,提出《兩黨人工智能立法框架》,以加快立法進程。新加坡、印度則表示暫不監(jiān)管人工智能,印度信息技術(shù)部部長阿什溫尼·瓦什納在
2023
年
4
月表示,政府目前并未考慮出臺任何法律來規(guī)范人工智能在印度的發(fā)展。二是基于風險的分級分類方式仍然是大模型治理的重要訴求。在歐盟基于風險的治理理念影響下,分級分類成為平衡創(chuàng)新與發(fā)展的重要方式。歐盟-美國貿(mào)易和技術(shù)委員會發(fā)布了一份聯(lián)合聲明,重申“基于風險的(人工智能)方法,以推進值得信賴和負責任的人工智能技術(shù)”。日本提出風險鏈模型(Risk
Chain
Model),根據(jù)不同行業(yè)場景提出不同風險分級。德國電力電子與信息技術(shù)協(xié)會提出
VCIO
模型,指導(dǎo)使用者對應(yīng)用場景風險等級作出判斷。三是后發(fā)國家立法注重與已有法律框架的互操作性?!都幽么笕斯ぶ悄芎蛿?shù)據(jù)法》立法文件指出,該法案在關(guān)鍵定義和概念、采取以風險為基礎(chǔ)的監(jiān)管路徑等方面,均注重與人工智能領(lǐng)域的國際規(guī)范相銜接,包括歐盟《人工智能法案》、經(jīng)濟合作與發(fā)展組織《人工智能原則》和美國
NIST《人工智能風險管理框架》等。四是在傳統(tǒng)法律框架下探索有效、靈活的執(zhí)法手段。例如美國注重利用傳統(tǒng)立法,例如反歧視法、消費者權(quán)益保護法、競爭法等現(xiàn)有法規(guī),來打擊詐騙、虛假宣傳、欺騙性廣告、不公平競爭等行為,并采取相應(yīng)處罰措施,甚至要求公司刪除根據(jù)不正當數(shù)據(jù)訓練出的算法。21大模型治理藍皮書—從規(guī)則走向?qū)嵺`(2023
年)來源13:中國信息通信研究院根據(jù)斯坦福
HAI
報告數(shù)據(jù)整理圖
3
2016-22
年
81
個選定國家立法程序中提及人工智能的次數(shù)來源:中國信息通信研究院根據(jù)斯坦福
HAI
報告數(shù)據(jù)整理圖
4
2016-22
年
127
個選定國家人工智能相關(guān)立法數(shù)量三、聚焦大模型治理核心議題規(guī)則13
數(shù)據(jù)來源:斯坦福
HAI《2023
人工智能指數(shù)報告》22大模型治理藍皮書—從規(guī)則走向?qū)嵺`(2023
年)如何構(gòu)建高質(zhì)量數(shù)據(jù)集,如何更新知識產(chǎn)權(quán)制度以激勵創(chuàng)新,如何實現(xiàn)價值對齊等問題,是大模型帶來的新興問題挑戰(zhàn)。基于此,本章設(shè)定四大議題予以回應(yīng)。(一)數(shù)據(jù)治理規(guī)則1.構(gòu)建高質(zhì)量數(shù)據(jù)集高質(zhì)量訓練數(shù)據(jù)是大模型發(fā)展的基礎(chǔ)。數(shù)據(jù)作為新型生產(chǎn)要素,是人工智能技術(shù)創(chuàng)新和產(chǎn)業(yè)應(yīng)用的基礎(chǔ)。在大模型時代,數(shù)據(jù)質(zhì)量的重要性大幅提升。當前,以模型為中心的傳統(tǒng)開發(fā)模式逐漸式微,巨量優(yōu)質(zhì)數(shù)據(jù)堆疊對模型表現(xiàn)的提升效果遠優(yōu)于微小的算法改動,因此數(shù)據(jù)成為大模型開發(fā)的核心要素。以
GPT
為例,GPT-1
只使用了
4629MB
文本數(shù)據(jù),GPT-2
使用了
40
GB
從
爬取并篩選的文本,而GPT-3
用了至少
45TB
的純文本,GPT-4
的數(shù)據(jù)需求量更隨著模型參數(shù)的躍升而顯著增加。我國高質(zhì)量中文數(shù)據(jù)集尤為匱乏,當前用于大模型訓練的英文文本較中文文本更為規(guī)范、豐富,針對中文文本的標注規(guī)范、質(zhì)量把控、成果激勵等均有不足。對于數(shù)據(jù)質(zhì)量差而帶來的負面影響,“1-10-100”數(shù)據(jù)法則指出,如果最初用于驗證數(shù)據(jù)的成本是
1
美元,則糾正錯誤數(shù)據(jù)則需
10
美元,可能導(dǎo)致的業(yè)務(wù)成本增加將達
100
美元。在大模型開發(fā)中,這種負面影響將因模型改進對數(shù)據(jù)依賴性增強而呈指數(shù)放大,除影響企業(yè)成本、收入外,還將增加數(shù)據(jù)生態(tài)系統(tǒng)的復(fù)雜性,最終可能導(dǎo)致模型訓練失敗。數(shù)據(jù)流通共享是建立高質(zhì)量數(shù)據(jù)集的前提。高質(zhì)量數(shù)據(jù)集需要經(jīng)歷數(shù)據(jù)資源化、數(shù)據(jù)共享、交易流通與分析應(yīng)用等數(shù)據(jù)價值化過程;23大模型治理藍皮書—從規(guī)則走向?qū)嵺`(2023
年)尤其是其中的流通共享環(huán)節(jié),有利于充分發(fā)揮數(shù)據(jù)可無損地被重復(fù)利用的潛在價值。14各主要經(jīng)濟體制定促進數(shù)據(jù)流通共享的框架法規(guī)。2023
年
3
月,美白宮
OSTP
正式發(fā)布《國家戰(zhàn)略:推進隱私保護的數(shù)據(jù)共享與分析》15,旨在通過技術(shù)手段推動公共和私營部門數(shù)據(jù)共享,實現(xiàn)“負責任地利用隱私保護的數(shù)據(jù)共享與分析來造福個人和社會”的愿景。16歐盟《人工智能法案》提出,歐盟委員會建立的歐洲共同數(shù)據(jù)空間以及促進企業(yè)之間和與政府之間的公共數(shù)據(jù)共享,將有助于為人工智能系統(tǒng)的訓練、驗證和測試提供可信的、可問責的和非歧視性的高質(zhì)量數(shù)據(jù)訪問。為充分利用歐盟本土數(shù)據(jù),2022
年
3
月,美國積極推動與歐盟達成“歐盟-美國數(shù)據(jù)隱私框架(DPA)”,該框架于
2023
年
7
月被歐盟委員會批準通過,使美國公司可以在新的監(jiān)管要求下,在美國和歐盟之間自由傳輸個人數(shù)據(jù)。為促進商業(yè)數(shù)據(jù)流通共享,中國在《反不正當競爭法(修訂草案征求意見稿)》第十八條提出“獲取、使用或者披露與公眾可以無償利用的信息相同的數(shù)據(jù)”,不屬于其所稱對商業(yè)數(shù)據(jù)的不正當獲取或使用。但目前數(shù)據(jù)的流通共享仍存在一些阻礙。數(shù)據(jù)權(quán)屬的界定問題、權(quán)責不清問題、平臺經(jīng)濟生態(tài)封閉問題等成為降低數(shù)據(jù)要素市場供需匹配效率、阻礙數(shù)據(jù)流通共享的重要原因。在我國,數(shù)據(jù)要素入場交易仍存在多重壁壘,全國各地雖已建設(shè)或建成諸多數(shù)據(jù)交易平臺,但實際交易流量與活躍14
參見
/s/S8VmeOHh7CB1yIOjapwyqw.15
參見
/s/_B8mE5swyAxDR2Lh1cVnFQ.16
參見
/articles/crs-congress-should-consider-data-privacy-in-generative-ai-regulation/.24大模型治理藍皮書—從規(guī)則走向?qū)嵺`(2023
年)度偏低;數(shù)據(jù)市場交易主體及模式也較為單一,數(shù)據(jù)資源挖掘能力和供需關(guān)系匹配能力較弱。17數(shù)據(jù)標注是提升數(shù)據(jù)集質(zhì)量的重要環(huán)節(jié)。一是數(shù)據(jù)標注是大模型開發(fā)訓練的關(guān)鍵環(huán)節(jié)。初始數(shù)據(jù)通常是雜亂無章、不具有直接使用價值的,因此需要對數(shù)據(jù)進行不同形式的標注,方可滿足模型訓練的質(zhì)量要求。作為大模型開發(fā)與訓練不可或缺的上游環(huán)節(jié),數(shù)據(jù)標注的工作高效性、標準一致性與結(jié)果準確性,將直接影響有效數(shù)據(jù)集的生產(chǎn)速度、適用范圍與質(zhì)量水平。二是當前數(shù)據(jù)加工產(chǎn)業(yè)高速發(fā)展,大模型推動數(shù)據(jù)標注在產(chǎn)業(yè)應(yīng)用模式上迅速革新。當前,隨著數(shù)據(jù)要素市場化配置進程加速、生產(chǎn)力度加大,數(shù)據(jù)標注產(chǎn)業(yè)迎來快速發(fā)展階段,2021
年我國數(shù)據(jù)標注行業(yè)市場規(guī)模已達到
43.3
億元。18數(shù)據(jù)標注在產(chǎn)業(yè)應(yīng)用上正經(jīng)歷著從外包手動標注到一體化數(shù)據(jù)處理的模式變革。過去,多數(shù)公司委托外包公司或眾包平臺,對數(shù)據(jù)集進行手動標注,以提升數(shù)據(jù)集質(zhì)量;后來,隨著大模型對數(shù)據(jù)需求的提升,單靠人力已無法滿足數(shù)據(jù)供給的效率要求,一體化的數(shù)據(jù)處理平臺、算法工具鏈開始發(fā)展起來,并在行業(yè)中得到了廣泛的應(yīng)用。三是數(shù)據(jù)標注規(guī)范逐步完善?!渡墒饺斯ぶ悄芊?wù)管理暫行辦法》第八條要求,在生成式人工智能技術(shù)研發(fā)過程中進行數(shù)據(jù)標注的,提供者應(yīng)當制定符合本辦法要求的清晰、具體、可操作的標注規(guī)則;開展數(shù)據(jù)標注質(zhì)量評估,抽樣核驗標注內(nèi)容的準確性;對標注人員進行必要培訓,提升遵法守法意識,監(jiān)督指導(dǎo)標注人員規(guī)范開展標注工作。此外,我國出臺17
參見陳蕾、薛欽源:《著力構(gòu)建高質(zhì)量數(shù)據(jù)要素市場》,載《中國社會科學報》2023
年第
3
期。18
參見
/s/JGc-iPFDESgTz9riM7MTug.25大模型治理藍皮書—從規(guī)則走向?qū)嵺`(2023
年)《人工智能面向機器學習的數(shù)據(jù)標注規(guī)程》《大同市促進數(shù)據(jù)呼叫(標注)產(chǎn)業(yè)發(fā)展的若干政策》等相關(guān)政策標準,細化數(shù)據(jù)標注規(guī)范。合成數(shù)據(jù)成為未來大模型訓練重要數(shù)據(jù)來源。合成數(shù)據(jù)是通過計算機模擬技術(shù)或者算法創(chuàng)建、生成的,在數(shù)學、物理或者統(tǒng)計學上可以反映真實世界數(shù)據(jù)屬性的自標注信息。MIT
科技評論將
AI
合成數(shù)據(jù)列為
2022
年
10
大突破性技術(shù)之一。第一,合成數(shù)據(jù)誕生于高質(zhì)量數(shù)據(jù)集匱乏的大背景之下。當前社會中充斥著大量如聊天記錄等連續(xù)性弱、邏輯性差、訓練作用有限的低質(zhì)量數(shù)據(jù),造成了有效數(shù)據(jù)的稀缺
;GPT-3
的開發(fā)文檔揭露,其對純文本數(shù)據(jù)進行質(zhì)量過濾后僅可獲得
1.27%有效數(shù)據(jù)。此外,在隱私保護、知識產(chǎn)權(quán)、信息壟斷等因素作用下,特殊行業(yè)的高質(zhì)量數(shù)據(jù)難以獲取,即使獲取也時常無法進入訓練集使用。專家警告,ChatGPT
等人工智能驅(qū)動的機器人可能很快就會“耗盡宇宙中的文本”;更有研究在探討了數(shù)據(jù)短缺的可能性后預(yù)測,按照目前的模型增長速度,到
2026
年左右,高質(zhì)量
NLP
數(shù)據(jù)將會不足以支持訓練。19
第二,合成數(shù)據(jù)在生產(chǎn)效率提升、獲取成本降低、數(shù)據(jù)質(zhì)量提升、隱私/安全問題規(guī)避等方面具有顯著優(yōu)勢。在效率上,合成數(shù)據(jù)可以自動產(chǎn)生,緩解真實數(shù)據(jù)集增速有限的問題。在成本上,合成數(shù)據(jù)既能在采集方面節(jié)省數(shù)據(jù)采集團隊、數(shù)據(jù)回傳系統(tǒng)和數(shù)據(jù)篩選系統(tǒng),也因其自標注的特征在圖片標注上僅需花費人工標注約
1%的成本。在質(zhì)量上,合成數(shù)據(jù)為定向生產(chǎn)數(shù)據(jù)、定制大模型特征提供了可能,有利于保證數(shù)據(jù)的均衡性,解決真實數(shù)據(jù)長尾特19
參見
Pablo
Villalobos,
Jaime
Sevilla,Lennart
Heim,
Tamay
Besiroglu,Marius
Hobbhahn,Anson
Ho.Will
we
runout
of
data?
An
analysis
of
the
limits
of
scaling
datasets
in
Machine
Learning.arXiv
e-prints.26大模型治理藍皮書—從規(guī)則走向?qū)嵺`(2023
年)征導(dǎo)致的無法針對邊緣案例進行大模型訓練的問題,在
AI
訓練中發(fā)揮較真實數(shù)據(jù)同樣甚至更好的效果。20
在隱私與安全上,合成數(shù)據(jù)避免了基于真實數(shù)據(jù)常見的用戶隱私問題與國家安全問題,對于金融、醫(yī)療等數(shù)據(jù)開放度低、壟斷性強的領(lǐng)域具有重要意義。21
第三,當前,合成數(shù)據(jù)在全球范圍內(nèi)的應(yīng)用場景日益多元,產(chǎn)業(yè)細分化程度逐漸提升,未來的人工智能或?qū)⒁蕾嚭铣蓴?shù)據(jù)進行訓練。合成數(shù)據(jù)早期主要應(yīng)用于計算機視覺領(lǐng)域,借此解決自動駕駛汽車、機器人、安防、制造業(yè)等行業(yè)中真實數(shù)據(jù)難以獲取的問題。例如,騰訊開發(fā)的自動駕駛仿真系統(tǒng)
TAD
Sim
可以自動生成無需標注的各種交通場景數(shù)據(jù),助力自動駕駛系統(tǒng)開發(fā)。目前,合成數(shù)據(jù)正迅速向金融、醫(yī)療、零售、工業(yè)等諸多產(chǎn)業(yè)領(lǐng)域拓展應(yīng)用。微軟、OpenAI、Cohere
等公司,紛紛轉(zhuǎn)向使用合成數(shù)據(jù)作為解決方案,以降低數(shù)據(jù)成本,推動
AI
技術(shù)的發(fā)展。在此需求之下,針對各種應(yīng)用情景的合成數(shù)據(jù)創(chuàng)業(yè)公司應(yīng)運而生,產(chǎn)業(yè)整體正在向更細分化、專業(yè)化的方向發(fā)展。Gartner
預(yù)測,到
2024
年用于訓練
AI
的數(shù)據(jù)中有
60%將是合成數(shù)據(jù),到
2030
年合成數(shù)據(jù)將徹底取代真實數(shù)據(jù),成為訓練人工智能的主要數(shù)據(jù)來源。2.數(shù)據(jù)隱私保護各國探索在現(xiàn)有的個人信息保護框架下應(yīng)對大模型帶來的隱私風險。一是在人工智能立法中援引已有的個人信息保護法律規(guī)則。例如,歐盟《人工智能法案》第
45
條要求,在人工智能系統(tǒng)全生命周20
參見
/2022/synthetic-data-ai-improvements-1103.21
參見曹建峰、陳楚儀:《AIGC
浪潮下,合成數(shù)據(jù)關(guān)乎人工智能的未來》,載《新經(jīng)濟導(dǎo)刊》2022
年第
4期,第
25-31
頁。27大模型治理藍皮書—從規(guī)則走向?qū)嵺`(2023
年)期中,應(yīng)當保障個人數(shù)據(jù)權(quán)利,要求數(shù)據(jù)收集和處理符合《通用數(shù)據(jù)保護條例》的規(guī)定。我國《生成式人工智能服務(wù)管理暫行辦法》第七條規(guī)定,生成式人工智能服務(wù)提供者應(yīng)當使用具有合法來源的數(shù)據(jù)依法開展預(yù)訓練、優(yōu)化訓練等訓練數(shù)據(jù)處理活動,遵守《個人信息保護法》等法律。二是出臺解釋性或指引性規(guī)則保障數(shù)據(jù)隱私。法國數(shù)據(jù)保護監(jiān)管機構(gòu)
CNIL
發(fā)布《人工智能:國家信息與自由委員會(CNIL)行動計劃》指出,未來幾個月將重點關(guān)注
ChatGPT
等大模型技術(shù),開發(fā)隱私友好型人工智能系統(tǒng)、開發(fā)審計和控制人工智能的手段、探索最佳實踐等。22
4
月,英國信息專員辦公室(ICO)發(fā)布開發(fā)或使用
AIGC
的指南文件,列明了
ICO
重點關(guān)注的八大領(lǐng)域,包括處理個人數(shù)據(jù)的合法依據(jù)、數(shù)據(jù)保護影響評估、限制不必要處理等內(nèi)容。新加坡個人數(shù)據(jù)保護委員會(PDPC)研究生成式人工智能對新加坡《個人數(shù)據(jù)保護法》的影響,發(fā)布《關(guān)于在人工智能推薦與決策系統(tǒng)中使用個人數(shù)據(jù)的建議指南草案》。23三是積極探索監(jiān)管沙盒等創(chuàng)新治理手段。挪威數(shù)據(jù)保護監(jiān)管機構(gòu)嘗試對處理個人信息的人工智能企業(yè)進行沙盒測試,在安全可控的環(huán)境中測試人工智能處理個人信息的影響。24訓練數(shù)據(jù)的合法性基礎(chǔ)是個人信息保護的焦點問題。訓練數(shù)據(jù)的來源包括企業(yè)直接收集、網(wǎng)絡(luò)抓取、使用開源數(shù)據(jù)集和通過商業(yè)途徑22
參見《人工智能:國家信息與自由委員會(CNIL)的行動計劃》,il.fr/en/artificial-intelligence-action-plan-cnil23
參見《關(guān)于在人工智能推薦與決策系統(tǒng)中使用個人數(shù)據(jù)的建議指南草案》,.sg/-/media/Files/PDPC/PDF-Files/Legislation-and-Guidelines/Public-Consult-on-Proposed-AG-on-Use-of-PD-in-AI-Recommendation-and-Systems-2023-07-18-Draft-Advisory-Guidelines.pdf24
參見《挪威
DPA
關(guān)于在
Ruter
參與
AI
監(jiān)管沙盒的最終報告》,https://www.datatilsynet.no/en/regulations-and-tools/sandbox-for-artificial-intelligence/reports/ruter-exit-report-on-track-with-artificial-intelligence/going-forward/.28大模型治理藍皮書—從規(guī)則走向?qū)嵺`(2023
年)獲取等途徑。企業(yè)直接收集數(shù)據(jù)應(yīng)取得使用數(shù)據(jù)的合法性基礎(chǔ)。當超出原有目的,將有關(guān)個人信息用作模型訓練時,如何取得相應(yīng)的合法性基礎(chǔ)?對此,百度等開發(fā)大模型的廠商在其隱私協(xié)議中指出,在使用用戶的個人信息前,會對個人信息進行匿名化或去標識化處理,以達到無法識別具體個人的程度。25OECD
在今年
2
月份發(fā)布的《推進人工智能的可問責原則》的數(shù)字經(jīng)濟文件中強調(diào),無論是在用于訓練的數(shù)據(jù)集中還是在終端用戶可以訪問的數(shù)據(jù)集中,應(yīng)當進行敏感數(shù)據(jù)和個人數(shù)據(jù)的識別。26如模型涉及提取人臉、聲紋等敏感個人信息用于人臉識別、對比、關(guān)聯(lián)與挖掘,在訓練數(shù)據(jù)獲取前需通過產(chǎn)品端上單獨的彈窗、協(xié)議或其他單獨的授權(quán)頁面等“選擇加入”(opt-in)的方式獲得個人信息主體的單獨同意。通過商業(yè)途徑獲得授權(quán)的訓練數(shù)據(jù),應(yīng)要求交易方提供語料合法性證明。美國加州《刪除法》(TheDelete
Act)提出應(yīng)允許個人要求數(shù)據(jù)經(jīng)紀商刪除其個人信息,減少公民個人信息在數(shù)據(jù)交易中泄露的可能。27從采買、外部采集等外部渠道獲取的敏感個人信息用于模型訓練的目的,需要和個人信息權(quán)利主體單獨簽署《個人信息授權(quán)書》等相關(guān)授權(quán)文件,文件中需明確寫明收集的敏感個人信息的類型以及使用的場景與目的,不得超出授權(quán)的范圍對敏感個人信息進行使用。網(wǎng)絡(luò)抓取訓練數(shù)據(jù)應(yīng)合法進行。澳大利亞信息專員辦公室聯(lián)合其他
11
個國家的數(shù)據(jù)和隱私保護機構(gòu),發(fā)布《關(guān)于數(shù)據(jù)抓取和隱私保護的聯(lián)合聲明》,旨在說明社交媒體公25
參見《文心一言個人信息保護規(guī)則》,/talk/protectionrule/android.26
參見《推進人工智能的可問責原則》,/docserver/2448f04b-en.pdf?expires=1699552106&id=id&accname=guest&checksum=F7E1FC3A212BF83F1BF2AB818C22EE3F.27
參見
Trahan,
Edwards,
Cassidy,
Ossoff
Reintroduce
Bicameral
Bill
to
Rein
in
Data
Brokers,/news/documentsingle.aspx?DocumentID=2934.29大模型治理藍皮書—從規(guī)則走向?qū)嵺`(2023
年)司和個人網(wǎng)站如何保護個人信息免受非法抓取,以滿足監(jiān)管需求。28開源數(shù)據(jù)集的使用應(yīng)當遵守開源協(xié)議或者取得相應(yīng)授權(quán)文件。2023年
10
月,全國信安標委發(fā)布《生成式人工智能服務(wù)
安全基本要求》(征求意見稿)第
5
條規(guī)定,生成式人工智能服務(wù)的提供者應(yīng)當對生成式人工智能的語料來源進行評估,通過開源協(xié)議獲得的語料應(yīng)當遵守開源協(xié)議或者相應(yīng)授權(quán)文件。使用包含個人信息的語料時,獲得對應(yīng)個人信息主體的授權(quán)同意,或滿足其他合法使用該個人信息的條件。專欄
1:金融領(lǐng)域考慮數(shù)據(jù)安全而謹慎應(yīng)用大模型服務(wù)根據(jù)彭博社在今年二月的報道,美國銀行、花旗集團、德意志銀行、高盛集團和富國銀行等多家金融機構(gòu)在不同程度上限制類似ChatGPT
等大模型產(chǎn)品的應(yīng)用。富國銀行的發(fā)言人表示,其在評估ChatGPT
等應(yīng)用的安全性之前,將繼續(xù)限制其在本機構(gòu)的應(yīng)用。292023年
3
月
20
日,OpenAI
開源代碼庫出現(xiàn)漏洞,導(dǎo)致
1.2%ChatGPT
付費用戶的姓名、賬戶信息、聊天記錄等數(shù)據(jù)泄露,引發(fā)全球數(shù)據(jù)安全和隱私憂慮。由于金融業(yè)對身份信息、金融資產(chǎn)、交易記錄、信用歷史等數(shù)據(jù)流動的合規(guī)要求較高,在數(shù)據(jù)安全和隱私保護方面面臨巨大挑戰(zhàn),金融機構(gòu)對于大模型在其業(yè)務(wù)中的應(yīng)用顯得更為謹慎。2022年
10
月,中國人民銀行發(fā)布并實施《金融領(lǐng)域科技倫理指引》,提出金融機構(gòu)應(yīng)當嚴格采取防護措施,嚴防隱私泄露,保護數(shù)據(jù)主體權(quán)利不受侵害。28
參見《關(guān)于數(shù)據(jù)抓取和隱私保護的聯(lián)合聲明》,.au/newsroom/global-expectations-of-social-media-platforms-and-other-sites-to-safeguard-against-unlawful-data-scraping.29
參見
/news/articles/2023-11-16/apple-plans-to-adopt-rcs-texting-standard-in-truce-with-android.30大模型治理藍皮書—從規(guī)則走向?qū)嵺`(2023
年)透明度和可問責是個人信息保護的重要制度保障。透明度方面,今年
7
月,美國聯(lián)邦貿(mào)易委員會(FTC)對
OpenAI
啟動新的民事調(diào)查質(zhì)詢(Civil
Investigative
Demand),在此次質(zhì)詢文本中,F(xiàn)TC
主要圍繞大模型產(chǎn)品設(shè)計了
49
個問題,其中特別包括了原始訓練數(shù)據(jù)和數(shù)據(jù)隱私保護政策,要求
OpenAI
披露相關(guān)信息,提供相關(guān)說明。美國參議院召開聽證會討論《人工智能兩黨立法框架》,框架要求
AI開發(fā)和部署人員必須遵守與系統(tǒng)透明度相關(guān)的責任要求,包括披露AI
系統(tǒng)的訓練數(shù)據(jù)。30問責方面,OECD
在今年
2
月份發(fā)布的《推進人工智能的可問責原則》的數(shù)字經(jīng)濟文件中提到,在人工智能生命周期的不同階段采取不同技術(shù)相關(guān)和流程相關(guān)的方法來增加人工智能的透明度和可問責性。31英國政府于
2023
年
3
月發(fā)布的《人工智能監(jiān)管:支持創(chuàng)新的方法》中,將問責和管理原則列為其五項核心原則之一。同時,該原則也是英國數(shù)據(jù)監(jiān)管機關(guān)在監(jiān)管人工智能使用和生成個人數(shù)據(jù)方面的重點關(guān)注。32以刪除權(quán)為代表的個人信息權(quán)益實現(xiàn)面臨實踐困境。美國國會研究處發(fā)布的《生成式人工智能與數(shù)據(jù)隱私:入門指南》指出,目前,大多數(shù)領(lǐng)先的聊天機器人和其他人工智能模型并不提供讓用戶刪除其個人信息的選項。國會可能會考慮要求公司為用戶提供退出數(shù)據(jù)收集的選項(Opt-out),或要求公司提供機制,讓用戶能夠從現(xiàn)有數(shù)據(jù)30
參見《人工智能兩黨立法框架》,/imo/media/doc/09072023bipartisanaiframework.pdf.31
參見《推進人工智能的可問責原則》,/science-and-technology/advancing-accountability-in-ai_2448f04b-en.32
參見《人工智能監(jiān)管:支持創(chuàng)新的方法
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
- 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 裝載機用車合同(2篇)
- 第24課《愚公移山》八年級語文上冊精講同步課堂(統(tǒng)編版)
- 2024年吉林省長春市中考地理真題卷及答案解析
- 16.1《赤壁賦》-高一語文上學期同步備課拓展(統(tǒng)編版必修上冊)
- 說課稿課件政治
- 西京學院《現(xiàn)代教育技術(shù)》2023-2024學年第一學期期末試卷
- 西京學院《企業(yè)級框架基礎(chǔ)》2021-2022學年期末試卷
- 社區(qū)環(huán)境 課件
- 外研版必修一module2-mynewteachers(reading)課件
- 西華師范大學《裝飾繪畫》2022-2023學年第一學期期末試卷
- 小學關(guān)工委制度范本
- 當代大學生幸福感課件
- 人感染H7N9禽流感流行病學調(diào)查方案
- 職業(yè)規(guī)劃大賽機器人工程
- 2024年房顫合并冠心病的抗栓治療pptx
- 五年級科學 《光的反射》 一等獎
- 如何提高個人征信評分
- 《商朝的發(fā)展》課件
- 肺疾病護理的新進展與研究
- 貴州省黔東南州2022-2023學年七年級上學期期末文化水平測試數(shù)學試卷(含答案)
- 《農(nóng)村三資管理管理》課件
評論
0/150
提交評論