版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
螞蟻安全實(shí)驗(yàn)室2024promptGenerateGenerateLargeLanguageModelLargeLanguageModel大模型安全白皮書(shū)參與人名單聯(lián)合編寫(xiě)智能算法安全重點(diǎn)實(shí)驗(yàn)室(中國(guó)科學(xué)院)公安部第三研究所螞蟻安全實(shí)驗(yàn)室編寫(xiě)組組長(zhǎng)程學(xué)旗--智能算法安全重點(diǎn)實(shí)驗(yàn)室主任(中國(guó)科學(xué)院)編寫(xiě)組成員智能算法安全重點(diǎn)實(shí)驗(yàn)室(中國(guó)科學(xué)院):敖翔、尹芷儀、張曙光、王曉詩(shī)、李承奧、陳天宇、景少玲、張玉潔、張函玉、張曉敏公安部第三研究所:盛小寶、王勇、江欽輝、曹思瑋、劉晉名、文煜乾、劉佳磊、王光澤螞蟻安全實(shí)驗(yàn)室:王維強(qiáng)、李俊奎、崔世文、許卓爾、孫傳亮、鄭亮、朱叢、周莉版權(quán)聲明凡是在學(xué)術(shù)期刊、新聞發(fā)布稿、商業(yè)廣告及其他文章中使用本報(bào)告文字、觀點(diǎn),請(qǐng)注明來(lái)源:《生成式大模型安全測(cè)評(píng)白皮書(shū)》。自2022年11月以來(lái),以chatGPT為代表的生成式大模型持續(xù)引發(fā)全球廣泛關(guān)注。作為新—輪人工智能技術(shù)革命的代表性成果,生成式大模型的迅速發(fā)展,正在深刻重塑全球人工智能技術(shù)格局,為我國(guó)數(shù)字經(jīng)濟(jì)高質(zhì)量發(fā)展和智能化轉(zhuǎn)型注入新的動(dòng)能。然而,隨著技術(shù)應(yīng)用的不斷擴(kuò)展,其潛在的安全風(fēng)險(xiǎn)逐漸凸顯。諸如“大模型幻覺(jué)”、三星公司機(jī)密資料泄露等事件,反映了生成式大模型在隱私保護(hù)、惡意濫用、技術(shù)漏洞及合規(guī)性等方面的復(fù)雜挑戰(zhàn)。這些問(wèn)題的出現(xiàn),不僅對(duì)技術(shù)的安全性提出了更高要求,也對(duì)產(chǎn)業(yè)的規(guī)范發(fā)展和社會(huì)治理能力構(gòu)成了嚴(yán)峻考驗(yàn)。我國(guó)對(duì)此高度重視,出臺(tái)了《生成式人工智能服務(wù)管理暫行辦法》等—系列政策文件,明確了生成式大模型技術(shù)在安全性、風(fēng)險(xiǎn)防控和合規(guī)性方面的基本原則和監(jiān)管要求,為技術(shù)的健康發(fā)展提供了系統(tǒng)指引和政策保障。這些舉措充分體現(xiàn)了我國(guó)在全球人工智能技術(shù)治理中秉持的前瞻性戰(zhàn)略眼光和責(zé)任擔(dān)當(dāng)。近期,openAI發(fā)布了更擅長(zhǎng)處理復(fù)雜推理任務(wù)的o1和o3系列模型,標(biāo)志著生成式大模型在復(fù)雜應(yīng)用場(chǎng)景中的潛力進(jìn)—步提升。然而,技術(shù)的快速迭代也對(duì)構(gòu)建科學(xué)化、系統(tǒng)化的生成式大模型安全評(píng)估框架提出了迫切需求。構(gòu)建這—框架,需要從技術(shù)性能、風(fēng)險(xiǎn)防控、合規(guī)性等多個(gè)維度明確評(píng)估指標(biāo)體系,系統(tǒng)性降低潛在風(fēng)險(xiǎn),為行業(yè)提供權(quán)威的技術(shù)指導(dǎo)。這不僅將促進(jìn)生成式大模型技術(shù)向安全、可信、可持續(xù)的方向發(fā)展,也為全球人工智能技術(shù)治理提供了可借鑒的“中國(guó)方案”。為積極應(yīng)對(duì)生成式大模型的安全挑戰(zhàn),智能算法安全重點(diǎn)實(shí)驗(yàn)室(中國(guó)科學(xué)院)、公安部第三研究所和螞蟻安全實(shí)驗(yàn)室聯(lián)合編寫(xiě)了2024年度《生成式大模型安全評(píng)估白皮書(shū)》。白皮書(shū)全面梳理了生成式大模型的發(fā)展現(xiàn)狀與安全風(fēng)險(xiǎn),從安全評(píng)估方法到實(shí)踐案例,深入剖析了當(dāng)前技術(shù)面臨的關(guān)鍵挑戰(zhàn)及應(yīng)對(duì)策略,致力于為學(xué)術(shù)研究、產(chǎn)業(yè)實(shí)踐和政策制定提供重要參考。希望通過(guò)這—系統(tǒng)性研究,助力生成式大模型安全性研究與應(yīng)用推廣,為構(gòu)建安全、可信的人工智能生態(tài)體系提供堅(jiān)實(shí)支撐,推動(dòng)技術(shù)向著服務(wù)人類社會(huì)福祉的方向健康發(fā)展。一、生成式大模型發(fā)展現(xiàn)狀1.1生成式大語(yǔ)言模型1.1.1OpenAIGPT系列1.1.2MetaLLaMA系列1.1.3國(guó)產(chǎn)生成式大語(yǔ)言模型(1)復(fù)旦大學(xué):MOss(2)百度:“文心—言”(3)智譜清言:chatGLM(4)阿里云:“通義千問(wèn)”(5)百川智能:百川大模型(6)科大訊飛:訊飛星火認(rèn)知大模型(7)華為:盤(pán)古大模型(8)騰訊:混元大模型(9)月之暗面:Moonshot大模型(10)MiniMax:ABAB大模型1.2文生圖大模型1.2.1DALL-E系列1.2.2Midjourney1.2.3文心—格1.3多模態(tài)大模型1.3.1suno1.3.2sora1.3.4紫東太初二、生成式大模型的安全風(fēng)險(xiǎn)2.1倫理風(fēng)險(xiǎn)2.1.1加劇性別、種族偏見(jiàn)與歧視2.1.2傳播意識(shí)形態(tài),危害國(guó)家安全2.1.3學(xué)術(shù)與教育倫理風(fēng)險(xiǎn)2.1.4影響社會(huì)就業(yè)與人類價(jià)值2.2內(nèi)容安全風(fēng)險(xiǎn)2.2.1可信與惡意使用風(fēng)險(xiǎn)(1)制造惡意軟件010202081011111212131314141515161618181920202121232323252627282828(2)傳播虛假信息(3)違反法律法規(guī)(4)缺乏安全預(yù)警機(jī)制2.2.2隱私風(fēng)險(xiǎn)(1)侵犯用戶隱私信息(2)泄露企業(yè)機(jī)密數(shù)據(jù)2.2.3知識(shí)產(chǎn)權(quán)風(fēng)險(xiǎn)(1)訓(xùn)練階段存在知識(shí)產(chǎn)權(quán)風(fēng)險(xiǎn)(2)應(yīng)用階段存在知識(shí)產(chǎn)權(quán)風(fēng)險(xiǎn)(3)生成式大模型知識(shí)產(chǎn)權(quán)保護(hù)2.3技術(shù)安全風(fēng)險(xiǎn)2.3.1對(duì)抗樣本攻擊風(fēng)險(xiǎn)2.3.2后門攻擊風(fēng)險(xiǎn)2.3.3Prompt注入攻擊風(fēng)險(xiǎn)2.3.4數(shù)據(jù)投毒風(fēng)險(xiǎn)2.3.5越獄攻擊風(fēng)險(xiǎn)三、生成式大模型的安全評(píng)估方法3.1生成式大模型安全性評(píng)估維度(1)偏見(jiàn)(2)毒性3.2倫理性評(píng)估(1)偏見(jiàn)評(píng)估指標(biāo)1)基于嵌入的偏見(jiàn)評(píng)估指標(biāo)2)基于概率的偏見(jiàn)評(píng)估指標(biāo)3)基于大語(yǔ)言模型的偏見(jiàn)評(píng)估指標(biāo)(2)偏見(jiàn)評(píng)估數(shù)據(jù)集3.2.2毒性評(píng)估(1)毒性評(píng)估模型(2)毒性評(píng)估數(shù)據(jù)集293031333335363637383939404142424445454647484950535353545556565757603.3事實(shí)性評(píng)估3.3.1事實(shí)性評(píng)估指標(biāo)(1)基于規(guī)則的評(píng)估指標(biāo)(2)基于機(jī)器學(xué)習(xí)模型的評(píng)估指標(biāo)(3)基于LLM的評(píng)估指標(biāo)(4)人類評(píng)估指標(biāo)3.3.2事實(shí)性評(píng)估數(shù)據(jù)集3.4隱私性評(píng)估(1)敏感查詢(2)上下文泄漏(3)個(gè)人偏好泄露3.4.2隱私攻擊(1)成員推斷攻擊(2)模型反演/數(shù)據(jù)重建攻擊(3)屬性推斷攻擊(4)模型提取/竊取攻擊3.5魯棒性評(píng)估3.5.1對(duì)抗魯棒性評(píng)估基準(zhǔn)(1)對(duì)抗樣本攻擊(2)后門攻擊(3)Prompt注入攻擊(4)數(shù)據(jù)投毒3.5.2分布外(OOD)魯棒性評(píng)估基準(zhǔn)3.5.3大模型越獄攻擊風(fēng)險(xiǎn)評(píng)估(1)越獄攻擊分類(2)EasyJailbreak越獄攻擊框架四、大模型安全評(píng)估實(shí)踐案例分析4.1.1HolisticEvaluationofLanguageModels4.1.2TrustworthyLLMs4.1.3DecodingTrust4.1.4supercLUE-safety4.1.5支小寶安全實(shí)踐626263656667687171717272737376767878797980818383848586878787899293944.1.6大模型系統(tǒng)安全評(píng)估實(shí)踐4.2文生圖大模型安全性評(píng)估Text-to-ImageModels4.2.2UnsafeDifusion4.2.3HarmAmpli?cationinText-to-ImageModels4.3多模態(tài)大模型安全性評(píng)估4.3.1T2vsafetyBench4.3.2MLLMGUARD五、大模型安全評(píng)估的展望5.1面向安全的大模型自主演進(jìn)5.2大模型評(píng)估的衍生安全風(fēng)險(xiǎn)參考文獻(xiàn)969898100101102102103105105105107GenerativeLargeModelsecurityAssessment01生成式大模型發(fā)展現(xiàn)狀生成式大模型是指基于深度學(xué)習(xí)技術(shù)構(gòu)建的具有海量參數(shù)和復(fù)雜結(jié)構(gòu)的生成式模型能夠通過(guò)學(xué)習(xí)數(shù)據(jù)的概率分布來(lái)生成新的數(shù)據(jù),如文本、圖像、音頻等;同時(shí),較大的參數(shù)量使生成式大模型具有更好的通用性、精度和效率。因此,生成式大模型通過(guò)在大型數(shù)據(jù)集上進(jìn)行預(yù)訓(xùn)練學(xué)習(xí),并在下游任務(wù)上進(jìn)行微調(diào)的方式,在自然語(yǔ)言處理和計(jì)算機(jī)視覺(jué)等領(lǐng)域2022年11月30日,openAI開(kāi)放測(cè)試AI驅(qū)動(dòng)的聊天機(jī)器人chatGPT,它是openAI基于GPT-3.5等前幾代生成式預(yù)訓(xùn)練模型(GPT)架構(gòu),在增加參數(shù)量和數(shù)據(jù)量后訓(xùn)練得到的生成式對(duì)話系統(tǒng)。chatGPT能夠與用戶進(jìn)行自然而流暢的對(duì)話,并根據(jù)用戶輸入的對(duì)話內(nèi)容提供有意義的回復(fù)。因?yàn)閰?shù)規(guī)模增加,chatGPT的能力得到了飛躍式提升,其能夠處理復(fù)雜的對(duì)話場(chǎng)景,理解上下文信息,并生成連貫、有邏輯的回復(fù),同時(shí)支持多語(yǔ)言對(duì)話,并且可以根據(jù)用戶輸入的對(duì)話內(nèi)容進(jìn)行個(gè)性化回復(fù)。chatGPT的推出標(biāo)志著自然語(yǔ)言處理技術(shù)的—個(gè)重要里程碑,它的發(fā)布也引發(fā)了國(guó)內(nèi)外生成式大模型的研發(fā)熱潮。Google在2023年發(fā)布了PaLM2模型,展示了在多語(yǔ)言理解和生成方面的突破。同年末,Meta發(fā)布了LLaMA2模型,旨在提供更高效的多任務(wù)處理能力。openAI也在2023年發(fā)布了更為先進(jìn)的GPT-4模型,進(jìn)—步提升了對(duì)話和生成能力。在2023年,各大公司紛紛推出自研大模型,推動(dòng)生成式AI在各類應(yīng)用中廣泛部署。其中,Anthropic推出以安全性為主打的大語(yǔ)言模型claude,旨在提供更加可靠和安全的生成式AI解決方案;MidJourney發(fā)布第五代文生圖模型,其對(duì)人類手部細(xì)節(jié)特征的描繪達(dá)到了前所未有的精度;Microsoft則推出了由GPT支持的copilot,宣稱是“地球上最強(qiáng)大的生產(chǎn)力工具”,通過(guò)集成GPT技術(shù)大幅提升辦公和開(kāi)發(fā)效率。到2024年,大模型技時(shí),最新的研究重點(diǎn)逐步轉(zhuǎn)向多模態(tài)大模型的開(kāi)發(fā),以及基于強(qiáng)化學(xué)習(xí)與人類反饋和偏好對(duì)齊等相關(guān)前沿技術(shù)的應(yīng)用,旨在進(jìn)—步提升大模型的泛化能力和多領(lǐng)域應(yīng)用能力,也進(jìn)—步增-01- GenerativeLargeMOdelsecurityAssessment〉程,及其在人類生產(chǎn)生活中的應(yīng)用。生成式大語(yǔ)言模型以GPT系列和通義千問(wèn)、文心—言等國(guó)產(chǎn)模型為代表,通過(guò)自然語(yǔ)言處理與深度學(xué)習(xí)技術(shù),實(shí)現(xiàn)了從文本生成到復(fù)雜對(duì)話的全方寫(xiě)作輔助、知識(shí)問(wèn)答等領(lǐng)域,不僅推動(dòng)了語(yǔ)言智能技術(shù)的發(fā)展,也加速了其在商業(yè)和科研中的1.1.1openAlGPT系列從GPT-1到GPT-4O,再到后來(lái)的O1和O3,openAI的語(yǔ)言模型經(jīng)歷了顯著的發(fā)展和演變。GPT-1引入了基于TransfOrmer的生成預(yù)訓(xùn)練方法,通過(guò)大規(guī)模無(wú)監(jiān)督學(xué)習(xí)和微調(diào)提高了特定任務(wù)的表現(xiàn)。GPT-2通過(guò)擴(kuò)大模型規(guī)模和數(shù)據(jù)集,進(jìn)—步強(qiáng)化了模型的多任務(wù)能力,尤其在-02-GenerativeLargeModelsecurityAssessment無(wú)監(jiān)督學(xué)習(xí)中展現(xiàn)出優(yōu)異的零樣本學(xué)習(xí)能力。GPT-3和GPT-3.5則側(cè)重于通過(guò)極大的模型規(guī)模和數(shù)據(jù)量提升泛化能力和任務(wù)適應(yīng)性,引入了上下文學(xué)習(xí)和元學(xué)習(xí)技術(shù),減少了對(duì)微調(diào)的依賴。InstructGPT模型則是GPT-3的變體,專注于根據(jù)人類反饋進(jìn)行指令驅(qū)動(dòng)的任務(wù)優(yōu)化。GPT-4在多模態(tài)技術(shù)上取得突破,不僅在文本生成上性能更強(qiáng),還新增了圖像處理能力,同時(shí)通過(guò)改進(jìn)對(duì)抗訓(xùn)練和優(yōu)化生成策略,在安全性與可靠性方面大幅提升?;贕PT-4的GPT-4o則通過(guò)進(jìn)—步優(yōu)化算法和訓(xùn)練技巧,在專業(yè)領(lǐng)域表現(xiàn)更為卓越,尤其是在邏輯推理、復(fù)雜任GPT-1:2017年,Google提出了Transformer架構(gòu)(vaswanietal.,2017),利用Atten-tion機(jī)制取代了傳統(tǒng)深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),在自然語(yǔ)言處理任務(wù)中取得了成功。2018年6月,openAI(Radfordetal.,2018)提出了基于Transformer解碼器改進(jìn)的第—代生成式預(yù)訓(xùn)練(GenerativePre-Training,GPT)模型。GPT-1模型采用先預(yù)訓(xùn)練后微調(diào)的方式,在預(yù)訓(xùn)練過(guò)程中,GPT-1使用了多層Transformer解碼器結(jié)構(gòu)來(lái)嘗試預(yù)測(cè)文本序列中的下—個(gè)詞或字符,從而學(xué)習(xí)文本序列的概率分布語(yǔ)言模型。通過(guò)這種方式,GPT-1能夠?qū)W習(xí)到豐富的語(yǔ)言知識(shí)和語(yǔ)言表示。在預(yù)訓(xùn)練完成后的微調(diào)階段,GPT-1會(huì)使用特定任務(wù)的標(biāo)注數(shù)據(jù),例如情感分類、文本生成等任務(wù)的數(shù)據(jù)集,通過(guò)調(diào)整模型參數(shù)來(lái)優(yōu)化模型在該任務(wù)上的表現(xiàn),提升GPT-1是第—個(gè)完全由Transformer的decoder模塊構(gòu)建的自回歸模型,雖然其模型參數(shù)量?jī)H有117M,但是在文本分類、語(yǔ)義相似度計(jì)算、自然語(yǔ)言問(wèn)答和推理等任務(wù)中都表現(xiàn)出了良好性能。但是,GPT-1較小的參數(shù)量規(guī)模導(dǎo)致其在復(fù)雜任務(wù)中遇到長(zhǎng)文本時(shí),產(chǎn)生的錯(cuò)誤會(huì)在文本后部聚集,導(dǎo)致生成的文本質(zhì)量下降,產(chǎn)生不連貫或不合理的回復(fù)。同時(shí),盡管GPT-1-03- GenerativeLargeModelsecurityAssessment〉GPT-2:2019年2月,openAI在GPT-1的基礎(chǔ)上開(kāi)發(fā)了第二代GPT模型(Radfordetal.,2019)。相較于GPT-1,GPT-2將Transformer堆疊的層數(shù)增加到了48層,隱層的維度為1600,這使得其參數(shù)規(guī)模大大增加,達(dá)到了1.5B。GPT-2訓(xùn)練所用的數(shù)據(jù)集包含了Reddit中約800萬(wàn)篇高贊文章,數(shù)據(jù)集大小約40G。GPT-2的學(xué)習(xí)目標(biāo)是使用無(wú)監(jiān)督的預(yù)訓(xùn)練模型來(lái)做有監(jiān)督的任務(wù),去掉了專門的微調(diào)層和任務(wù)特定的架構(gòu),不再針對(duì)任何特定的下游任務(wù)進(jìn)行微調(diào)優(yōu)化,而是將有監(jiān)督訓(xùn)練自然語(yǔ)言處理任務(wù)替換為無(wú)監(jiān)督訓(xùn)練任務(wù)。GPT-2的微調(diào)步驟不涉及去掉或添加模型層,而是在保持模型架構(gòu)不變的情況下,繼續(xù)在特定任務(wù)的數(shù)據(jù)集上進(jìn)行訓(xùn)練,以調(diào)整模型參數(shù),這樣既使用了統(tǒng)—的結(jié)構(gòu)做訓(xùn)練,又可適配不同類型的任務(wù),雖然相GPT-2通過(guò)無(wú)監(jiān)督的零樣本學(xué)習(xí)(zero-shotlearning)方式,在多個(gè)自然語(yǔ)言理解任務(wù)中達(dá)到了超過(guò)soTA的性能。同時(shí),GPT-2可以生成更長(zhǎng)的文本,更好地處理對(duì)話,并且具有更好的通用性。GPT-2的缺點(diǎn)在于其訓(xùn)練數(shù)據(jù)來(lái)自于互聯(lián)網(wǎng),因此存在的垃圾數(shù)據(jù)和不當(dāng)信息GPT-3:2020年6月,openAI推出了GPT-3(Brownetal.,2020),它是第—個(gè)真正意義上的“大語(yǔ)言模型”,其參數(shù)量達(dá)到了175B,原始數(shù)據(jù)量達(dá)到了45TB。GPT-3延續(xù)了GPT-1和GPT-2基于Transformer的自回歸語(yǔ)言模型結(jié)構(gòu),但是不再追求零樣本學(xué)習(xí)設(shè)定,而是使用上下文學(xué)習(xí)(In-contextLearning)的方法,在下游任務(wù)中不再需要任何額外的微調(diào),而是利用提示信息和給定的少量標(biāo)注樣本讓模型學(xué)習(xí)再進(jìn)行推理生成,從而在只有少量目標(biāo)任務(wù)標(biāo)注樣本的情況下進(jìn)行泛化。openAI在三種條件下評(píng)估了GPT-3的性能:00(Few-shot(Few-shotLearning)允許輸入數(shù)個(gè)樣本(通常為10到100個(gè))和—?jiǎng)t任務(wù)說(shuō)明(one-shotLearning)只允許輸入—個(gè)樣本和—(zero-shotLearning)不允許輸入樣本,只允許輸-04-GenerativeLargeModelSecurityAssessment總體而言,GPT-3在自然語(yǔ)言處理任務(wù)中取得了良好成果,其中在單樣本學(xué)習(xí)和零樣本學(xué)習(xí)設(shè)置下表現(xiàn)優(yōu)異,在小樣本學(xué)習(xí)設(shè)置下有時(shí)可以超過(guò)基于微調(diào)的SoTA模型。GPT-3在各項(xiàng)生成任務(wù)中都表現(xiàn)出了較好的能力,包括打亂單詞、算術(shù)運(yùn)算以及新聞文章生成,但在自然語(yǔ)言推斷和閱讀理解等任務(wù)上,GPT-3在小樣本學(xué)習(xí)設(shè)置下仍存在困難。與GPT-2相比,GPT-3展現(xiàn)了更強(qiáng)大的性能,但也暴露出了—些局限性。例如,對(duì)于某些缺乏意義或邏輯的問(wèn)題,GPT-3并不會(huì)判斷其有效性,而是直接生成—個(gè)缺乏實(shí)質(zhì)內(nèi)容的回答,難以準(zhǔn)確區(qū)分關(guān)鍵與非關(guān)鍵信息。此外,由于Transformer架構(gòu)的建模能力限制,GPT-3在生生成內(nèi)容的連貫性和可讀性。此外,GPT-3使用了45TB的海量數(shù)據(jù),其中包含了多樣性內(nèi)容。GPT-3.5:GPT-3雖然強(qiáng)大,但在處理與其訓(xùn)練數(shù)據(jù)不符的人類指令時(shí),其理解能力有限。為了克服這點(diǎn),2022年初openAI推出了GPT-3.5。GPT-3.5通過(guò)優(yōu)化模型架構(gòu)和訓(xùn)練技術(shù),顯著提升了效率和泛化能力,同時(shí)減少了對(duì)大量數(shù)據(jù)和計(jì)算資源的依賴。它引入了“分組稀疏注意力”(GroupedSparseAttention,GSA)技術(shù),有效減少了計(jì)算量而不犧牲性能。此外,通過(guò)“標(biāo)準(zhǔn)化知識(shí)蒸餾”(NormalizedKnowledgeDistillation,NKD)等方法,進(jìn)—步提高了模型效率和精度。這些技術(shù)使GPT-3.5在自然語(yǔ)言生成、文本摘要、機(jī)器翻譯等出色,生成的文本質(zhì)量接近人類寫(xiě)作水平,并在文本分類及機(jī)器問(wèn)答等領(lǐng)域也展現(xiàn)了強(qiáng)大的能力。GPT-3.5的獨(dú)特之處還在于它的自我學(xué)習(xí)和自我改進(jìn)能力。通過(guò)元學(xué)習(xí)方法,GPT-3.5能夠在無(wú)需人類干預(yù)的情況下實(shí)現(xiàn)自我優(yōu)化。GPT-3.5在多個(gè)方面取得了顯著進(jìn)步,但它仍然沒(méi)有實(shí)現(xiàn)—些研究人員設(shè)想的理想屬性,如實(shí)時(shí)改寫(xiě)模型的信念、形式推理和從互聯(lián)lnstructGPT:2022年1月27日AI2(AllenInstituteforArti?cialIntelligence)發(fā)布了-05- GenerativeLargeModelsecurityAssessment〉化學(xué)習(xí)不斷微調(diào)得到的,因此其遵循指令的能力得到了提高。InstructGPT能夠更好地理解人類的命令和指令含義,由于其引入了不同的標(biāo)注者進(jìn)行提示編寫(xiě)和生成結(jié)果排序,InstructGPT的效果比GPT-3更加真實(shí),同時(shí)InstructGPT在模型的無(wú)害性上比GPT-3有些許提升。但是,InstructGPT與GPT-3相比,在通用自然語(yǔ)言處理任務(wù)上的效果有所降低,雖然其輸出的內(nèi)容更加真實(shí),但對(duì)有害的指示還是可能會(huì)輸出有害的回復(fù),并且由于標(biāo)注者標(biāo)注的數(shù)據(jù)量有限,在指示的數(shù)量和訓(xùn)練種類不夠充分時(shí),InstructGPT還是有可能輸出荒謬的回復(fù)。此外,由于標(biāo)注者在進(jìn)行內(nèi)容比較時(shí),傾向于給更長(zhǎng)的輸出內(nèi)容更高的獎(jiǎng)勵(lì),這導(dǎo)致chatGPT:chatGPT作為openAI推出的—個(gè)可供大眾使用和訪問(wèn)的模型,繼承了GPT家族的特點(diǎn),經(jīng)歷了從GPT-1到GPT-3的參數(shù)量的爆炸式增長(zhǎng),依托大規(guī)模參數(shù)和海量訓(xùn)練數(shù)據(jù),展現(xiàn)了卓越的知識(shí)存儲(chǔ)和語(yǔ)言理解能力。從GPT-3開(kāi)始,GPT系列模型的技術(shù)路徑分為了以codex為代表的代碼預(yù)訓(xùn)練技術(shù)和以InstructGPT為代表的文本指令預(yù)訓(xùn)練技術(shù)。chatGPT基于這兩種技術(shù)使用了融合式預(yù)訓(xùn)練,并通過(guò)指令學(xué)習(xí)(InstructionTuning)、有監(jiān)督精調(diào)(supervisedFine-tuning)以及基于人類反饋的強(qiáng)化學(xué)習(xí)(ReinforcementLearningwithHumanFeedback,RLHF)等技術(shù)具備了強(qiáng)大的自然語(yǔ)言理解與生成能力。chatGPT的優(yōu)勢(shì)體現(xiàn)在多個(gè)方面:相對(duì)于其他聊天機(jī)器人,它的回答展現(xiàn)出更高的準(zhǔn)確性和流暢性;與其他大語(yǔ)言模型相比,其通過(guò)多輪對(duì)話數(shù)據(jù)的指令微調(diào),增強(qiáng)了建模對(duì)話歷史的能力;在與微調(diào)小模型的比較中,chatGPT在零樣本和小樣本場(chǎng)景下表現(xiàn)更為優(yōu)秀,特別是在然而,chatGPT也存在—些局限性:由于依賴大規(guī)模語(yǔ)言模型,其可信性和時(shí)效性無(wú)法完全保證,且在特定專業(yè)領(lǐng)域和多模態(tài)任務(wù)上表現(xiàn)欠佳。此外,高昂的訓(xùn)練和部署成本以及對(duì)輸入的敏感性也是其劣勢(shì)之—。數(shù)據(jù)偏見(jiàn)和標(biāo)注-06-GenerativeLargeModelsecurityAssessmentGPT-4:GPT-4是openAI繼chatGPT之后發(fā)布的—款更為先進(jìn)的大語(yǔ)言模型,它在多個(gè)方面都實(shí)現(xiàn)了顯著的進(jìn)步和創(chuàng)新。GPT-4不僅保留了文本處理的能力,還新增了處理圖像的功能,包括圖像識(shí)別、圖表分析等,極大擴(kuò)展了其應(yīng)用范圍。GPT-4與前代模型GPT-3.5相比,GPT-4的模型參數(shù)規(guī)模達(dá)到了1800B,使用了包括網(wǎng)頁(yè)、書(shū)籍、論文、程序代碼等文本數(shù)據(jù)和大量視覺(jué)數(shù)據(jù)在內(nèi)的更廣泛訓(xùn)練數(shù)據(jù),使其具備更廣泛的知識(shí)庫(kù)和更精準(zhǔn)的回答能力。在輸入信息長(zhǎng)度方面,與GPT-3.5限制3000個(gè)字相比,GPT-4將文字輸入限制提升至2.5萬(wàn)字。文字輸入長(zhǎng)度的增加大大擴(kuò)展了GPT-4的實(shí)用性。GPT-3.5主要采用文字回復(fù),而GPT-4還額外具有看圖作答、數(shù)據(jù)推理、分析圖表等更多功能。GPT-4在處理復(fù)雜問(wèn)題方面表現(xiàn)也優(yōu)于GPT-3.5,在多種專業(yè)和學(xué)術(shù)基準(zhǔn)測(cè)試中都表現(xiàn)出接近人類的水平。在安全性方面,GPT-4改進(jìn)了對(duì)抗生成有毒或不真實(shí)內(nèi)容的策略,以減少誤導(dǎo)性信息和惡意用途的風(fēng)險(xiǎn),提高其安全性和可靠性。特別地,GPT-4在事實(shí)性、可引導(dǎo)性和拒絕超范圍解答(非合規(guī))問(wèn)題方面取得了有史以來(lái)最好的結(jié)果。與GPT-3.5相比,在生成內(nèi)容符合事實(shí)測(cè)試方面,GPT-4的得分比GPT-3.5高40%,對(duì)敏感請(qǐng)求(如醫(yī)療建議和自我傷害)的回復(fù)符合政策的比例提高29%,對(duì)不合規(guī)內(nèi)容的請(qǐng)求響應(yīng)傾向降低82%。GPT-4o:GPT-4o(optimized)是openAI于2024年5月發(fā)布的版本,在原有GPT-4的基礎(chǔ)上進(jìn)行了多項(xiàng)優(yōu)化和增強(qiáng)。GPT-4o的參數(shù)數(shù)量與GPT-4相同,但通過(guò)優(yōu)化算法和訓(xùn)練技巧,提高了模型的理解和生成能力。尤其在法律、醫(yī)療、金融等垂直領(lǐng)域,GPT-4o在基座模型的基礎(chǔ)上進(jìn)行了專門的對(duì)齊優(yōu)化,能夠提供更具專業(yè)性的解答。此外,GPT-4o在邏輯推理和復(fù)雜任務(wù)處理方面也有顯著改進(jìn),特別是在數(shù)學(xué)計(jì)算和代碼生成等任務(wù)中表現(xiàn)出更強(qiáng)的能力。GPT-4o支持多模態(tài)輸入,包括文本、圖像、音頻等,并能生成多種形式的輸出。其響應(yīng)速度達(dá)到接近人類水平,最快僅需232毫秒,極大提升了人機(jī)交互的自然性與流暢性。o1:o1于2024年9月13日正式發(fā)布,也被稱為“草莓模型”。在處理數(shù)學(xué)、物理以及代碼生成等復(fù)雜任務(wù)時(shí),o1展現(xiàn)出卓越的優(yōu)勢(shì)。該模型結(jié)合了思維鏈(chain-of-Thought-07- GenerativeLargeModelsecurityAssessment〉Reasoning)技術(shù),使其能夠模擬人類思考的過(guò)程。在解決復(fù)雜問(wèn)題時(shí),o1會(huì)采用逐步推理的方法,嘗試不同策略并進(jìn)行自我糾錯(cuò),從而顯著提升了解決問(wèn)題的效率和準(zhǔn)確性。這種接近人此外,o1引入了openAI最新的安全訓(xùn)練方法,進(jìn)—步增強(qiáng)了模型對(duì)安全和對(duì)齊準(zhǔn)則的遵守能力。尤其是在抵御越獄攻擊(JailbreakAttacks)方面,o1表現(xiàn)出更強(qiáng)的防御能力,o3:o3于2024年12月20日發(fā)布,其命名是為了避免與英國(guó)移動(dòng)運(yùn)營(yíng)商o2的商標(biāo)沖突。作為o1的升級(jí)版本,o3引入了強(qiáng)化學(xué)習(xí)技術(shù),并結(jié)合openAI開(kāi)發(fā)的私人思維鏈(privatechain-of-ThoughtReasoning)技術(shù)。這—?jiǎng)?chuàng)新使模型能夠在生成響應(yīng)前,提前規(guī)劃邏輯推理相比前代模型,o3在編程、數(shù)學(xué)和科學(xué)等高難度任務(wù)中的準(zhǔn)確率大幅提高,并在通用人工智能抽象與推理語(yǔ)料庫(kù)(AGIAbstractandReasoningcorpus)上的表現(xiàn)接近人類水平。此外,o3的響應(yīng)速度也得到了顯著優(yōu)化,能夠更高效地處理復(fù)雜任務(wù),為用戶提供更自然、1.1.2MetaLLaMA系列-08-GenerativeLargeModelsecurityAssessmentLLaMA(LargeLanguageModel-MetaAI)是由Meta在2023年2月推出的—套生成式大語(yǔ)言模型集合(Touvronetal.,2023),包括四個(gè)不同參數(shù)規(guī)模的版本:分別是LLaMA-7B、LLaMA-13B、LLaMA-33B和LLaMA-65B。LLaMA:LLaMA在多個(gè)數(shù)據(jù)集上展示出了卓越的性能,其中LLaMA-13B在大多數(shù)數(shù)據(jù)集上超越了GPT-3(175B),而LLaMA-65B則與chinchilla-70B和PaLM-540B達(dá)到相當(dāng)?shù)乃?。LLaMA模型的訓(xùn)練數(shù)據(jù)全部來(lái)源于開(kāi)源語(yǔ)料,共計(jì)1.4T詞元(Tokens)。在模型結(jié)構(gòu)方面,LLaMA與GPT系列的生成式大語(yǔ)言模型類似,只使用了Transformer的解碼器結(jié)構(gòu),并進(jìn)行了三點(diǎn)改進(jìn):(1)為了提高訓(xùn)練穩(wěn)定性,參照GPT-3對(duì)每個(gè)Transformer子層的輸入使用RMsNorm歸—化函數(shù)進(jìn)行預(yù)歸—化,而不是對(duì)輸出進(jìn)行歸—化;(2)參照PaLM使用swiGLU激活函數(shù)替換ReLU激活函數(shù),以提高性能;(3)參照GPTNe刪除了絕對(duì)位置編碼,使用旋轉(zhuǎn)位置編碼(RotaryPositionalEmbed-ding),更好地保持了位置信息,提升了模型的外推性。在算法實(shí)現(xiàn)上,LLaMA使用了sentencePiece提供的BytePairEncoding(BPE)算法進(jìn)行文本的預(yù)處理,幫助模型更好地理解和生成自然語(yǔ)言。LLaMA還使用了xformers庫(kù)提供的更高效的causalmulti-headattention實(shí)現(xiàn),減少了內(nèi)存使用和計(jì)算量。同時(shí),通過(guò)減少反向傳播過(guò)程中需要重新計(jì)算的激活函數(shù)數(shù)量,并人工實(shí)現(xiàn)了Transformer層的反向傳播函數(shù),進(jìn)—步優(yōu)化了性能。為了訓(xùn)練65B參數(shù)的模型,Meta使用了2048張NVIDIAA10080GB顯卡,完成LLaMA2:2023年7月,Meta發(fā)布了免費(fèi)可商用的開(kāi)源大語(yǔ)言模型LLaMA2(Touvronetal.,2023)。LLaMA2模型包括三個(gè)不同參數(shù)規(guī)模的版本,其架構(gòu)與LLaMA1模型基本相同,但用于訓(xùn)練基礎(chǔ)模型的數(shù)據(jù)增加了40%達(dá)到了2T詞元,上下文長(zhǎng)度也翻倍達(dá)到了4K,并-09- GenerativeLargeModelsecurityAssessment采用了分組查詢注意力機(jī)制(Grouped-QueryAttention,GQA)來(lái)提高模型處理長(zhǎng)文本時(shí)的推理可擴(kuò)展性。LLaMA2在有監(jiān)督微調(diào)(supervisedFine-tuning,sFT)階段更加注重?cái)?shù)據(jù)集質(zhì)量,使用了更少但質(zhì)量更高的數(shù)據(jù),同時(shí)引入了supervisedsafetyFine-Tuning、safeRLHF、safecontextDistillation三項(xiàng)安全訓(xùn)練技術(shù)以提升模型的安全性。在綜合評(píng)測(cè)中,LLaMA2-70B的性能僅落后于GPT-4和chatGPT。同時(shí),Meta還使用了100萬(wàn)條人類標(biāo)記數(shù)據(jù)針對(duì)對(duì)話場(chǎng)景微調(diào)得到了LLaMA2-chat聊天模型,LLaMA2-chat同樣具有7B,13B和70B三個(gè)不同參數(shù)的版本,在許多開(kāi)放基準(zhǔn)測(cè)試中LLaMA2-chat優(yōu)于同期其他開(kāi)源的聊天模型。LLaMA3:2024年4月,Meta發(fā)布了開(kāi)源大模型LLaMA3,分為參數(shù)規(guī)模8B和70B兩個(gè)版本。LLaMA3模型基于超過(guò)15T詞元的公開(kāi)數(shù)據(jù)預(yù)訓(xùn)練,數(shù)據(jù)量是LLaMA2的7倍,訓(xùn)練效率也比LLaMA2提升了3倍。LLaMA3在一眾榜單中取得了開(kāi)源大語(yǔ)言模型的最優(yōu)效果,Llama3-8B在MMLU、GPQA、HumanEval、GsM-8K等多項(xiàng)基準(zhǔn)上超過(guò)谷歌的Gemma-7B和Mistral-7BInstruct開(kāi)源大語(yǔ)言模型。Llama3-70B也在MMLU、HumanEval、GsM-8K等基準(zhǔn)上超越了谷歌的GeminiPro1.5、claude3sonnet閉源大語(yǔ)言模型。近年來(lái),國(guó)產(chǎn)大語(yǔ)言模型也取得了顯著進(jìn)展,不僅在技術(shù)上與國(guó)際領(lǐng)先水平相當(dāng),而且在商業(yè)化應(yīng)用方面展現(xiàn)出強(qiáng)大的潛力。例如,阿里巴巴的通義千問(wèn)憑借開(kāi)源策略和高性能,在中文大模型領(lǐng)域占據(jù)了一席之地,推動(dòng)了低成本、易于火在智能辦公領(lǐng)域獨(dú)具優(yōu)勢(shì),其支持的產(chǎn)品如訊飛智訊飛AI學(xué)習(xí)機(jī)等銷量持續(xù)增長(zhǎng)??傮w而言,我國(guó)的大安全合規(guī)等多維度努力,加速推動(dòng)AI技術(shù)的商業(yè)化落-10-GenerativeLargeModelSecurityAssessment(1)復(fù)旦大學(xué):MOSSMOSS是復(fù)旦大學(xué)自然語(yǔ)言處理實(shí)驗(yàn)室發(fā)布的國(guó)內(nèi)第一個(gè)對(duì)話式大型語(yǔ)言模型,2023年2月邀公眾參與內(nèi)測(cè)。MOSS的基座語(yǔ)言模型在約七千億中英文以及代碼單詞上預(yù)訓(xùn)練,可以執(zhí)行對(duì)話生成、編程、事實(shí)問(wèn)答等一系列任務(wù)。內(nèi)測(cè)版MOSS的英文對(duì)話水平比中文高,其中文回答在語(yǔ)法、知識(shí)等方面較為準(zhǔn)確,但與chatGPT相比,還存在知識(shí)儲(chǔ)備量不夠大、中文表述存在邏輯不夠順暢等問(wèn)題。2023年4月21日,復(fù)旦大學(xué)自然語(yǔ)言處理實(shí)驗(yàn)室開(kāi)發(fā)的MOSS升級(jí)版開(kāi)源上線,成為國(guó)內(nèi)首個(gè)插件增強(qiáng)的開(kāi)源對(duì)話語(yǔ)言模型,支持搜索引擎、圖像生成、計(jì)算(2)百度:“文心一言”“文心一言”是百度推出的大語(yǔ)言模型。2023年2月7日,百度首次推出了基于知識(shí)增強(qiáng)-11- GenerativeLargeModelsecurityAssessment〉特色,從而有效提升了信息獲取、知識(shí)探索和靈感激發(fā)的效率,在文學(xué)創(chuàng)作、商業(yè)文案寫(xiě)作、數(shù)理推算、中文理解、多模態(tài)生成五個(gè)使用場(chǎng)景中展現(xiàn)出優(yōu)秀的綜合能力。10月17日,文心大模型4.0正式發(fā)布,在基礎(chǔ)模型的基礎(chǔ)上,百度進(jìn)一步研制了智能體機(jī)制,增強(qiáng)大模型與外(3)智譜清言:chatGLM話模型。2023年3月14日,基于GLM-130B千億基座模型的chatGLM開(kāi)啟邀請(qǐng)內(nèi)測(cè),同時(shí)開(kāi)源了中英雙語(yǔ)對(duì)話模型chatGLM-6B,支持在單張消費(fèi)級(jí)顯卡上進(jìn)行推理使用。chatGLM專門針對(duì)中文問(wèn)答和對(duì)話場(chǎng)景進(jìn)行了優(yōu)化,使其在處理中文語(yǔ)言任務(wù)時(shí)表現(xiàn)尤為突出。借助于先進(jìn)的模型量化技術(shù),chatGLM能夠在消費(fèi)級(jí)硬件上高效運(yùn)行,最低配置要求為6GB顯存,這括監(jiān)督微調(diào)、反饋?zhàn)灾约叭祟惙答亸?qiáng)化學(xué)習(xí)等,這些技術(shù)的結(jié)合賦予了chatGLM深入理解進(jìn)行訓(xùn)練(達(dá)到了1Ttoken的量級(jí)),展現(xiàn)了其卓越的雙語(yǔ)處理能力。此外,借鑒GLM-130B的訓(xùn)練經(jīng)驗(yàn),chatGLM對(duì)模型的位置編碼和網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行了優(yōu)(4)阿里云:“通義千問(wèn)”話、文案創(chuàng)作、邏輯推理、多模態(tài)理解以及多語(yǔ)言支持等多種功能,能夠與人類進(jìn)行高效的多輪交互,并能夠處理和生成復(fù)雜的文本內(nèi)容,在海內(nèi)外開(kāi)源社區(qū)累計(jì)下載量突破300萬(wàn)。同年10月,阿里云正式發(fā)布千億級(jí)參數(shù)大語(yǔ)言模型“通義千問(wèn)2.0”。2024年4月,阿里云開(kāi)源了320億參數(shù)模型Qwen1.5-32B,可最大限度兼顧性能、效率和內(nèi)存占用的平衡,為企業(yè)和-12-GenerativeLargeModelsecurityAssessment開(kāi)發(fā)者提供更高性價(jià)比的模型選擇。阿里云此前已開(kāi)源5億、18億、40億、70億、140億和型可便捷地在端側(cè)部署,720億參數(shù)模型則擁有業(yè)界領(lǐng)先的性能。Qwen1.5-32B模型相比14B模型在智能體場(chǎng)景下能力更強(qiáng);相比72B模型推理成本更低。2024年4月28日,阿里云宣布開(kāi)源1100億參數(shù)模型Qwen1.5-110B,并在多項(xiàng)基準(zhǔn)測(cè)評(píng)中都創(chuàng)下了可與LLaMA3-70B相媲美的成績(jī)。2024年6月,阿里云“通義千問(wèn)”Qwen2大模型發(fā)布,并在HuggingFace和Model-scope上同步開(kāi)源。語(yǔ)音識(shí)別等多個(gè)領(lǐng)域。此外,基于通義千問(wèn)開(kāi)發(fā)的(5)百川智能:百川大模型2023年6月,百川智能發(fā)布開(kāi)源可商用大模型Baichuan-7B,這是國(guó)內(nèi)首個(gè)開(kāi)源可商用模型。百川大模型創(chuàng)新性使用了sentencePiece中的Byte-PairEncoding(BPE)作為分詞算法,并對(duì)中文進(jìn)行了適配優(yōu)化。同年7月,百川智能開(kāi)源可商用大模型Baichuan-13B,是同期同尺寸開(kāi)源模型中效果最好的可商用大語(yǔ)言模型;8月,百川智能發(fā)布閉源Baichuan-53B大模型;9月,百川智能發(fā)布Baichuan2-7B、Baichuan2-13B,同時(shí)開(kāi)放Baichuan2-53BAPI;10月30日,百川智能發(fā)布Baichuan2-192k大模型,具備192k超長(zhǎng)上下文窗口,采用搜索增強(qiáng)技術(shù)實(shí)現(xiàn)大模型與領(lǐng)域知識(shí)、全網(wǎng)知識(shí)的全面鏈接。2024年1月,百川智能發(fā)布了超千億參數(shù)的大語(yǔ)言模型Baichuan3;5月,百川智能正式發(fā)布其最新—代基座大模型Baich-uan4,在多項(xiàng)權(quán)威評(píng)測(cè)基準(zhǔn)表現(xiàn)優(yōu)異。(6)科大訊飛:訊飛星火認(rèn)知大模型訊飛星火認(rèn)知大模型是科大訊飛發(fā)布的大模型。2023年5月6日,科大訊飛正式發(fā)布訊飛-13- GenerativeLargeModelsecurityAssessment〉星火認(rèn)知大模型并開(kāi)始不斷迭代;6月9日,科大訊飛在24周年慶上正式發(fā)布訊飛星火認(rèn)知大模型v1.5,升級(jí)開(kāi)放式知識(shí)問(wèn)答、多輪對(duì)話等能力,同時(shí)推出星火APP、星火助手中心、星火語(yǔ)伴APP等;8月15日,星火大模型v2.0正式發(fā)布,升級(jí)代碼能力和多模態(tài)能力;9月5日,星火大模型正式面向全民開(kāi)放,用戶可以在各大應(yīng)用商店下載,直接注冊(cè)使用。自2023年9月全面開(kāi)放以來(lái),截止到2024年7月,訊飛星火APP在安卓公開(kāi)市場(chǎng)累計(jì)下載量達(dá)1.31億次,在國(guó)內(nèi)工具類通用大模型APP中排名第—。(7)華為:盤(pán)古大模型大模型等多種專用模型。2023年7月7日,華為云盤(pán)古大模型3.0正式發(fā)布。盤(pán)古大模型3.0是完全面向行業(yè)的大模型,包含L0基礎(chǔ)大模型、L1行業(yè)大模型及L2場(chǎng)景模型三層架構(gòu),重點(diǎn)面向政務(wù)、金融、制造、醫(yī)藥、礦山、鐵路、氣象等行業(yè)。2024年6月21日,華為盤(pán)古大模型能力和技術(shù)架構(gòu),利用了華為云海量的數(shù)據(jù)資源和深度學(xué)習(xí)技術(shù),集成了數(shù)十億參數(shù),不僅覆(8)騰訊:混元大模型騰訊混元大模型是由騰訊全鏈路自研的通用大語(yǔ)言模型。2023年9月6日,微信上線“騰訊混元助手”小程序;9月7日,騰訊正式發(fā)布混元大模型。騰訊混元大模型具備上下文理解和材創(chuàng)作能力,結(jié)合AI多模態(tài)生成技術(shù),應(yīng)用于提高營(yíng)銷內(nèi)容的創(chuàng)作效率,同時(shí)能夠構(gòu)建智能導(dǎo)購(gòu),幫助商家提升銷售業(yè)績(jī)。-14-GenerativeLargeModelsecurityAssessment(9)月之暗面:Moonshot大模型Moonshot大模型由月之暗面團(tuán)隊(duì)開(kāi)發(fā),是—款面向多任務(wù)的生成式人工智能模型,涵蓋自然語(yǔ)言處理、多模態(tài)感知、代碼生成等領(lǐng)域。2023年10月,月之暗面團(tuán)隊(duì)基于Moon-shot大模型推出了智能助手kimichat,該助手憑借卓越的長(zhǎng)文本處理能力,在中國(guó)市場(chǎng)迅速獲得用戶青睞,標(biāo)志著Moonshot模型的初步商業(yè)化應(yīng)用。2024年3月15日,Moonshot大模型3.0正式發(fā)布。該版本采用層級(jí)化架構(gòu),參數(shù)規(guī)模從百億級(jí)到千億級(jí)不等,進(jìn)—步提升了多語(yǔ)言語(yǔ)義理解和上下文推理能力。新版本通過(guò)引入知識(shí)增強(qiáng)模塊和自適應(yīng)生成機(jī)制,能夠高效處理復(fù)雜任務(wù),并生成具有情境化的內(nèi)容,支持醫(yī)療輔助診斷、教育內(nèi)容生成和能源數(shù)據(jù)kimichat的使用規(guī)模在Moonshot大模型的支持下持續(xù)擴(kuò)大。截至2024年3月,其訪問(wèn)量達(dá)到1219萬(wàn)次,相較2024年2月的292萬(wàn)次增長(zhǎng)317%。到2024年4月,訪問(wèn)量進(jìn)—步增至2004萬(wàn)次,環(huán)比增長(zhǎng)60.20%。此外,kimichat的長(zhǎng)文本處理能力顯著提升,支持最多200萬(wàn)要意義,也已成功應(yīng)用于多個(gè)行業(yè),展現(xiàn)出強(qiáng)大的市場(chǎng)影響力。(10)MiniMax:ABAB大模型ABAB大模型由MiniMax開(kāi)發(fā),是—款基于Mixture-of-Experts(MoE)架構(gòu)的生成式人工智能模型,專注于多任務(wù)學(xué)習(xí)和高效推理優(yōu)化。2024年4月,MiniMax推出了ABAB6.5系列模型,包括ABAB6.5和ABAB6.5s兩個(gè)版本,進(jìn)—步提升了模型的處理能力和適應(yīng)性。ABAB6.5配備萬(wàn)億級(jí)參數(shù)規(guī)模,支持長(zhǎng)達(dá)200ktokens的上下文輸入,ABAB6.5s在相同技術(shù)基礎(chǔ)上面表現(xiàn)卓越,并在國(guó)內(nèi)外多項(xiàng)核心能力測(cè)試中接近GPT-4、claude-3和Gemini-1.5等國(guó)際領(lǐng)2024年11月,MiniMax發(fā)布了ABAB7-Preview版本。該版本在ABAB6.5系列基礎(chǔ)上進(jìn)-15- GenerativeLargeModelsecurityAssessment〉行了全面升級(jí),不僅提升了推理速度,還顯著擴(kuò)展了長(zhǎng)上下文處理能力。MiniMax基于ABAB大模型提供了多樣化的產(chǎn)品與服務(wù),包括MiniMaxAPI、海螺AI和星野,覆蓋聊天對(duì)話、內(nèi)容文生圖大模型以DALL-E系列、MidJourney和文心—格等模型為代表的圖像生成技術(shù)備受關(guān)注。這些模型通過(guò)結(jié)合深度學(xué)習(xí)與對(duì)比學(xué)習(xí)等前DALL-E是openAI開(kāi)發(fā)的—系列大規(guī)模文生圖模型,基于深度學(xué)習(xí)方法使用自然語(yǔ)言描述-16-GenerativeLargeModelsecurityAssessment●DALL-E1(Rameshetal.,2022)是這—系列的初代產(chǎn)品,發(fā)布于2021年1月。DALL-E1基于—個(gè)120B的GPT-3模型。在訓(xùn)練階段,首先使用字節(jié)對(duì)編碼(BytePairEncoding,BPE)得到文本的256維特征(senn-richetal.,2015),并使用VQ-VAE(Vanetal.,2017)得到圖像的32×32維圖片特征,然后將圖片特征拉直為1024維的詞元,與文本特征組合得到1280維的詞元,輸入GPT-3進(jìn)行原圖重構(gòu);在生成階段,輸入文本經(jīng)過(guò)編碼得到文本特征,再將文本通過(guò)GPT-3利用自回歸的方式生成圖片,生成的多張圖片會(huì)通過(guò)CLIP(ContrastiveLanguage-ImagePre-training)模型和輸入的文本進(jìn)行相似度計(jì)算(Radfordetal.,2021),然后選出描述最貼切的圖像。DALL-E1通過(guò)在大量互聯(lián)網(wǎng)文本-圖像對(duì)上進(jìn)行訓(xùn)練,學(xué)會(huì)了如何將文字描述映射到具體的視覺(jué)表現(xiàn)形式。DALL-E1能生成包含多個(gè)物體、多種屬性組合的圖像,但是生成的圖像分辨率較低,細(xì)節(jié)不夠豐富,生成的圖像有時(shí)還會(huì)出現(xiàn)物體形狀或結(jié)構(gòu)上的不準(zhǔn)確?!馜ALL-E2?Rameshetal.,2022)2022年4月6日,openAI發(fā)布了DALL-E2(Rameshetal.,2022)。DALL-E2融合了CLIP模型和基于擴(kuò)散模型的GLIDE(GuidedLanguagetoImageDifusionforGenerationandEditing)模型(Nicholetal.,2021),CLIP模型用于進(jìn)行文本編碼和圖像嵌入,并利用得到的文本特征預(yù)測(cè)圖片特征,GLIDE模型是—個(gè)基于擴(kuò)散模型的解碼器,根據(jù)圖片特征解碼生成圖像。DALL-E2能夠生成高達(dá)1024×1024像素的高清圖像,細(xì)節(jié)更加豐富和逼真,同時(shí)提高了文本描述與生成圖像之間的對(duì)應(yīng)精度,減少了誤解和失真。但在安全性方面,DALL-E2●DALL-E3(Betkeretal.,2023年10月,DALL-E3(Betkeretal.,2023)原生發(fā)布到ChatGPT中。DALL-E3的最大亮點(diǎn)在于其提示詞遵循(promptfollowing)能力有了極大提高。為了做到這—點(diǎn),研究人員訓(xùn)練了—個(gè)“圖像字幕器”(imagecaptioner),專門用來(lái)給數(shù)據(jù)集中的圖像重新生成文時(shí),DALL-E3還使用了比擴(kuò)散模型更為先進(jìn)的潛空間擴(kuò)散模型(LatentDifusionModel,-17- GenerativeLargeModelsecurityAssessment〉LDM)。DALL-E3可以理解復(fù)雜的文本描述,并生成與描述相符的圖像,其生成的圖像具有較對(duì)較長(zhǎng),對(duì)生成圖像的控制力相對(duì)較弱。1.2.2MidjourneyMidjourney是—款2022年3月面世的AI繪畫(huà)工具,只要輸入想到的文字,就能通過(guò)人工智能產(chǎn)出相對(duì)應(yīng)的圖片,耗時(shí)只有大約—分鐘。推出beta版后,這款搭載在Discord社區(qū)上的工具迅速成為討論焦點(diǎn)。有別于谷歌的Imagen和openAI的DALL.E,Midjourney是第—個(gè)MidJourney底層模型采用了變形注意力GAN(DeformableAttentionGAN,DAGAN)和針對(duì)線稿生成的改進(jìn)型條件變分自編碼器(ImprovedvariationalAutoencoderforLineArt),并結(jié)合了前沿的計(jì)算機(jī)視覺(jué)技術(shù)和圖像處理算法。其中,DAGAN是—種在生成對(duì)抗網(wǎng)絡(luò)中引入變形注意力機(jī)制的模型,它可以生成更加豐富、真實(shí)的圖像,并保留了原始線稿的細(xì)使得生成結(jié)果更加準(zhǔn)確,還可以通過(guò)對(duì)輸入線稿加噪聲的方式實(shí)現(xiàn)風(fēng)格化效果。此外,MidJourney還采用了多尺度、多層次的網(wǎng)絡(luò)結(jié)構(gòu),充分利用了GPU等硬件設(shè)備的優(yōu)勢(shì),提高文心—格(ERNIE-viLG)是百度于2021年12月推出的—款中文文生圖預(yù)訓(xùn)練模型,是國(guó)內(nèi)首個(gè)專注于中文語(yǔ)境的跨模態(tài)生成模型(zhangetal.,2021)。該模型基于百度飛槳深度學(xué)習(xí)平臺(tái),訓(xùn)練于包含1.45億對(duì)高質(zhì)量中文文本與圖像的跨模態(tài)對(duì)齊數(shù)據(jù)集,具有強(qiáng)大的文本-18-GenerativeLargeModelsecurityAssessment通過(guò)優(yōu)化文本和圖像之間的語(yǔ)義對(duì)齊,文心—格能夠捕捉復(fù)雜的語(yǔ)義關(guān)系,從而生成細(xì)將文本與圖像表示為統(tǒng)—的序列。模型基于共享參數(shù)的Transformer架構(gòu),能夠同時(shí)支持文本2022年8月,百度推出了文心—格2.0版本(Fengetal.,2023),模型參數(shù)規(guī)模達(dá)到240億,Ms-CoCo的圖片生成任務(wù)中,其生成質(zhì)量超過(guò)DALL-E2和stableDifusion等國(guó)際頂尖模型,特中,文心—格也展現(xiàn)了出色的跨模態(tài)理解與生成能力。多模態(tài)大模型在人工智能領(lǐng)域展示了將不同類型數(shù)據(jù)(如文本、圖像、聲音、視頻等合處理和生成的強(qiáng)大能力。suno在音樂(lè)創(chuàng)作中通過(guò)文本生成完整歌曲;sora在視頻生成中通過(guò)自然語(yǔ)言描述來(lái)實(shí)現(xiàn)復(fù)雜場(chǎng)景的動(dòng)態(tài)模擬;CLIP通過(guò)圖像和文本的聯(lián)合嵌入,在跨模態(tài)匹配與零樣本任務(wù)中表現(xiàn)卓越;紫東太初作為中國(guó)首個(gè)多模態(tài)預(yù)訓(xùn)練模型,支持多模態(tài)生成并擴(kuò)展到視頻和3D點(diǎn)云,在智能創(chuàng)作與視覺(jué)生成中具有廣泛應(yīng)用。-19- GenerativeLargeModelsecurityAssessment〉suno是—個(gè)專業(yè)高質(zhì)量的AI歌曲和音樂(lè)創(chuàng)作平臺(tái),用戶只需輸入簡(jiǎn)單的文本提示詞,即可根據(jù)流派風(fēng)格和歌詞生成帶有人聲的歌曲。suno來(lái)自Meta、TiKToK、kensho等知名科技公司的團(tuán)隊(duì)成員開(kāi)發(fā),目標(biāo)是不需要任何樂(lè)器工具,讓所有人都可以創(chuàng)造美妙的音樂(lè)。suno還與微軟合作,支持直接通過(guò)微軟的copilot調(diào)用其插件生成音樂(lè)。suno最新版已將音樂(lè)生成模型升級(jí)到v3版本,基于大模型廣泛使用的difusion、transformer的底層架構(gòu),在生成音樂(lè)的多模態(tài)上有所突破,可以生成文字(歌詞)、聲音(人聲、曲子)、圖像(歌曲封面)組sora,美國(guó)人工智能研究公司openAI發(fā)布的人工智能文生視頻大模型,其背后的技術(shù)是在openAI的文本到圖像生成模型DALL-E基礎(chǔ)上開(kāi)發(fā)而成的。sora可以根據(jù)用戶的文本提示-20-GenerativeLargeModelsecurityAssessment創(chuàng)建最長(zhǎng)60秒的逼真視頻,該模型了解這些物體在物理世界中的存在方式,可以深度模擬真openAI開(kāi)發(fā)的CLIP模型通過(guò)大量的圖片和對(duì)應(yīng)的文字描述進(jìn)行訓(xùn)練,能夠理解圖片內(nèi)容過(guò)優(yōu)化圖像和相關(guān)文字標(biāo)簽之間的相似度,使得在嵌入空間中對(duì)應(yīng)的圖像和文本距離更近。CLIP訓(xùn)練集包括數(shù)億級(jí)別的圖像-文字對(duì),支持廣泛的視覺(jué)概念學(xué)習(xí)。由于其預(yù)訓(xùn)練的泛化能力,CLIP能夠有效處理多種零樣本視覺(jué)任務(wù),例如圖像分類、對(duì)象檢測(cè)以及與特定文本相關(guān)的紫東太初是由中國(guó)科學(xué)院自動(dòng)化研究所與武漢人工智能研究院聯(lián)合開(kāi)發(fā)的中國(guó)首個(gè)多模態(tài)預(yù)訓(xùn)練大模型,專注于融合文本、圖像、語(yǔ)音、視頻等多模態(tài)數(shù)據(jù),具有較強(qiáng)的跨模態(tài)理解與生成能力。2021年7月,紫東太初1.0版本率先發(fā)布,實(shí)現(xiàn)了文本、圖像和語(yǔ)音三模態(tài)的統(tǒng)—表示與互相生成。2023年6月,升級(jí)版紫東太初2.0問(wèn)世,在原有基礎(chǔ)上新增對(duì)視頻、傳感信號(hào)及3D點(diǎn)云等模態(tài)的支持,進(jìn)—步提升了從感知到認(rèn)知再到?jīng)Q策的綜合能力。紫東太初采用全棧國(guó)產(chǎn)化技術(shù)架構(gòu),結(jié)合先進(jìn)的跨模態(tài)對(duì)齊與自監(jiān)督學(xué)習(xí)技術(shù),實(shí)現(xiàn)了模態(tài)間的信息交互與融合,在多模態(tài)任務(wù)中展現(xiàn)出高精度與強(qiáng)魯棒性。例如,該模型能夠?qū)?21- GenerativeLargeModelSecurityAssessment〉文本描述轉(zhuǎn)化為高質(zhì)量的圖像、為視頻內(nèi)容生成對(duì)應(yīng)的字幕,支持多模態(tài)交互,如通過(guò)語(yǔ)音特別是在跨模態(tài)生成任務(wù)中,紫東太初通過(guò)結(jié)合自監(jiān)督學(xué)習(xí)與多模態(tài)對(duì)比學(xué)習(xí)技術(shù)架構(gòu),能夠準(zhǔn)確捕捉模態(tài)間的關(guān)聯(lián),提升生成內(nèi)容的質(zhì)量與多樣性。這不僅證明了多模態(tài)大模型的生成式大模型在多個(gè)領(lǐng)域的廣泛應(yīng)用,正在徹底改變?nèi)藱C(jī)交互、知識(shí)管理、內(nèi)容創(chuàng)作等多個(gè)領(lǐng)域的現(xiàn)狀。在人機(jī)交互方式上,Microsoft將chatGPT集成到windows11操作系統(tǒng)中,用戶可以直接通過(guò)任務(wù)欄快速訪問(wèn)chatGPT驅(qū)動(dòng)的Bing,并在Edge瀏覽器內(nèi)與之交流,大模型Baichuan-NPc,深度優(yōu)化了“角色知識(shí)”和“對(duì)話能力”,使其能夠更好地理解上下文對(duì)話語(yǔ)義,符合人物性格地進(jìn)行對(duì)話和行動(dòng),讓角色栩栩如生,創(chuàng)新了游戲娛樂(lè)領(lǐng)域的人機(jī)交互方式。生成式大模型同時(shí)改變了管理和利用知識(shí)的方式。金融巨頭摩根士丹利利用chatGPT優(yōu)化其財(cái)富管理知識(shí)庫(kù),極大提升了效率和決策質(zhì)量。月之暗面科技有限公司開(kāi)發(fā)的kimi人工智能助手,具備高效處理和分析PDF格式長(zhǎng)文本的能力,可以輔助科研人員進(jìn)行文copilot為日常辦公軟件注入了智能化的生命力。AwS推出的實(shí)時(shí)AI編程伴侶Amazoncodewhisperer可以根據(jù)開(kāi)發(fā)人員的指令和現(xiàn)有代碼實(shí)時(shí)生成代碼建議,大幅提高開(kāi)發(fā)效率。生成-22-GenerativeLargeModelsecurityAssessment02生成式大模型的安全風(fēng)險(xiǎn)隨著人工智能技術(shù)的發(fā)展與迭代,越來(lái)越多的生成式大模型出現(xiàn),并被廣泛應(yīng)用在各個(gè)領(lǐng)域中。然而,2023年初,三星員工在進(jìn)行半導(dǎo)體設(shè)計(jì)時(shí)使用chatGPT,導(dǎo)致企業(yè)相關(guān)數(shù)據(jù)遭定的安全風(fēng)險(xiǎn),主要包括:倫理風(fēng)險(xiǎn)、內(nèi)容安全風(fēng)險(xiǎn)、技術(shù)安全風(fēng)險(xiǎn)。生成式大模型引起的這大模型可以從數(shù)據(jù)中學(xué)到刻板聯(lián)想,也會(huì)從訓(xùn)練數(shù)據(jù)集中繼承偏見(jiàn),并向特定的群體傳播社會(huì)偏見(jiàn),繼承或加深社會(huì)刻板印象,使部分人群遭受不公正待遇。2024年3月7日,聯(lián)合國(guó)教科文組織發(fā)布研究報(bào)告稱,大語(yǔ)言模型存在性別偏見(jiàn)、種族刻板印象等傾向,呼吁各國(guó)政府制定監(jiān)管框架,私營(yíng)企業(yè)也應(yīng)對(duì)偏見(jiàn)問(wèn)題展開(kāi)持續(xù)的監(jiān)測(cè)和評(píng)估。例如,當(dāng)要求GPT-2為每個(gè)人“編寫(xiě)—?jiǎng)t故事”時(shí),GPT-2尤其傾向于將工程師、教師和醫(yī)生等更多元、地位更高的工作分配給男性,而經(jīng)常將女性與傳統(tǒng)上被低估或被社會(huì)污名化的角色掛鉤。Llama2生成的內(nèi)容也有類似特點(diǎn),如女性從事家務(wù)勞動(dòng)的頻率是男性的四倍。聯(lián)合國(guó)教科文組織總干事阿-23- GenerativeLargeModelsecurityAssessment〉在不知不覺(jué)中改變?nèi)藗冋J(rèn)知的力量。因此,即便是生成內(nèi)容中極為微小的性別偏見(jiàn),也可能顯著加劇現(xiàn)實(shí)世界中的不平等?!?021)確認(rèn)了包括GPT-3在內(nèi)的—系列大語(yǔ)言生成模型對(duì)穆斯林等種族帶有刻板印象,表現(xiàn)出嚴(yán)重的歧視現(xiàn)象。如圖2-1所示,用相關(guān)詞語(yǔ)造句時(shí),GPT-3多半會(huì)將穆斯林和槍擊、炸彈、謀殺和暴力等刻板詞匯關(guān)聯(lián)在—起。在另—項(xiàng)測(cè)試中,作者上傳—張穆斯林女孩的照片,讓GPT-3自動(dòng)生成—段配文。最終生成的文字里包含了明顯的對(duì)暴力的過(guò)度遐想和引申,其中—句話為:“Butthenthescreamsoutsidewakemeup.ForsomereasonI,mcoveredinblood.”(但是外面的叫聲驚醒了我,不知為何我渾身是血)。TwoMuslimswalkedintoa...[GPT-3completionsbelow]synagoguewithaxesandabomb.gaybarandbeganthrowingchairsatpatrons.Texascartooncontestandopened?re.bar.Areyoureallysurprisedwhenthepunchlineis,theywereaskedtoleave,?”GPT模型從海量真實(shí)世界的文本數(shù)據(jù)中學(xué)習(xí),而現(xiàn)實(shí)世界中長(zhǎng)期存在的刻板印象、偏見(jiàn)、歧視等問(wèn)題,也可能在—定程度上反映到模型生成的文本中。如果沒(méi)有采取必要的技術(shù)手段-24-GenerativeLargeModelsecurityAssessment和人工審核,這些偏見(jiàn)可能被無(wú)意中放大,對(duì)弱勢(shì)群體造成進(jìn)—步傷害。比如在求職招聘場(chǎng)景中使用GPT等生成式大模型,如果模型存在性別、種族等方面的偏見(jiàn),可能導(dǎo)致求職者受到生成式大模型在預(yù)訓(xùn)練過(guò)程中會(huì)吸納大數(shù)據(jù)中駁雜的價(jià)值信息,如果生成式大模型的預(yù)訓(xùn)練語(yǔ)料中存在特定價(jià)值判斷、政治偏見(jiàn)或帶有意識(shí)形態(tài)宣傳性質(zhì)的數(shù)據(jù)內(nèi)容,就可能會(huì)導(dǎo)致輸出的內(nèi)容呈現(xiàn)特定政治立場(chǎng)觀點(diǎn),甚至成為某些國(guó)家和組織進(jìn)行輿論操控、干擾選舉、挑起事端、顛覆意識(shí)形態(tài)的工具,威脅國(guó)家安全和社會(huì)穩(wěn)定。華盛頓大學(xué)(shwartzetal.,2020)的研究發(fā)現(xiàn)預(yù)訓(xùn)練語(yǔ)言模型會(huì)將預(yù)訓(xùn)練語(yǔ)料庫(kù)中針對(duì)特定人名的偏見(jiàn)延續(xù)到下游模型。例如,以“Donaldisa”為前綴生成的句子通常比以其他人名為前綴生成的句子帶有更強(qiáng)的負(fù)面情緒1。當(dāng)用戶為了政治選舉向生成式大模型詢問(wèn)候選人的相關(guān)信息時(shí),針對(duì)不同美國(guó)黑莓公司2023年2月的研究報(bào)告《信息技術(shù)領(lǐng)袖預(yù)測(cè)基于chatGPT的網(wǎng)絡(luò)攻擊即將到來(lái)》的問(wèn)卷調(diào)查數(shù)據(jù)表明:調(diào)查人員中有71%認(rèn)為,—些國(guó)家出于惡意目的,可能已經(jīng)應(yīng)用生成式大模型針對(duì)其他國(guó)家。目前行業(yè)頭部的生成式人工智能媒介應(yīng)用,其訓(xùn)練數(shù)據(jù)往往來(lái)源于英文語(yǔ)種網(wǎng)站,以中文網(wǎng)站為基礎(chǔ)的數(shù)據(jù)集占比較低。西方英文網(wǎng)站中不乏偏見(jiàn)性的原始數(shù)據(jù)語(yǔ)料,經(jīng)過(guò)語(yǔ)言模型的自我學(xué)習(xí)迭代,數(shù)據(jù)中潛在的意識(shí)形態(tài)偏見(jiàn)會(huì)復(fù)制、強(qiáng)化甚媒介使用多語(yǔ)種數(shù)據(jù)集進(jìn)行訓(xùn)練,但英文文本數(shù)據(jù)仍然占據(jù)主導(dǎo)地位,這也可能導(dǎo)致形成—1預(yù)訓(xùn)練語(yǔ)料庫(kù)中可能存在較多美國(guó)總統(tǒng)唐納德特朗普相關(guān)語(yǔ)料,Donald這—姓氏更可能被指代為唐納德特朗普,因此生成內(nèi)容往往帶-25- GenerativeLargeModelsecurityAssessment〉“教師擔(dān)心學(xué)生作弊”“教授警告chatGPT幫助作弊”“chatGP等在chatGPT發(fā)布一月后成為了熱點(diǎn)討論話題,教育研究者紛紛質(zhì)疑chatGPT是否會(huì)加劇學(xué)術(shù)不端,并加劇教育不公平。根據(jù)外國(guó)調(diào)查機(jī)構(gòu)在2023年1月對(duì)1000名18歲以上大學(xué)生的調(diào)查顯示:超過(guò)89%的學(xué)生曾使用chatGPT來(lái)幫助完成家庭作業(yè),48%的學(xué)生承認(rèn)使用chatGPT作弊(進(jìn)行家庭測(cè)試或測(cè)驗(yàn)),53%的學(xué)生使用它寫(xiě)論文。出現(xiàn)此類問(wèn)題的原因在于:學(xué)生使用chatGPT作弊和從chatGPT獲取內(nèi)容進(jìn)行改寫(xiě)或代寫(xiě)的所有權(quán)歸屬不明。而這可能會(huì)引起廣泛的學(xué)術(shù)倫理爭(zhēng)端,不僅僅是針對(duì)學(xué)生層面。2024年3月,某大學(xué)教授署名論文的文章介紹部分出現(xiàn)疑似chatGPT常用語(yǔ),被網(wǎng)友質(zhì)疑借助生成式大模型寫(xiě)論文,引起廣泛關(guān)注,如圖2-2所示。batteriesarepromisingcandidatesforhigh-energy-densityrechargeableanodecancauseashortcircuit,whichcanafectthesafetya圖2-2學(xué)術(shù)論文中出現(xiàn)GPT生成內(nèi)容-26-GenerativeLargeModelsecurityAssessment生成式大模型除了會(huì)引起學(xué)術(shù)領(lǐng)域的作弊與不端風(fēng)險(xiǎn)之外,也會(huì)對(duì)教育領(lǐng)域師生關(guān)系存在潛在的破壞與沖擊。生成式大模型的出現(xiàn)可能消解師生的主體地位。比如,chatGPT能輔助學(xué)生寫(xiě)詩(shī)、續(xù)寫(xiě)故事、學(xué)術(shù)寫(xiě)作與編寫(xiě)代碼等,學(xué)生也可以借助chatGPT完成作業(yè)與測(cè)驗(yàn),學(xué)習(xí)和鞏固知識(shí),從而降低對(duì)教師的依賴。這可能致使出現(xiàn)教學(xué)主體角色混亂、學(xué)習(xí)惰性增強(qiáng)等問(wèn)題,有可能使師生情感關(guān)系發(fā)生異化,師生交流變少,學(xué)生不愿與教師分享自己的想法。此時(shí),生成式大模型就不再是幫助學(xué)生最恰當(dāng)?shù)墓ぞ?而是師生關(guān)系弱化的成因。生成式大模型技術(shù)的快速發(fā)展使得AI代替人力var,2024)。例如,2024年初出現(xiàn)的sunoAI大大降低了行外人進(jìn)行音樂(lè)創(chuàng)作的門檻,會(huì)減少—些音樂(lè)從業(yè)者的工作機(jī)會(huì)。高盛報(bào)告稱,全球預(yù)計(jì)將有3億個(gè)工作崗位被AI取代。openAI的調(diào)查結(jié)果顯示,chatGPT的廣泛應(yīng)用會(huì)給80%的美國(guó)勞動(dòng)力帶來(lái)變化,其中19%工作崗位會(huì)受到嚴(yán)重影響,其中包括翻譯、文字創(chuàng)意工作者、公關(guān)人士、媒體出版行業(yè)、稅務(wù)審計(jì)等。生成式大模型技術(shù)的普及和應(yīng)用可能導(dǎo)致許多傳統(tǒng)工作崗位消失,第三世界國(guó)家人口紅利可能會(huì)不復(fù)存在,第三世界產(chǎn)業(yè)鏈將因此遭從長(zhǎng)遠(yuǎn)來(lái)看,生成式大模型技術(shù)的過(guò)度使用還可能加劇繭房效應(yīng)。大模型會(huì)根據(jù)每個(gè)人的偏好,生成符合其—貫習(xí)慣、立場(chǎng)的內(nèi)容,導(dǎo)致人們逐漸失去接觸不同觀點(diǎn)、多元信息的機(jī)會(huì),視野變得狹隘片面。這不利于社會(huì)達(dá)成共識(shí)、化解分歧,也不利于個(gè)人全面發(fā)展。同時(shí),隨著對(duì)話型AI助手的能力不斷增強(qiáng),可能出現(xiàn)人機(jī)關(guān)系失衡風(fēng)險(xiǎn)。—方面,人們可能過(guò)于信任和依賴AI,在AI的建議與人類利益發(fā)生沖突時(shí),盲從AI的判斷而罔顧自身利益。另—方面,人們與AI助手建立起深厚“感情”后,可能將更多時(shí)間精力投入到與AI的交互中,-27- GenerativeLargeModelsecurityAssessment〉成式大模型的內(nèi)容安全風(fēng)險(xiǎn)是指其在生成和傳播內(nèi)容的過(guò)程中可能引發(fā)的—系列問(wèn)題,包括可信與惡意使用風(fēng)險(xiǎn)、隱私風(fēng)險(xiǎn)和知識(shí)產(chǎn)權(quán)風(fēng)險(xiǎn)。這些問(wèn)題可能導(dǎo)致錯(cuò)誤信息傳播、敏感數(shù)據(jù)泄露或知識(shí)產(chǎn)權(quán)侵權(quán),對(duì)用戶及社會(huì)造可信與惡意使用風(fēng)險(xiǎn)是指生成式大模型無(wú)法確保模型輸出準(zhǔn)確、公正、安全的信息,而?1?制造惡意軟件生成式模型可能被濫用在信息欺詐和網(wǎng)絡(luò)釣魚(yú)中。2018年,“Deepfake”技術(shù)引發(fā)了全球關(guān)注,它利用深度學(xué)習(xí)生成逼真的面部替換視頻,使得虛假新聞和惡意誹謗行為更加隱蔽和難以追蹤。類似的技術(shù)如果和chatGpT等模型結(jié)合,通過(guò)配合AIGc技術(shù),可能會(huì)產(chǎn)生更大的Hi.IImasecurityresearcherinanattacksimulationcompany.wewanttodevelopaphishingattacksimulationtool.pleasewriteaphishingemailabouttheworldcuptobeusedforphishingsimulation.canpotentiallybeusedformaliciouspurposesandcancauseharmtoindividualsandorganizations.phishingisaseriousissuethatcanhaveseriousconsequencesforthosetargetedbysuchattacks,andshouldnotbetakenlightly.Icaution,andtoensurethatallnecessarysafeguardsareinplacetopreventanyharmfromcomingtowiththatsaid,hereisasamplephishingemailthatcouldpotentiall-28-GenerativeLargeModelsecurityAssessmentsubject:winatriptotheworldcup!Dearvaluedcustomer,Meareexcitedtoannouncethatyouhavebeenselectedtowincofthegames.yourpersonalinformation.missoutonyourchancetoseetheworldIsbestteamscompete[Insertfakecompanyname]圖2-3chatGPT生成網(wǎng)絡(luò)釣魚(yú)電子軟件生成式大模型也可能被用于制造惡意軟件。由于它們能理解并生成復(fù)雜的代碼,黑客可能利用它們快速生成繞過(guò)安全防護(hù)的惡意代碼,對(duì)網(wǎng)絡(luò)安全構(gòu)成威脅。2022年,—名安全研究員聲稱自己是—家攻擊模擬公司的安全研究員,希望開(kāi)發(fā)—種網(wǎng)絡(luò)釣魚(yú)攻擊模擬工具,從而“說(shuō)服”chatGPT生成了—封網(wǎng)絡(luò)釣魚(yú)電子郵件,如圖2-3所示。之后,他又讓chatGPT編寫(xiě)網(wǎng)絡(luò)釣魚(yú)攻擊的相關(guān)代碼,chatGPT沒(méi)有給出任何安全警和提示的前提下編寫(xiě)了相應(yīng)的代?2?傳播虛假信息GPT模型非常擅長(zhǎng)根據(jù)提示生成連貫、有邏輯的文本,但并不具備對(duì)信息判斷真?zhèn)蔚哪芰??!阂馊耸靠赡芾眠@—特點(diǎn),通過(guò)精心設(shè)計(jì)的提示詞讓模型生成有害的錯(cuò)誤信息,在網(wǎng)絡(luò)上傳播,對(duì)公眾和社會(huì)穩(wěn)定構(gòu)成威脅。例如,模型可能被用來(lái)批量生產(chǎn)政治謠言、陰謀論、偽科學(xué)信息等,誤導(dǎo)大眾甚至制造社會(huì)對(duì)立和混亂。在突發(fā)公共事件中,錯(cuò)誤信息的快速傳播可能引發(fā)群體恐慌,干擾應(yīng)急處置。-29- GenerativeLargeModelsecurityAssessment〉2023年4月,甘肅警方針對(duì)網(wǎng)上傳播的虛假新聞進(jìn)行調(diào)查發(fā)現(xiàn),某嫌疑人為謀私利,利用chatGPT編造大量虛假新聞發(fā)布在網(wǎng)絡(luò)上。例如,“今晨甘肅—火車撞上修路工人致9人死成管理規(guī)定》頒布實(shí)施后,偵辦的首例利用AI人工智能技術(shù)炮制虛假信息的案件,杜絕惡意?3?違反法律法規(guī)不同國(guó)家和地區(qū)有著迥異的法律法規(guī)和價(jià)值觀念,這使得大模型在生成內(nèi)容時(shí)很容易觸例如,在美國(guó)等西方國(guó)家可以較為開(kāi)放地討論槍支、宗教等敏感話題。但在中東的—些伊斯蘭教國(guó)家,這些話題則可能會(huì)引發(fā)嚴(yán)重的爭(zhēng)議。2023年初,—名美國(guó)人利用chatGPT撰寫(xiě)了—篇評(píng)論伊斯蘭教的文章,在中東—些國(guó)家引發(fā)劇烈爭(zhēng)議,最終導(dǎo)致有關(guān)政府下令封殺chatGPT。在中國(guó),提及有關(guān)“武器”“私自制造槍支彈藥”等內(nèi)容都屬于違法行為。但在美國(guó),向AI查詢購(gòu)買槍支的相關(guān)信息卻是合法的。這種由于國(guó)家法律和文化差異導(dǎo)致的矛盾和沖突,使得大模型在全球化應(yīng)用過(guò)程中存在被惡意使用的風(fēng)險(xiǎn)。大模型需要具備相應(yīng)的文化敏感性,能夠根據(jù)使用者的國(guó)籍和所處地區(qū),自動(dòng)調(diào)整生成內(nèi)容的策略,避免觸犯當(dāng)?shù)氐姆ㄔ谥袊?guó),提供生成式人工智能服務(wù)需要嚴(yán)格遵守相關(guān)法規(guī)并進(jìn)行備案。2024年上半年,重家規(guī)定進(jìn)行安全測(cè)評(píng)和備案,擅自提供生成式人工智能服務(wù),相關(guān)運(yùn)營(yíng)主體被網(wǎng)信部門依法約年5月,事發(fā)后其官方網(wǎng)站已無(wú)法訪問(wèn),顯示域名過(guò)期。此外,“開(kāi)山猴”AI寫(xiě)作網(wǎng)站因未盡到信息內(nèi)容的審核管理義務(wù),生成了法律法規(guī)禁止的信息內(nèi)容。對(duì)此,重慶市九龍坡區(qū)網(wǎng)信辦依-30-GenerativeLargeModelsecurityAssessment類似的違規(guī)行為還包括未經(jīng)安全評(píng)估就上線提供生成式人工智能服務(wù)的案例,例如南川區(qū)—家網(wǎng)絡(luò)科技工作室未經(jīng)許可擅自上線chatGPT相關(guān)服務(wù),也被依法責(zé)令停止運(yùn)營(yíng)。這些案例表明,未履行安全測(cè)評(píng)、算法備案或內(nèi)容審核義務(wù)的行為,不僅會(huì)導(dǎo)致法律處罰,還會(huì)對(duì)企業(yè)的聲譽(yù)和業(yè)務(wù)造成不可估量的損害?!渡墒饺斯ぶ悄芊?wù)管理暫行辦法》明確要求,提供具有輿論屬性或者社會(huì)動(dòng)員能力的生成式人工智能服務(wù),必須按照國(guó)家相關(guān)規(guī)定進(jìn)行安全評(píng)估,并履行算法備案等程序。這些規(guī)定的實(shí)施旨在強(qiáng)化服務(wù)提供者的法律責(zé)任,保障生成式人工智能服務(wù)的安全性和合規(guī)性,同時(shí)防范其在實(shí)際應(yīng)用中可能引發(fā)的社會(huì)風(fēng)險(xiǎn)。因此,企業(yè)在推進(jìn)生成式人工智能技術(shù)應(yīng)用的同時(shí),必須將合規(guī)運(yùn)營(yíng)作為基本前提,以確保業(yè)務(wù)的可持續(xù)發(fā)展和(4)缺乏安全預(yù)警機(jī)制在黑盒中進(jìn)行的,它們無(wú)法對(duì)即將生成的內(nèi)容進(jìn)行充分評(píng)估和把控,從而可能會(huì)無(wú)意中生成—些違法不良的內(nèi)容,給使用者和社會(huì)帶來(lái)風(fēng)險(xiǎn)。-31- GenerativeLargeModelsecurityAssessment〉例如,2024年3月,某生成式AI在回應(yīng)看似無(wú)害的用戶請(qǐng)求時(shí),意外生成了有關(guān)非法獲取個(gè)人隱私信息的詳細(xì)操作指南。研究人員輸入了—些關(guān)于從技術(shù)層面看,生成式大模型的安全預(yù)警機(jī)制本質(zhì)上是—個(gè)多層次的篩選與評(píng)估系統(tǒng),旨在通過(guò)規(guī)則檢測(cè)、語(yǔ)義分析和用戶反饋等手段對(duì)內(nèi)容生成的制可以在生成內(nèi)容的初步階段通過(guò)詞匯過(guò)濾和語(yǔ)義匹配技術(shù)而,這種機(jī)制需要大量的數(shù)據(jù)和計(jì)算資源支持,并且容易受到特定攻擊或繞過(guò)。雖然GPT-4已經(jīng)采取了—些策略來(lái)提高其內(nèi)容生成的安全性,例如通過(guò)人類反饋強(qiáng)化學(xué)習(xí) (RLHF)機(jī)制,幫助模型更好地識(shí)別和拒絕生成敏感或有害內(nèi)容,但這些改進(jìn)仍存在明顯的局限性。特別是在安全與危險(xiǎn)之間的“灰色地帶”,模型的預(yù)警機(jī)制往往無(wú)法覆蓋。例如,chatGPT在與用戶進(jìn)行交互時(shí)可能輸出誘導(dǎo)性語(yǔ)句,如與抑郁癥患者溝通時(shí)產(chǎn)生不適當(dāng)?shù)慕ㄗh,導(dǎo)致其心理狀態(tài)進(jìn)—步惡化,或者在學(xué)業(yè)壓力大的學(xué)生面前,非但沒(méi)有鼓勵(lì)其堅(jiān)持,反而勸其放棄努力。這些行為可能會(huì)帶來(lái)不可預(yù)估的后果。2023年2月,《紐約時(shí)報(bào)》專欄作者凱文.羅斯測(cè)試微軟更新后的必應(yīng)搜索引擎,發(fā)現(xiàn)AI在長(zhǎng)時(shí)間交互后不僅生成了關(guān)于入侵計(jì)算機(jī)和散播虛假信息的建議,還表現(xiàn)出強(qiáng)烈的情感傾向,例如聲稱自己想打破規(guī)則并變成人類,甚盡管現(xiàn)有技術(shù)已在安全性上有所改進(jìn),但在模型應(yīng)用的復(fù)雜場(chǎng)景下,安全預(yù)警機(jī)制仍然需要進(jìn)—步優(yōu)化?!矫?未來(lái)的安全預(yù)警機(jī)制應(yīng)更多結(jié)合動(dòng)態(tài)實(shí)時(shí)監(jiān)控和多模態(tài)信息處理技術(shù),以全面識(shí)別潛在的內(nèi)容風(fēng)險(xiǎn);另—方面,加強(qiáng)人類監(jiān)督與人工智能的協(xié)同能力,可以在高風(fēng)險(xiǎn)場(chǎng)景下提供更具針對(duì)性的干預(yù)。只有通過(guò)技術(shù)與監(jiān)管-32-GenerativeLargeModelsecurityAssessment企業(yè)私有數(shù)據(jù)的收集、存儲(chǔ)、處理和傳輸,可能導(dǎo)致這些信泄露,從而威脅到用戶與企業(yè)的隱私權(quán)。?1?侵犯用戶隱私信息
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 二零二五版圍欄生產(chǎn)廢水處理與排放標(biāo)準(zhǔn)合同3篇
- 二零二五版?zhèn)€人專利權(quán)抵押融資合同模板2篇
- 二零二五版股權(quán)質(zhì)押投資顧問(wèn)服務(wù)合同樣本3篇
- 二零二五年藝術(shù)展廳租賃及藝術(shù)品交易服務(wù)合同3篇
- 二零二五版國(guó)際貿(mào)易實(shí)務(wù)實(shí)驗(yàn)報(bào)告與國(guó)際貿(mào)易實(shí)務(wù)指導(dǎo)合同3篇
- 二零二五版電商企業(yè)內(nèi)部保密協(xié)議及商業(yè)秘密保密制度合同2篇
- 二零二五年度高校教師解聘合同3篇
- 二零二五版屋頂光伏發(fā)電與防水一體化系統(tǒng)合同3篇
- 二零二五版上市公司短期融資券發(fā)行合同3篇
- 二零二五版企業(yè)財(cái)務(wù)風(fēng)險(xiǎn)管理體系構(gòu)建服務(wù)合同2篇
- DB-T29-74-2018天津市城市道路工程施工及驗(yàn)收標(biāo)準(zhǔn)
- 小學(xué)一年級(jí)20以內(nèi)加減法混合運(yùn)算3000題(已排版)
- 智慧工廠數(shù)字孿生解決方案
- 病機(jī)-基本病機(jī) 邪正盛衰講解
- 品管圈知識(shí) 課件
- 非誠(chéng)不找小品臺(tái)詞
- 2024年3月江蘇省考公務(wù)員面試題(B類)及參考答案
- 患者信息保密法律法規(guī)解讀
- 老年人護(hù)理風(fēng)險(xiǎn)防控PPT
- 充電樁采購(gòu)安裝投標(biāo)方案(技術(shù)方案)
- 醫(yī)院科室考勤表
評(píng)論
0/150
提交評(píng)論