【廈門大學】DeepSeek大模型賦能高校教學和科研_第1頁
【廈門大學】DeepSeek大模型賦能高校教學和科研_第2頁
【廈門大學】DeepSeek大模型賦能高校教學和科研_第3頁
【廈門大學】DeepSeek大模型賦能高校教學和科研_第4頁
【廈門大學】DeepSeek大模型賦能高校教學和科研_第5頁
已閱讀5頁,還剩118頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

DeepSeek每個人都可以讀懂的大模型科普報告(高校篇)DeepSeek大模型賦能高校教學和科研廈門大學大數(shù)據(jù)教學團隊作品2025年2月25日廈門大學林子雨

副教授國內(nèi)高校大數(shù)據(jù)教學的重要貢獻者團隊負責人

:林子雨副教授年輕力量:

核心成員全部46周歲以下結(jié)構(gòu)合理:

教學型、

科研型、

實驗工程師專注專業(yè):

從2013年至今

,

11年專注于大數(shù)據(jù)教學團隊特點:

眼光前瞻、

緊跟技術(shù)、

創(chuàng)新實干、

執(zhí)行力強

影響力高:

多項指標在國內(nèi)高校大數(shù)據(jù)教學領(lǐng)域領(lǐng)先?

教材數(shù)量?

教材占有率?

MOOC課程學習人數(shù)?

師資培養(yǎng)?

教學研討會?

教學網(wǎng)站訪問量?

在線講座觀看人數(shù)?……團隊聯(lián)系方式:

ziyulin@xmu.edu.cn廈門大學大數(shù)據(jù)教學團隊

1.人工智能發(fā)展簡史

2.人工智能思維

3.大模型:

人工智能的前沿

4.高校本地部署DeepSeek大模型

5.AIGC應(yīng)用與實踐

6.基于大模型的智能體

7.AI賦能高??蒲?/p>

8.AI賦能高校教學

目錄

廈門大學大數(shù)據(jù)教學團隊作品2025年2月1.1

圖靈測試1.2人工智能的誕生1.3人工智能的發(fā)展階段1.4未來人工智能發(fā)展的五個階段1.人工智能發(fā)展簡史廈門大學大數(shù)據(jù)教學團隊作品1950年

,

“計算機之父”和“人工智能之父”艾倫·圖靈(Alan

M.Turing)

發(fā)表了論文《計算機器與智能》

,這篇論文被譽

為人工智能科學的開山之作。

在論文的開篇

,

圖靈提出了一個引人深思的問題:

“機器能思考嗎?

”。

這個問題激發(fā)了人們

無盡的想象

,

同時也奠定了人工智能的基本概念和雛形在這篇論文中

,圖靈提出了鑒別機器是否具有智能的方法

,這就是人工智能領(lǐng)域著名的“圖靈測試”。

如圖所示

,其基本思想是測試者在

與被測試者(一個人和一臺機器)

隔離的情況下

,通過一些裝置(如鍵盤)向被測試者隨意提問。進行

多次測試后

,如果被測試者機器讓平均每個測試者做出超過30%的誤判

,那么這臺機器就通過了測試

并被認為具有人類智能1.1

圖靈測試

人工智能的誕生可以追溯到20世紀50年代。

當時

,計算機科學剛剛起步

,人們開始嘗試通過計算機程序來模擬人類的思維和行為。

在這個背景下

,

一些杰出的科學家和工程師們開始研究如何使計算機具備更高級的功能1956年8月

,在美國達特茅斯學院舉辦的人工智能夏季研討會

,是人工智能領(lǐng)域具有里程碑意義的一次重要會議。

這次會議匯聚了眾多杰出的科學家和工程師

,他們共同探討和研究人工智能的發(fā)展和應(yīng)用前景這次會議的主題圍繞著人工智能的定義、

研究方法和應(yīng)用場景展開。

與會者們深入探討了人工智能的基本概念、

算法和技術(shù),以及其在各個領(lǐng)域的應(yīng)用潛力。

他們共同認識到

,人工智能的研究和發(fā)展將為人類帶來巨大的變革和進步1.2人工智能的誕生在這次會議上

,

“人工智能”這個詞匯被約翰.麥卡錫(John

McCarthy)

首次提出。

與會者們不僅對人工智能的研究和應(yīng)用前景進行了深入探討

,還提出了許多重要的觀點和思路

,為人工智能的發(fā)展奠定了基礎(chǔ)。

這次會議的召開標志著人工智能作

為一個獨立學科的正式誕生

因此

,達特茅斯會議被稱為“人工智能的開端”

,

1956年也被稱為“人工智能元年”。

這次會

議不僅為人工智能的研究和發(fā)展奠定了基礎(chǔ)

,還為人類帶來了巨大的變革和進步1.2人工智能的誕生1.3人工智能的發(fā)展階段從1956年人工智能元年至今

,人工智能的發(fā)展歷程經(jīng)歷了漫長的歲月

,大致可以劃分為以下6個階段OpenAIOperatorDeepSeek

R11.4未來人工智能發(fā)展5個階段2.人工智能思維廈門大學大數(shù)據(jù)教學團隊作品擁有和人工智能協(xié)作的能力,懂得如何運用人工智能2.人工智能思維具備區(qū)分人的能力

和機器的能力協(xié)作區(qū)分了解每個人都應(yīng)了解人工智能的基礎(chǔ)運行模式2024年12月

人工智能教母級人物、

斯坦福大學終

身教授李飛飛在公開演講中說道:

“斯坦福應(yīng)該錄

取最會用ChatGPT的前2000名學生”。2025年1月

互聯(lián)網(wǎng)知名企業(yè)家周鴻祎發(fā)表觀點

”未來擅長使用AI的人會淘汰不會使用AI的人

“。2.人工智能思維3.大模型:人工智能的前沿3.1大模型的概念3.2大模型的發(fā)展歷程3.3人工智能與大模型的關(guān)系3.4大模型分類3.5大模型原理3.6大模型產(chǎn)品3.7大模型應(yīng)用領(lǐng)域廈門大學大數(shù)據(jù)教學團隊作品大模型通常指的是大規(guī)模的人工智能模型

,是一種基于深度學習技術(shù)

,具有海量參數(shù)、強大的學習能力和泛化能力

,能夠處理和生成多種類型數(shù)據(jù)的人

工智能模型。通常說的大模型的“大”的特點體現(xiàn)在:2020年

,OpenAI公司推出了GPT-3

,模型參數(shù)規(guī)模達到了1750億。2023年3月發(fā)布的GPT-4的參數(shù)規(guī)模是GPT-3的10倍以上

,達到1.8萬億,3.1大模型的概念2021年11月阿里推出的M6模型的參數(shù)量達10萬億。訓練數(shù)據(jù)量大計算資源需求高參數(shù)數(shù)量龐大大模型的設(shè)計和訓練旨在提供更強大、

更準確的模型性能

,

以應(yīng)對更復雜、

更龐大的數(shù)據(jù)集或任務(wù)。

大模型通常能夠?qū)W習到更細微的模式和規(guī)律

,具有更強的泛化能力和表達能力學習能力強大模型可以從大量的數(shù)據(jù)中學習,并利用學到的知識和模式來提供

更精準的答案和預(yù)測

。這使得它

們在解決復雜問題和應(yīng)對新的場

景時表現(xiàn)更加出色上下文理解能力大模型具有更強的上下文理解能力

,能夠理解更復雜的語意和語

。這使得它們能夠產(chǎn)生更準確、

更連貫的回答可遷移性高學習到的知識和能力可以在不同的任務(wù)和領(lǐng)域中遷移和應(yīng)用

。這

意味著一次訓練就可以將模型應(yīng)

用于多種任務(wù),無需重新訓練語言生成能力大模型可以生成更自然

、更流利的語言,減少了生成輸出時呈現(xiàn)

的錯誤或令人困惑的問題3.1大模型的概念3.2大模型的發(fā)展歷程大模型發(fā)展歷經(jīng)三個階段

,分別是萌芽期、

沉淀期和爆發(fā)期3.2大模型的發(fā)展歷程3.2大模型的發(fā)展歷程大模型發(fā)展對算力的需求演變?nèi)斯ぶ悄軝C器學習深度學習人工智能包含了機器學習

,機器學習包含了深度學習

,深度學習可以采用不同的模型

,

其中一種模型是預(yù)訓練模型

,預(yù)訓練模型包含了預(yù)訓練大模型(可以簡稱為“大模型”)

,預(yù)訓練大模型包含了預(yù)訓練大語言模型(可以簡稱為“大語言模

型”)

,預(yù)訓練大語言模型的典型代表包括OpenAI的GPT和百度的文心ERNIE

,

ChatGPT是基于GPT開發(fā)的大模型產(chǎn)品,預(yù)訓練大模型預(yù)訓練大語言模型預(yù)訓練大語言模型GPT文心ERNIE...3.3人工智能與大模型的關(guān)系深度學習模型預(yù)訓練模型文心一言ChatGPT文心一言是基于文心ERNIE開發(fā)的大模型產(chǎn)品語言大模型是

在自

(Nat

u

ral

La

ng

uageProcessing,

NLP)領(lǐng)域中的一類大模型,

通常

用于處理文本數(shù)據(jù)和理解自然語言

。這類大模型

的主要特點是它們在大規(guī)模語料庫上進行了訓練,

以學習自然語言的各種語法

、語義和語境規(guī)則

。

代表性產(chǎn)品包括GPT系列

OpenAI)、

Bard(

Google)

DeepSeek

、文心一言(百度)等多模態(tài)大模型是指能夠處理多種不同類型數(shù)據(jù)的大模型,例如

文本

、

圖像

、音頻等多模態(tài)數(shù)據(jù)

。這類模型結(jié)合

了NLP和CV的能力,

以實現(xiàn)對多模態(tài)信息的綜合理解和分析,從而能夠更全面地理解和處理復雜的數(shù)據(jù)

。代表性產(chǎn)品包括DingoDB多模向量數(shù)據(jù)

庫(九章云極DataCanvas)

DALL-E(OpenAI)、

悟空畫畫(華為)

、midjourney等視覺大模型是指在計算機視覺(

Computer

Vision

,CV)領(lǐng)

域中使用的大模型

,通常用于圖像處理和分析

。

這類模型通過在大規(guī)模圖像數(shù)據(jù)上進行訓練,

以實現(xiàn)各種視覺任務(wù)

,如圖像分類

目標檢測

、

圖像分割

、姿態(tài)估計

、人臉識別等

。代表性產(chǎn)品包括VIT系列(

Google

、文心UFO

、華為盤古

CV

、

INTERN(商湯)等3.4大模型的分類通用大模型L0是指可以在多個領(lǐng)域和任務(wù)上通用的大模型

。

它們利用大算力、使用海量的開放數(shù)據(jù)與具有巨量參數(shù)的深度學習算法,在大規(guī)模無標注數(shù)

據(jù)上進行訓練,

以尋找特征并發(fā)現(xiàn)

規(guī)律

,進而形成可“舉一反三”

的強

大泛化能力

,可在不進行微調(diào)或少

量微調(diào)的情況下完成多場景任務(wù)

,

相當于AI完成了“通識教育”行業(yè)大模型L1是指那些針對特定行業(yè)或領(lǐng)域的大模型

。

它們通常使用行業(yè)相關(guān)的數(shù)

據(jù)進行預(yù)訓練或微調(diào),

以提高在該領(lǐng)域的性能和準確度,相當于AI成

為“行業(yè)專家”垂直大模型L2是指那些針對特定任務(wù)或場景的大模型

。

它們通常使用任務(wù)相關(guān)的數(shù)

據(jù)進行預(yù)訓練或微調(diào),

以提高在該

任務(wù)上的性能和效果3.4大模型的分類按照應(yīng)用領(lǐng)域的不同

,大模型主要可以分為L0、

L1、

L2三個層級OpenAI定義推理模型在OpenAI的官網(wǎng)上

,OpenAI定義推理模型是在回答之前進行思考

,

并在回復用戶

之前

,在內(nèi)部生成一長串的思維鏈過程。思維鏈是一種提示大語言模型進行逐步推理的方法。它讓模型在得出最終答案之前,

先顯式地寫出推理的中間步驟。這就像人

類解決復雜問題時會先把思考過程寫下來

一樣。推理模型的核心也就是說

,如果模型在回復你之前有一長串的思考過程(這個過程必須可以顯示輸

出)

,探索了很多不同的路徑之后給出答

,那么有這個能力的大模型就是推理大模型。推理模型的核心在于處理那些需要多步驟邏輯推導才能解決的復雜問題。推理大模型推理大模型的概念大規(guī)模傳播應(yīng)該開始于2

0

2

4

9

。

2

0

2

4

9

月12日,OpenAI官方宣布了OpenAI

o

1推理大模

型。3.4大模型的分類大語言模型可以分為通用大模型和推理大模型3.4大模型的分類n

推理大模型DeepSeek

R1的對話效果非推理問題

:”

法國的首都是哪里

?

”(答案直接

、

無需推導

)推理問題:”

一列火車以每小時60英里的速度行駛3小時

行駛距離是多少?

”(需先理解

”距離

=速度

×

時間

的關(guān)系

,

再分步計算)Sebastian

Raschka博士(

Lightning

AI的首席教育學家)

將“推理”定義為通過生成中間步驟來回答復雜問

題的過程

通用的大語言模型(

LLM)

可能直接輸出簡短答案(如”

180英里”)

推理模型的特點在于顯式展示中間推導過程3.4大模型的分類特性推理大模型通用大模型適用場景復雜推理、

解謎、

數(shù)學、

編碼難題文本生成、

翻譯、

摘要、

基礎(chǔ)知識問答復雜問題解決能力優(yōu)秀

,能進行深度思考和邏輯推理一般

,難以處理多步驟的復雜問題運算效率較低

,推理時間較長

,資源消耗大較高

響應(yīng)速度快

,資源消耗相對較小幻覺風險較高

,

可能出現(xiàn)“過度思考”導致的錯誤答案較低

,更依賴于已知的知識和模式泛化能力更強

,能更好地適應(yīng)新問題和未知場景相對較弱

,更依賴于訓練數(shù)據(jù)擅長任務(wù)舉例解決復雜邏輯謎題

,編寫復雜算法

,數(shù)學證明撰寫新聞稿

,翻譯文章

,

生成產(chǎn)品描述

回答常識問題成本通常更高通常更低在應(yīng)用方面二者各有擅長的領(lǐng)域

,

而不是簡單的誰強誰弱問題n

如果你需要完成數(shù)據(jù)分析、

邏輯推理、

代碼生成等邏輯性較強且較為復雜的任務(wù)

,請選擇推理大模型n

如果你面臨創(chuàng)意寫作、

文本生成、

意圖識別等發(fā)散性較強且較為創(chuàng)意多樣的任務(wù)

,請選擇通用大模型3.4大模型的分類大量的數(shù)據(jù)和計算資源訓練具有大量參數(shù)的不斷地調(diào)整模型參數(shù)大模型是基于Transformer架構(gòu)的

,這種架構(gòu)是一種專門用于自然語言處理的“編碼-解碼器”架構(gòu)。

在訓練過程中

,大模型將輸入的單詞以向量的形式傳遞給神經(jīng)網(wǎng)絡(luò)

,然后通過網(wǎng)絡(luò)的編碼解碼以及自注意力機制

,建立起每個單詞之間聯(lián)系的權(quán)

重。大模型的核心能力在于將輸入的每句話中的每個單詞與已經(jīng)編碼在模型中的單詞進行相關(guān)性的計算

,并把相關(guān)性又編碼

疊加在每個單詞中。

這樣

,大模型能夠更好地理解和生成自然文本

,

同時還能夠表現(xiàn)出一定的邏輯思維和推理能力3.5大模型的基本原理神經(jīng)網(wǎng)絡(luò)模型基于深度學習大模型利用3.5大模型的基本原理3.6.1

國外的大模型產(chǎn)品3.6.2

國內(nèi)的大模型產(chǎn)品3.6.3

主流大模型“幻覺”評測3.6大模型產(chǎn)品廈門大學大數(shù)據(jù)教學團隊作品n

ChatGPTChatGPT是一種由OpenAI訓練的大語言模型。

它是基于Transformer架構(gòu)

,經(jīng)過大量文本數(shù)據(jù)訓練而成

,能夠生成自然、流暢的語言

,并具備回答問題、

生成文本、

語言翻譯等多種功能ChatGPT的應(yīng)用范圍廣泛

,

可以用于客服、

問答系統(tǒng)、

對話生成、

文本生成等領(lǐng)域。

它能夠理解人類語言

,并能夠回答各種問題

,提供相關(guān)的知識和信息。

與其他聊天機器人相比

,

ChatGPT具備更強的語言理解和生成能力

,能夠更自然地與人

類交流

,并且能夠更好地適應(yīng)不同的領(lǐng)域和場景。

ChatGPT的訓練數(shù)據(jù)來自互聯(lián)網(wǎng)上的大量文本

因此

,

它能夠涵蓋多種3.6.1國外的大模型產(chǎn)品語言風格和文化背景n

GeminiGemini是谷歌發(fā)布的大模型

,

它能夠同時處理多種類型的數(shù)據(jù)和任務(wù)

,

覆蓋文本、

圖像、

音頻、

視頻等多個領(lǐng)域。

Gemini采用了全新的架構(gòu)

,將多模態(tài)編碼器和多模態(tài)解碼器兩個主要組件結(jié)合在一起

,

以提供最佳結(jié)果Gemini包括三種不同規(guī)模的模型:

Gemini

Ultra、

Gemini

Pro和Gemini

Nano

,

適用于不同任務(wù)和設(shè)備。

2023年12月6日,Gemini的初始版本已在Bard中提供

,開發(fā)人員版本可通過Google

Cloud的API獲得。

Gemini可以應(yīng)用于Bard和Pixel8Pro智能手機。

Gemini的應(yīng)用范圍廣泛

,包括問題回答、

摘要生成、

翻譯、

字幕生成、

情感分析等任務(wù)。

然而

,

由于其復雜

性和黑箱性質(zhì)

,

Gemini的可解釋性仍然是一個挑戰(zhàn)3.6.1國外的大模型產(chǎn)品n

Sora2024年2月16日

,

OpenAI再次震撼全球科技界

,發(fā)布了名為Sora的文本生成視頻大模型

,只需輸入文本就能自動生成視頻。

這一技術(shù)的誕生,不僅標志著人工智能在視頻生成領(lǐng)域的重大突破

,更引發(fā)了關(guān)于人工智

能發(fā)展對人類未來影響的深刻思考。

隨著Sora的發(fā)布

,人工智能似乎正

式踏入了通用人工智能(AGI:

Artificial

General

Intelligence)

的時代。AGI是指能夠像人類一樣進行各種智能活動的機器智能

,包括理解語言、識別圖像、

進行復雜推理等。

Sora大模型能夠直接輸出長達60秒的視頻

并且視頻中包含了高度細致的背景、

復雜的多角度鏡頭

,

以及富有情感

的多個角色。

這種能力已經(jīng)超越了簡單的圖像或文本生成

,開始觸及到

視頻這一更加復雜和動態(tài)的媒介。

這意味著人工智能不僅在處理靜態(tài)信

息上越來越強大

,

而且在動態(tài)內(nèi)容的創(chuàng)造上也展現(xiàn)出了驚人的潛力3.6.1國外的大模型產(chǎn)品n

Sora右圖是Sora根據(jù)文本自動生成的視頻畫面

,

一位戴著

墨鏡、

穿著皮衣的時尚女子走在雨后夜晚的東京市區(qū)

街道上

,抹了鮮艷唇彩的唇角微微翹起

,

即便帶著墨

鏡也能看到她的微笑

,地面的積水映出了她的身影和

燈紅酒綠的霓虹燈

,熱鬧非凡的唐人街正在進行舞龍

表演

,熙熙攘攘的人群目光都聚焦在躍動的彩龍身上,

整個環(huán)境的喜慶氛圍仿佛令人身臨其境3.6.1國外的大模型產(chǎn)品n

OpenAI

o32024年12月20日

,

OpenAI發(fā)布推理模型o3

,無論在軟件工程、

編寫代碼

,還是競賽數(shù)學、

掌握人類博士級別的自然科學知識能力方面

,

o3都達到了很高的水平國外的大模型產(chǎn)品3.6.1大模型圖標指標排名DeepSeek能力測評第一豆包用戶數(shù)量第一Kimi文本處理第一即夢AI作圖能力第一通義萬相視頻生成第一智譜清言文檔歸納第一3.6.2國內(nèi)的大模型產(chǎn)品2025年1月國內(nèi)大模型排行榜2024年12月26日

,杭州一家名為“深度求索”(

DeepSeek)

的中國初創(chuàng)公司,發(fā)布了全新一代大模型DeepSeek-V3。

在多個基準測試中

DeepSeek-V3的

性能均超越了其他開源模型

,

甚至與頂尖的閉源大模型GPT-4o不相上下

,尤

其在數(shù)學推理上

,

DeepSeek-V3更是遙遙領(lǐng)先。

DeepSeek-V3以多項開創(chuàng)性

技術(shù)

,大幅提升了模型的性能和訓練效率。

DeepSeek-V3在性能比肩GPT-4o的同時

,研發(fā)卻只花了558萬美元

,

訓練成本不到后者的二十分之一。

為表現(xiàn)太過優(yōu)越

,

DeepSeek在硅谷被譽為“來自東方的神秘力量”。2025年1月20日

,

DeepSeek-R1正式發(fā)布

,擁有卓越的性能

,在數(shù)學、

代碼和推理任務(wù)上可與OpenAI

o1媲美。3.6.2國內(nèi)的大模型產(chǎn)品n

DeepSeek(深度求索)DeepSeek創(chuàng)始人梁文峰n通義千問通義千問是阿里云推出的一個超大規(guī)模的語言模型

,

它具備多輪對話、

案創(chuàng)作、

邏輯推理、

多模態(tài)理解、

多語言支持的能力。

通義千問這個名字

有“通義”和“千問”兩層含義

,

“通義”表示這個模型能夠理解各種語

言的含義

,

“千問”則表示這個模型能夠回答各種問題。

通義千問基于深

度學習技術(shù)

,通過對大量文本數(shù)據(jù)進行訓練

,從而具備了強大的語言理解

和生成能力。

它能夠理解自然語言

,并能夠生成自然語言文本n字節(jié)跳動豆包豆包是字節(jié)跳動基于云雀模型開發(fā)的

AI

,

能理解你的需求并生成高質(zhì)量回應(yīng)。

它知識儲備豐富

,

涵蓋歷史、

科學、

技術(shù)等眾多領(lǐng)域

,

無論是日常問題咨詢

,

還是深入學術(shù)探討

,

都能提供準確全面的信息。

同時

,

具備出色的文本創(chuàng)作能力

能撰寫故事、

詩歌、

文案等各類體裁。

并且擅長語言交互

,交流自然流暢

,就像身邊的知心伙伴

,

耐心傾聽并給予恰當反饋。3.6.2國內(nèi)的大模型產(chǎn)品n文心一言文心一言是由百度研發(fā)的知識增強大模型

,能夠與人對話互動、

回答問題、

協(xié)助創(chuàng)作

高效便捷地幫助人們獲取信息、

知識和靈感文心一言基于飛槳深度學習平臺和文心知識增強大模型

,持續(xù)從海量數(shù)據(jù)和大規(guī)模知識中融合學習

,具備知識增強、

檢索增強和對話增強的技術(shù)特色。文心一言具有廣泛的應(yīng)用場景

,例如智能客服、

智能家居、

移動應(yīng)用等領(lǐng)域。它可以與用戶進行自然語言交互

,

幫助用戶解決各種問題

,提供相關(guān)的知識

和信息n

KimiKimi是月之暗面科技2023年推出的

AI

助手

可處理200萬字超長文本

,支持多

格式文件解讀、

互聯(lián)網(wǎng)信息搜索整合、

多語言對話等

,能用于辦公、

學習、

創(chuàng)作等

場景

,有網(wǎng)頁版、

APP、

微信小程序等使用方式。3.6.2國內(nèi)的大模型產(chǎn)品大模型幻覺

,也被稱為AI幻覺

,是指大型語言模

型在生成內(nèi)容時

產(chǎn)生與事實不符、

邏輯錯誤或

無中生有等不合理信息的現(xiàn)象。比如在回答歷史事件時

,

可能會編造不存在的細

節(jié)或人物;

在進行科學知識講解時

,

給出錯誤的

理論或數(shù)據(jù)。其產(chǎn)生原因主要包括:

模型訓練數(shù)據(jù)存在偏差、

不完整或錯誤

,

導致在學習過程中引入了不準確

的信息;

模型基于概率分布生成內(nèi)容

,

在某些情

況下會選擇一些看似合理但實際錯誤的路徑。

模型幻覺會影響信息的準確性和可靠性

,

在信息

傳播、

學術(shù)研究等領(lǐng)域可能帶來不良影響。

因此,

在使用大模型時

需要對其輸出內(nèi)容進行仔細驗

證和甄別。3.6.3主流大模型“幻覺”評測3.7大模型的應(yīng)用領(lǐng)域廈門大學大數(shù)據(jù)教學團隊作品(2)計算機視覺大模型在計算機視覺領(lǐng)域也有廣泛應(yīng)用

,可以用于圖像分類(識別圖像中的物體和場景)、

目標檢測(能夠定位并識別圖像中的特定物體)、圖像生成(如風格遷移、圖像超分辨率增強)、人臉識別(用于安全驗證和身份識別)、醫(yī)學影像分析(輔助醫(yī)生診斷疾?。┑龋?)

自然語言處理大模型在自然語言處理領(lǐng)域具有重要的應(yīng)用

,可以用于文本生成(如文章、小說、新聞等的創(chuàng)作)、翻譯系統(tǒng)(能夠?qū)崿F(xiàn)高質(zhì)量的

跨語言翻譯)、問答系統(tǒng)(能夠回答用戶提出的問題)、情感分析(用于判斷文本中的情感傾向)、語言生成(如聊天機器人)等大模型的應(yīng)用領(lǐng)域非常廣泛

,涵蓋了自然語言處理、

計算機視覺、

語音識別、

推薦系統(tǒng)、

醫(yī)療健康、

金融風控、

工業(yè)制造、生物信息學、

自動駕駛、

氣候研究等多個領(lǐng)域3.7大模型的應(yīng)用領(lǐng)域(4)推薦系統(tǒng)大模型可以用于個性化推薦、廣告推薦等任務(wù)。通過分析用戶的歷史行為和興趣偏好

,大模型可以為用戶提供個性化的推薦服務(wù)

,提高用

戶滿意度和轉(zhuǎn)化率(3)語音識別大模型在語音識別領(lǐng)域也有應(yīng)用

,如語音識別、語音合成等。通過學習大量的語音數(shù)據(jù)

,大模型可以實現(xiàn)高質(zhì)量的跨語言翻譯和語音

識別以及生成自然語音3.7大模型的應(yīng)用領(lǐng)域金融風控自動駕駛醫(yī)療健康大模型可以用于信用評估、欺詐檢測等任務(wù)

。通過分析大量的金融數(shù)據(jù)

,大模型可

以評估用戶的信用等級和風險水平,

以及檢測欺詐行為,提高金融系統(tǒng)的安全性和

穩(wěn)定性大模型可以用于醫(yī)療影像診斷、疾病預(yù)測等任務(wù)

。通過學習大量的醫(yī)學影像數(shù)據(jù)

,大模型可以輔助醫(yī)生進行疾病診斷和治療方案制定,提高醫(yī)療水平和效率3.7大模型的應(yīng)用領(lǐng)域型可以實現(xiàn)對車輛周圍環(huán)境的感知和識別,以及進行決策和控制,提高自動駕駛的安

全性和效率大模型可以用于自動駕駛中的感知、決策等任務(wù)

。通過學習大量的駕駛數(shù)據(jù)

,大模在生物信息學領(lǐng)域

,大模型可以用于基因序列分析(識別基因中的功能元件和變異

位點)

、蛋白質(zhì)結(jié)構(gòu)預(yù)測(推測蛋白質(zhì)的

二級和三級結(jié)構(gòu))

、藥物研發(fā)(預(yù)測分子與靶點的相互作用)等大模型可以用于質(zhì)量控制、故障診斷等任務(wù)

。通過學習大量的工業(yè)制造數(shù)據(jù)

,大模型可以輔助工程師進行產(chǎn)品質(zhì)量控制和故

障診斷,提高生產(chǎn)效率和產(chǎn)品質(zhì)量在氣候研究領(lǐng)域

,大模型可以處理氣象數(shù)據(jù)

,進行天氣預(yù)測和氣候模擬

。

它們能夠分析復雜的氣象現(xiàn)象,提供準確的氣象預(yù)報

,幫助人們做出應(yīng)對氣候變化的決策3.7大模型的應(yīng)用領(lǐng)域工業(yè)制造生物信息學氣候研究4.高校本地部署DeepSeek大模型廈門大學大數(shù)據(jù)教學團隊作品大模型圖標指標排名DeepSeek

能力測評第一豆包

用戶數(shù)量第一Kimi

文本處理第一即夢AI

作圖能力第一通義萬相

視頻生成第一智譜清言

文檔歸納第一4.1直接使用在線大模型n

2025年1月國內(nèi)大模型排行榜北京交通大學教學運行中心在智慧教學課程平臺中全面接入Deep-Seek-R1大模型

,利用其在數(shù)學、代碼、

自然語言處理

等方面的強大推理能力

,幫助教師高效解決教學過程中各類復

雜問題。該校表示

,

目前“深度思考

”功能對全校教師開放

,

后續(xù)將逐步對學生開放

,并上線更多功能。北京師范大學利用該校培養(yǎng)方案、教學手冊、教學大綱等高質(zhì)量語料

,

為近萬門課程本地化部署DeepSeek-R1大模型。登錄智能

“課程中心

,學業(yè)規(guī)劃、知識問答、概念講解、資源推薦、解題

啟發(fā)、論文潤色等功能一目了然

,為師生提供定制化、情境化的教

學輔助

,還支持學生的個性化與探究式學習需求。DeepSeek滿血版R1

,

參數(shù)高達6710億(671B)

相當于一個

“超級大腦”

,

能處理復雜數(shù)學題、

編程、

長文本分析等高難度

任務(wù)。

部署本地DeepSeek-

R1(671B)滿血版模型

,支持校園辦公自動化、

科研項目輔助、

學術(shù)資源分析等多領(lǐng)域應(yīng)用浙江大學、

中國人民大學、

廈門大學、

北京師范大學、

北京交通大學等高校發(fā)布消息

,表示正在探索開展有關(guān)DeepSeek的

實踐應(yīng)用

,部分高校已在自主研發(fā)的教學課程平臺中接入該大

模型。

DeepSeek化身智能“助教”

,為師生深度思考賦能。4.2國產(chǎn)AI大模型DeepSeek走入高校中國農(nóng)業(yè)大學、

中央民族大學等高校還利用該大模型的問答功能

,介紹學校特色專業(yè)和校園文化

,歡迎學生報考。通過多輪對話實時聯(lián)網(wǎng)搜索權(quán)威信息

,提供全面、快速、優(yōu)質(zhì)的回答2025年2月19日

,鄭州大學國家超級計算中心、

計算機與人工智能學院、

信息化辦公室攜手攻堅

,成功在超算中心設(shè)備上部署本

地化“滿血版”

DeepSeek-R1大模型(671B)

。在多個關(guān)鍵應(yīng)用領(lǐng)域

,

DeepSeek-R1大模型展現(xiàn)出強大的實力論文寫作輔助提供語法檢查、參考文獻自動生成等功能,極大提高寫作效率文本創(chuàng)作與智能辦公場景實現(xiàn)高效語言生成、

輔助寫作、

智能糾錯和摘要生成、多種語言實時互譯文本分析可快速提煉論文創(chuàng)新點、方法及實驗結(jié)果數(shù)學推理能夠解答高等數(shù)學、

概率統(tǒng)計、

線性代數(shù)等復雜問題

,提供解題思路與引導式問題編程助手支持10余種編程語言的代碼創(chuàng)作與問題診斷4.2國產(chǎn)AI大模型DeepSeek走入高校知識問答鄭州大學DeepSeek-R1系列大模型正在對接學校統(tǒng)一身份認證平臺

,近期將面向全校師生開放試用同時

將根據(jù)學校各學科具體需求與硬件條件

,

以具體化、

針對性、

私有化、

學科專用或?qū)嶒炇覍S玫姆绞綄⑦M一步

將70B、

32B、

14B、

8B、

7B等不同版本的DeepSeek-R1大模型部署到學科內(nèi)部

,并接入本地知識庫(如學術(shù)資源、

課程資源、

實驗數(shù)據(jù)等)

,

后期學校將根據(jù)具體需求及資源占用情況提供差異化服務(wù)

,

構(gòu)建

“AI

+學科

”垂直領(lǐng)域解

決方案

,為學科交叉創(chuàng)新發(fā)展提供有力支撐4.2國產(chǎn)AI大模型DeepSeek走入高校本地部署

大模型4.3為什么需要本地部署大模型離線與高效使用成本與資源優(yōu)化數(shù)據(jù)隱私與安全性避免使用限制定制化與靈活性模型微調(diào)技術(shù)特點(1)

領(lǐng)域針對性強:

經(jīng)過微調(diào)的模

型在特定領(lǐng)域的表現(xiàn)會有顯著提升

,

能夠更好地理解和處理該領(lǐng)域的專業(yè)

問題;(2)

模型適應(yīng)性優(yōu)化:

通過微調(diào)可

以調(diào)整模型的參數(shù)

,使其更符合特定

任務(wù)的要求

,提高輸出的準確性和穩(wěn)

定性。模型微調(diào)和本地知識庫使用海量數(shù)據(jù)進行預(yù)訓練得到的基礎(chǔ)大模型

,具備廣泛的語言理解和生成

能力

,但在特定任務(wù)上的表現(xiàn)往往不

夠精準。解決方案:(1)

模型微調(diào);(2)

本地知識庫模型微調(diào)技術(shù)要點(1)

高質(zhì)量的標注數(shù)據(jù):

標注數(shù)據(jù)

的質(zhì)量直接影響微調(diào)的效果

,

需要確

保數(shù)據(jù)標注的準確性和一致性。(2)

合理的微調(diào)策略:

選擇合適的

微調(diào)算法和超參數(shù)

,避免過擬合或欠

擬合問題。4.4本地部署大模型方案在監(jiān)督微調(diào)階段

,模型會學習一個指令-響應(yīng)(Instruction-Response)

數(shù)據(jù)集

,

該數(shù)據(jù)集包含大量人

類編寫的任務(wù)示例

,例如“請解釋相對論的基本概念”及其標準答案通過這種方式

模型能夠理解不同類型的任務(wù)并提供符合預(yù)期的回答

。

指令-響應(yīng)

(Instruction

-Response)

數(shù)據(jù)集用于訓練模型理解任務(wù)指令并生成符合預(yù)期的響應(yīng)時效性問題對知識更新頻繁的領(lǐng)域

,微調(diào)后的模型可能很快會過時

,

需要不斷重新訓練在微調(diào)完成后

,

部分高級模型還會使用強化學習進行優(yōu)化。

例如

,

ChatGPT和Claude使用人類反饋

強化學習(

RLHF)

讓模型的回答更符合用戶期望

,更好地選擇符合人類偏好的答案數(shù)據(jù)準備成本高需要收集、

整理和標注大量特定領(lǐng)域的數(shù)據(jù)

,這是一個耗

時費力的過程4.4本地部署大模型方案模型微調(diào)主要是指令微調(diào)

,指令微調(diào)包括兩個階段:

監(jiān)督微調(diào)和強化學習監(jiān)督微調(diào)強化學習不足之處:n

本地知識庫RAG(

Retrieval-Augmented

Generation)

,

即檢索增強生成

,是一種結(jié)合檢索技術(shù)和生成模型的技術(shù)框架,

旨在提升模型生成內(nèi)容的準確性和相關(guān)性其核心思想是:

在生成答案前

,

先從外部知識庫中檢索相關(guān)信息

,

再將檢索結(jié)果與用戶輸入結(jié)合

,指導生成模型

輸出更可靠的回答。

簡單地說

,就是利用已有的文檔、

內(nèi)部知識生成向量知識庫

,在提問的時候結(jié)合庫的內(nèi)容一

起給大模型

,

讓其回答的更準確

它結(jié)合了信息檢索和大模型技術(shù)4.4本地部署大模型方案實時知識補充模型的回復結(jié)合了業(yè)務(wù)知識和實時知識

,

所以實時性可以更好減少模型幻覺由于提問結(jié)合了業(yè)務(wù)知識

,所以減少了模型的幻覺,即減少了模型的胡說八道保護數(shù)據(jù)隱私由于日常的業(yè)務(wù)知識是保存到本地的

,

所以減少信息泄露的風險4.4本地部署大模型方案無需重新訓練不用重新訓練模型

,微調(diào)模型降低了成本n

本地知識庫的優(yōu)點步驟安裝Ollama下載DeepSeek

R1運行DeepSeek

R1使用Open

Web

UI增強交互體驗

具體安裝過程請參考廈門大學數(shù)據(jù)庫實驗室博客/blog/5816/4.4本地部署大模型方案DeepSeek

R1671B(滿血版)

部署成本1.硬件采購成本?服務(wù)器集群

:含8張NVIDIA

A100/H100顯卡的服務(wù)器

市場價格約80-120萬元?配套設(shè)備

:液冷系統(tǒng)、

冗余電源等附加成本約15-25萬元2.運維成本?電費

:滿載功耗約6000W

年電費約5-8萬元(按工業(yè)電價1.2元/度計算)?維護:

專業(yè)工程師團隊年成本約30-50萬元4.4本地部署大模型方案高校科研基礎(chǔ)設(shè)施不足

,算力短

缺且資源碎片化問題依然突出DeepSeek雖然大幅降低了算力消耗

,但對于尖端的AIfor

Science

,仍需大量算力。

過去

,傳統(tǒng)的高校算力建

設(shè)方式

,往往是不同院系、

研究小組

,

自行采購和管理各

自的計算資源

,

一個學校內(nèi)可能存在多個小型計算集群。

賽爾網(wǎng)絡(luò)的一份報告顯示

,全國近2000所高等學校中,91.6%的高校未建設(shè)校級算力平臺。

這顯然難以匹配大模

型時代的要求

,容易出現(xiàn)算力資源分散管理、

忙閑不均、

共享不暢等問題

,拖慢科研成果產(chǎn)出效率大模型的技術(shù)棧復雜。

即使是目前廣

受歡迎的DeepSeek

,

在業(yè)界看來

,

其落地門檻仍然很高比如拿到一個開源的DeepSeek模型后

,要先做算力適配

,

一種簡單粗暴的做法是多買一些已經(jīng)適配過的卡

,把它給

裝進去

,再結(jié)合用戶的私有數(shù)據(jù)

,去做常規(guī)的RAG或微調(diào)。

這種方式簡單易操作

,但成本較高?,F(xiàn)在

,

高校和科研院所在探索一些新方法。

比如

,

先將開

源模型蒸餾

,獲得更小參數(shù)的模型

,來降低算力需求4.4本地部署大模型方案高校本地部署大模型面臨的問題:n

2025年2月10日

,清華大學AI團隊發(fā)布KTransformers開源項目迎來重大更新

,成功打破大模型推理算

力門檻。

此前

,擁有671B參數(shù)的MoE架構(gòu)大模型DeepSeek-R1在推理時困難重重。

推理服務(wù)器常因高

負荷宕機

專屬版云服務(wù)器按GPU小時計費的高昂成本讓中小團隊無力承擔

,

而市面上的

“本地部署”

方案多為參數(shù)量大幅縮水的蒸餾版

,在本地小規(guī)模硬件上運行滿血版

DeepSeek-R1被認為幾乎不可能n

此次KTransformers項目更新帶來重大突破

,

支持在24G顯存(4090D)

的設(shè)備上本地運行

DeepSeek-

R1、V3的671B滿血版。

其預(yù)處理速度最高可達286tokens/s

,推理生成速度最高能達到14tokens/s。

甚至有開發(fā)者借助這一優(yōu)化技術(shù)

,在3090顯卡和200GB內(nèi)存的配置下

,使Q2_K_XL模型的推理速度達到9.1tokens/s

,

實現(xiàn)了千億級模型的“家庭化”運行傳統(tǒng)方案:

8卡A100服務(wù)器成本超百萬元

,按需計費每小時數(shù)千元清華方案:

單卡RTX4090方案

,整機成本約2萬元

,功耗80W4.4本地部署大模型方案5.1AI

GC概述5.2文本類AI

GC應(yīng)用實踐5.3

圖片類AI

GC應(yīng)用實踐5.4語音類AI

GC應(yīng)用實踐5.5視頻類AI

GC應(yīng)用實踐5.6AI

GC在輔助編程中的應(yīng)用5.7AI搜索5.8AI智能辦公5.AI

GC應(yīng)用與實踐廈門大學大數(shù)據(jù)教學團隊作品5.

1AI

GC概述5.1.1什么是AI

GC5.1.2AI

GC與大模型的關(guān)系5.1.3

常見的AI

GC應(yīng)用場景5.1.4

常見的AI

GC大模型工具5.1.5AI

GC大模型的提示詞廈門大學大數(shù)據(jù)教學團隊作品AIGC的全稱為“Artificial

Intelligence

Generated

Content”

中文翻譯為“人工智能生成內(nèi)容”。

這是一種新的創(chuàng)作方式

,利用人工智能

技術(shù)來生成各種形式的內(nèi)容

,包括文字、

音樂、

圖像、

視頻等nAIGC是人工智能進入全新發(fā)展時期的重要標志

,其核心技術(shù)包括生成對抗網(wǎng)絡(luò)(GAN

,GenerativeAdversarial

Networks)、大型預(yù)訓練模型、多模態(tài)

技術(shù)等nAIGC的核心思想是利用人工智能算法生成具有一定創(chuàng)意和質(zhì)量的內(nèi)容。通過

訓練模型和大量數(shù)據(jù)的學習

,AIGC可以根據(jù)輸入的條件或指導

,生成與之相

關(guān)的內(nèi)容。例如

,通過輸入關(guān)鍵詞、描述或樣本

,AIGC可以生成與之相匹配

的文章、圖像、音頻等nAIGC技術(shù)不僅可以提高內(nèi)容生產(chǎn)的效率和質(zhì)量

,還可以為創(chuàng)作者提供更多的靈感和支持。在文學創(chuàng)作、藝術(shù)設(shè)計、游戲開發(fā)等領(lǐng)域

,AIGC可以自動創(chuàng)作出高質(zhì)量的文本、圖像和音頻等內(nèi)容。同時

,AIGC也可以應(yīng)用于媒體、教育、娛樂、營銷、科研等領(lǐng)域

,為用戶提供高質(zhì)量、高效率、高個性化的內(nèi)容服務(wù)5.1.1什么是AI

GC大模型與AIGC之間的關(guān)系可以說是相輔相成、

相互促進的。

大模型為AIGC提供了強大的技術(shù)基礎(chǔ)和支撐,而AIGC則進一步推動了大模型的發(fā)展和應(yīng)用5.1.2AI

GC與大模型的關(guān)系大模型為AIGC提供了豐

富的數(shù)據(jù)資源和強大的計

算能力大模型和AIGC的結(jié)合

,

也帶來了廣泛的應(yīng)用前景AIGC的需求也推動了大

模型的發(fā)展010302辦公寫周報日報

,

寫方案

,

寫運營活動

制作PPT

,

讀后感

,

寫代碼游戲生成場景原畫

,

生成角色形象

,

生成世界觀

,

生成

數(shù)值

,

生成3D模型

生成NPC對話

,

音效生成電商生成商品標題

、

描述

、

廣告文案和廣告圖娛樂頭像生成

,

照片修復

,

圖像生成

,

音樂生成影視生成分鏡頭腳本

生成劇本腳本

臺詞潤色

,

生成

推廣宣傳物料

,

音樂生成5.1.3常見的AI

GC應(yīng)用場景設(shè)計UI設(shè)計

,

美術(shù)設(shè)計

,

插畫設(shè)計

,建筑設(shè)計動漫原畫繪制

,

動畫生成

,

分鏡生成

,

音樂生成藝術(shù)寫詩

,

寫小說

,

生成藝術(shù)創(chuàng)作品

草圖生成

,

藝術(shù)風格

轉(zhuǎn)換

,

音樂創(chuàng)作教育批改試卷

試卷創(chuàng)建

搜題答題

,

課程設(shè)計

,

課程總結(jié)

,

虛擬講師生活制定學習計劃

,

做旅游規(guī)劃媒體軟文撰寫

,

大綱提煉

,

熱點撰寫5.1.3常見的AI

GC應(yīng)用場景5.1.4常見的AI

GC大模型工具這些工具基于大語言模型技術(shù)

具備文本生成、

語言理解、

知識問答、

邏輯推理等多種能力

,

可廣泛應(yīng)用于寫作輔助、

內(nèi)容創(chuàng)作、

智能客服等多個領(lǐng)域。

通過不斷迭代和優(yōu)化

,為用戶提供更加智能、

高效的內(nèi)容生成解決方案OpenAI的ChatGPT科大訊飛的訊飛星火阿里的通義千問DeepSeek百度文心一言字節(jié)跳動豆包Kimi

AIGC大模型的提示詞(

Prompt)

是指用戶向大模型輸入的文本內(nèi)容

用于觸發(fā)大模型的響應(yīng)并指導其如何生成或回應(yīng)

這些提示詞可以是一個問題、

一段描述、

一個指令

,

甚至是一個帶有詳細參數(shù)的文字描述。

它們?yōu)榇竽P吞峁┝松蓪?/p>

應(yīng)文本、

圖片、

音頻、

視頻等內(nèi)容的基礎(chǔ)信息和指導方向。

提示詞的重要作用如下:5.1.5AI

GC大模型的提示詞引導生成

增強交互性提高準確性5.1.5AI

GC大模型的提示詞使用提示詞需要注意一些技巧

,

這樣可以從大模型獲得更加符合我們預(yù)期要求的結(jié)果使用肯定性指令分解復雜任務(wù)自然語言回答簡潔明確考慮受眾遵守規(guī)則明確角色示例驅(qū)動通用模型n

需顯式引導推理步驟(如通過“思

維鏈”提示)

,否則可能跳過關(guān)鍵

邏輯。n

依賴提示語補償能力短板(如要求

分步思考、提供示例)。n

提示語更簡潔

,只需明確任務(wù)目標和需求(因其已內(nèi)化推理邏輯)。n

無需逐步指導

,模型自動生成結(jié)構(gòu)

化推理過程(若強行拆解步驟

,反

而可能限制其能力)。5.1.5AI

GC大模型的提示詞推理模型提示詞之道:

通用大模型與推理大模型在提示詞策略方面也有不同側(cè)重與技巧5.2文本類AI

GC應(yīng)用實踐進入百度官網(wǎng)訪問DeepSeek保證正??焖偈褂貌襟E1:登錄DeepSeek平臺。在瀏覽器地址欄中輸入“https://www.deepseek.com/

”網(wǎng)址,進入“DeepSeek

”平臺,完成登錄后,進入平臺的對話功能界面。步驟4:登錄KIMI平臺。在瀏覽器地址欄中輸入“https://kimi.moonshot.cn/”網(wǎng)址,進入“KIMI平臺

”,登錄成功后,點擊平臺左側(cè)的“kimi+

”后選擇PPT助手功能5.2文本類AI

GC應(yīng)用實踐步驟6:一鍵生成PPT并選擇適合的PPT模板和風格步驟7:編輯和確認生成的PPT內(nèi)容,無誤后下載PPT步驟3:生成并保存DeepSeek生成的PPT大綱和框架案例:

DeepSeek

+Kimi制作PPT步驟5:在Kimi中粘貼DeepSeek生成的

PPT大綱和框架步驟2:輸入你要生成PPT的提示詞02050401030607打

開x

m

i

nd

件,

-

-

Ma

rkdow

n進

入,

。將

Dee

p

Seek,

現(xiàn)

個x

m

i

nd

圖,

Ma

rkdow

n格

式5.2文本類AI

GC應(yīng)用實踐案例:

DeepSeek

+Kimi制作腦圖將內(nèi)容復制到text的文件中

進行保存

并將文件的后綴名改為.

md圖片類AIGC是一種基于人工智能技術(shù)生成圖片的方法

它利用深度學習、

生成對抗網(wǎng)絡(luò)(GAN)

等先進算法

,通

過學習和模仿大量圖像數(shù)據(jù)

,能夠自動創(chuàng)作出高度真實和藝術(shù)化的圖片。

AIGC在圖像生成、

修復、

風格轉(zhuǎn)換、

術(shù)創(chuàng)作等領(lǐng)域展現(xiàn)出強大能力

,為數(shù)字藝術(shù)、

設(shè)計、

游戲、

電影等多個行業(yè)帶來創(chuàng)新解決方案。

其優(yōu)勢包括高效性、

多樣性和自動化

,能夠快速生成大量高質(zhì)量的圖像內(nèi)容

,滿足各種復雜需求5.3圖片類AI

GC應(yīng)用實踐AIGC能夠生成高度逼真的圖像

,

如人臉、

動物、

建筑物等。

例如

,

OpenAI發(fā)布的DALL-E可以

根據(jù)文本提示詞創(chuàng)作出全新的、

原創(chuàng)的圖像

,

展示了AI在圖像創(chuàng)作方面的強大能力AI

GC在圖像識別方面也有廣泛應(yīng)用

可以識別圖像中的對象、

場景和特征

,

如人臉識別、

車牌識別等。

這項技術(shù)對于安防監(jiān)控、

智能搜索、

自動駕駛等領(lǐng)域的發(fā)展至關(guān)重要通過對圖像進行增強處理

,

AI

GC可以增加圖像的飽滿感和增強細節(jié)

,

使圖像質(zhì)量得到提升。

這在提升照片的視覺效果、

改善圖像的清晰度和細節(jié)方面非常有用AI

GC還可以修復損壞的圖像

,

如去除噪聲、

填充缺失的部分等。

這項技術(shù)對于保護和恢復古老的藝術(shù)作品、

修復損壞的照片等具有重要意義5.3圖片類AI

GC應(yīng)用實踐圖像識別圖像修復圖像增強圖像生成案例:

DeepSeek+即夢AI

,

生成教師節(jié)海報第1步

:登錄DeepSeek

,輸入如下提示詞:我想用Al繪圖軟件繪制一張教師節(jié)海報,要加入廈門大學元素,請幫我寫一段提示詞第2步

:登錄

“即夢AI”

,進入

“AI作圖”的

“圖片生成”

,在提示詞輸

入框中

,把第1步DeepSeek生成的提示詞粘貼進來

,點擊

“立即生成”5.3圖片類AI

GC應(yīng)用實踐5.3圖片類AI

GC應(yīng)用實踐案例:

去除圖片中的水印去除水印后的圖片帶有水印的圖片語音類AIGC是一種利用人工智能技術(shù)(特別是語音識別、

自然語言處理和語音合成技術(shù))

,

自動生成和處理語音內(nèi)容的技術(shù)。

它能夠模擬人類語音

,

實現(xiàn)語音到文本的轉(zhuǎn)換、

文本到語音的合成,

以及語音情感分析等功能

,廣泛應(yīng)用于智能語音助手、

智能客服、

語音翻譯等多個領(lǐng)域5.4語音類AI

GC應(yīng)用實踐5.4語音類AI

GC應(yīng)用實踐智能駕駛艙與車載語音助手應(yīng)用場景0105語音分析與情感識別030406虛擬人物

與數(shù)字人語音合成

與轉(zhuǎn)換0207智能語音助手智能客服語音翻譯高校老師怎么用?n

高校教師可以使用語音類AI

GC工具(喜馬拉雅音頻大模型、騰訊智影)

,根據(jù)自己教學課件的文本內(nèi)容,

自動生成專業(yè)的配音

,可以采用專業(yè)播音員的音色

,也可以使用AI

GC工具(比

如米可智能)“克隆”

自己的講課聲音

,用自己的音色生成配音n

高校教師使用鬼手剪輯GhostCut進行語音翻譯

,可以把一種語言的講課視頻自動轉(zhuǎn)換成另外一種語言的講課視頻5.4語音類AI

GC應(yīng)用實踐視頻類AIGC是指利用人工智能技術(shù)

,特別是深度學習、

機器學習等算法

,

自動創(chuàng)建或處理視頻內(nèi)容的技術(shù)。

它能根據(jù)給定的文本、

圖像或其他數(shù)據(jù)

,

自動生成符合描述的視頻內(nèi)容

,涵蓋文生視頻、

圖生視頻、

視頻風格化、

人物

動態(tài)化等多個方向。

這一技術(shù)在創(chuàng)意設(shè)計、

影視制作等領(lǐng)域潛力巨大

,極大地提升了視頻內(nèi)容的生產(chǎn)效率和質(zhì)量5.5視頻類AI

GC應(yīng)用實踐□使用即夢AI實現(xiàn)圖生視頻□使用通義萬相根據(jù)圖片生成自帶音效的視頻□借助剪映AI工具

,根據(jù)文字自動生成高質(zhì)量的視頻

,

并自帶配音配樂□使用鬼手剪輯生成視頻解說□使用騰訊智影生成數(shù)字人播報視頻(用于制作教學視頻)Vidu生數(shù)科技聯(lián)合清華大學發(fā)布

是中國首個長時長、

高一致性、

高動態(tài)

性視頻大模型

支持一鍵生成16秒

高清視頻

,性能對標國際頂尖水平。即夢AI即夢AI是字節(jié)跳動旗下剪映團隊開

發(fā)的一站式AI創(chuàng)意創(chuàng)作平臺。

支持

文生圖、

圖生圖、

文生視頻、

圖生

視頻等

,有智能畫布、

故事創(chuàng)作等可靈由快手推出

,

被譽為中國版Sora,視頻生成時長可達120秒

,

支持文

生視頻、

圖生視頻、

視頻續(xù)寫、

頭控制等功能

,表現(xiàn)出色。

視頻類AIGC大模型發(fā)端于Sora。

2024年2月

,美國的Open

AI發(fā)布了全球第一款文生視頻大模型Sora(這

里的“文生視頻”是指由輸入的文本內(nèi)容生成相應(yīng)的視頻)

迅速引起了業(yè)界的廣泛關(guān)注和討論高校教師怎么用?□借助可靈AI工具

,根據(jù)文本內(nèi)容自動生成高質(zhì)量的視頻5.5視頻類AI

GC應(yīng)用實踐案例:

使用騰訊智影生成數(shù)字人播報視頻(可以用于制作高校教學視頻)在瀏覽器地址欄中輸入網(wǎng)址“https://zenvideo.qq.com/”,

進入“騰訊智影”平臺,

點擊平臺首頁“智能小工具”欄目

中的

“數(shù)字人播報”按鈕或者

“智能小工具”上方的

“數(shù)字人播報”按鈕

,進入

“數(shù)字人播報”功能界面。5.5視頻類AI

GC應(yīng)用實踐圖“數(shù)字人播報”功能入口圖騰訊智影登錄界面代碼優(yōu)化與重構(gòu)代碼補全與提示能夠提供輔助編程服務(wù)的AIGC大模型包括Codex、

GitHub

Copilot、

CodeGeeX、

aiXcoder、

豆包、

通義靈碼等推薦高校使用AI編程工具:

VS

Code+DeepSeek

字節(jié)跳動Trae(AI

原生集成開發(fā)環(huán)境)5.6AI

GC技術(shù)在輔助編程中的應(yīng)用AIGC技術(shù)在輔助編程中的應(yīng)用日益廣泛

,

它能夠自動生成高質(zhì)量的代碼

,從而顯著提高開發(fā)效率應(yīng)用場景代碼風格統(tǒng)一代碼自動生成為什么要在VSCode中接入

DeepSeek?

代碼智能補全

:根據(jù)上下文自動補全代碼

減少重

復輸入

,提高編碼效率。

代碼生成

:根據(jù)自然語言描述直接生成代碼

,例如

快速搭建項目框架或?qū)崿F(xiàn)特定功能。

AI對話輔助:

隨時與AI對話

,獲取編程建議、

決技術(shù)難題。VSCode接入DeepSeek步驟

注冊

DeepSeek賬號并獲取API

Key

安裝VSCode插件

配置VSCode插件具體操作步驟請參考網(wǎng)頁:blogs.com/jinjiangongzuoshi/p/187260975.6AI

GC技術(shù)在輔助編程中的應(yīng)用AI搜索

,

即人工智能搜索引擎

,是一種利用先進的人工智能技術(shù)

,特別是深度學習和自然語言處理(

NLP)

,來理

解和響應(yīng)用戶的查詢需求的新型搜索工具。

它不僅僅是傳統(tǒng)搜索引擎(比如百度)

的簡單升級

而是通過模擬人類

的思維方式和行為模式

,為用戶提供更加精準、

個性化且高效的信息檢索服務(wù)。AI搜索通過收集和分析用戶的歷史搜索數(shù)據(jù)和行為模式

,構(gòu)建用戶畫像

,從而實現(xiàn)更加精準的個性化搜索服務(wù)。

種數(shù)據(jù)驅(qū)動的智能決策機制

,使得AI搜索能夠不斷自我優(yōu)化

,提升用戶體驗。納米AI搜索是360公司在2024年12月推出的全新AI搜索應(yīng)用

,結(jié)合了自然語言處理、

機器學習以及專家協(xié)同技術(shù),

致力于打破傳統(tǒng)搜索引擎的局限

,提供智能化、

多樣化的搜索體驗。多模態(tài)搜索支持文字、語音、拍照、視頻等多種輸入方式

,滿足不同場

景下的需求

,實現(xiàn)“一切皆可

搜索”智能工具集成內(nèi)置16款頂尖大模型

,如豆包、文心一言等

,為用戶提供一站

式AI智慧體驗。慢思考模式通過專家協(xié)同和多模型協(xié)作,深入分析復雜問題

,提供更專

業(yè)、更全面的答案。5.7AI搜索

AI寫作助手(幫我寫、幫我改、AI伴寫)AI設(shè)計助手(AI排版、AI格式)AI閱讀助手(全文總結(jié)、文檔問答、劃詞解釋和翻譯)AI數(shù)據(jù)助手(AI寫公式、AI數(shù)據(jù)分析)5.8AI智能辦公

5.8AI智能辦公

WPS靈犀n

一鍵生成PPTn

閱讀課件、

論文、

翻譯英文論文n

自動數(shù)據(jù)分析6.基于大模型的智能體廈門大學大數(shù)據(jù)教學團隊作品智能體本身既不是單純的軟件也不是硬件

而是一個更為寬泛的概念

,

它們可以是軟件程序、

機器人或其他形式的

系統(tǒng)

,具備一定的自主性和智能性智能體(AI

Agent)

,又稱“人工智能代理”

,是一種模

仿人類智能行為的智能化系統(tǒng)

它就像是擁有豐富經(jīng)驗和

知識的“智慧大腦”

,能夠感知所處的環(huán)境

,并依據(jù)感知

結(jié)果

自主地進行規(guī)劃、

決策

,進而采取行動以達成特定

目標。

簡單來說

,

智能體能夠根據(jù)外部輸入做出決策

,并

通過與環(huán)境的互動

,不斷優(yōu)化自身行為6.基于大模型的智能體基于大模型的智能體是指利用大語言模型(如GPT、

BERT等)作為核心組件

,構(gòu)建的能夠執(zhí)行特定任務(wù)、與環(huán)境交互并做出決策的人工智能系統(tǒng)。這些智能體具有自主性、交互性、適應(yīng)性等特點

,能夠模擬人類的認知和決策過程

,提供更加自然、高效和個性化的交

互體驗。它們能夠處理海量數(shù)據(jù)

,進行高效的學習與推理

,并展現(xiàn)

出跨領(lǐng)域的應(yīng)用潛力AIAgent的誕生就是為了處理各種復雜任務(wù)的

,就復雜任務(wù)的處理流程而言AIAgent主要分為兩大類:行動類、規(guī)劃執(zhí)行類。總而言之

,AIAgent就是結(jié)合大模型能去自動思考、規(guī)劃、效驗和

執(zhí)行的一個計算體

,以完成特定的任務(wù)目標

,如果把大模型比作大

,那AIAgent可以理解為小腦

+手腳6.基于大模型的智能體AIAgent的工作僅需給定一個目標

,它就能夠針對目標獨立思考并做出行動

,它會根據(jù)給定任務(wù)詳細拆解出每一步的計劃步

,依靠來自外界的反饋和自主思考

己給自己創(chuàng)建prompt

,來實現(xiàn)目標目前各類AICopilot不再是機械地完成人類指令

,而是可以參與人類工作流

,為諸如編寫代碼、策劃活動、優(yōu)化流程等事項

提供建議

,與人類協(xié)同完成過去的嵌入式工具型AI助手型工具(例如siri、小度、小愛音箱)

,只完成和人之間

的問答會話6.基于大模型的智能體智能體更像是一個擁有自主意識的智能員工

,它以大語言模型為驅(qū)動

,具備自主理解、感知、規(guī)劃、記憶和使用工具的能力。它可以根據(jù)目標任務(wù)

,進行智能規(guī)劃與決策

,

自動執(zhí)行復雜的任務(wù)。比如在智能辦公場景中

,AIAgent可以根據(jù)用戶的日程安排

,

自動預(yù)訂會議室、安

排會議議程

,還能在會議結(jié)束后自動生成會議紀要

,實現(xiàn)辦公流程的自動化

,讓員工從繁瑣的事務(wù)性工作中解脫出來RAG技術(shù)就像是一個智能的知識助手

它通過將外部知識庫與大語言模型相結(jié)合

,極大地增強了模型的回答能力。

當用戶提出問題時

RAG首先會在龐大的知識庫中進行檢索

,找到相關(guān)的信息

,然后將這些信息與大語言模型的生成能力相結(jié)合

,給出更加準確、全面的回答。例如

,在企業(yè)客服場景中

,

RAG可以快速檢索企業(yè)的產(chǎn)品資料、常見問題解答等知識庫

,為客戶提供精準的服務(wù)

,大大提高了客服的效率和質(zhì)量RAG的部署相對來說成本較低

,主要集中在知識庫的建設(shè)和維護上。企業(yè)可以利用現(xiàn)有的數(shù)據(jù)資源

,構(gòu)建自己的知識庫

,然后通過接入大語言模型

,實現(xiàn)

RAG的功能。對于一些數(shù)據(jù)量較小、業(yè)務(wù)場景相對簡單的企業(yè)來說

RAG是一個性價比很高的選擇AI

Agent的部署則需要更高的技術(shù)門檻和成本。

它不僅需要強大的大語言模型支持

,還需要構(gòu)建復雜的智能規(guī)劃和決策系統(tǒng)

,以及與各種工具和系統(tǒng)的集成。此外

,AI

Agent還需要不斷地進行訓練和優(yōu)化

,

以提高其智能水平和適應(yīng)性。

因此

,對于一些中小企業(yè)來說

,AIAgent的部署成本可能較高

,但對于大型企業(yè)和對智能化要求較高的企業(yè)來說

,AIAgent帶來的價值可能遠超其成本6.基于大模型的智能體n

RAG和智能體RAG在運行效果上

,

RAG在處理一些需要大量知識支持的任務(wù)時表現(xiàn)出色

比如智

能問答、

文檔生成等。

它能夠利用知識

庫中的信息

,為用戶提供準確、

詳細的

回答。但

RAG的局限性在于

,它缺乏自

主決策和規(guī)劃的能力

,對于一些復雜的、需要靈活應(yīng)變的任務(wù)可能無法勝任各自的優(yōu)勢和適用場景RAG和AI

Agent都有各自的優(yōu)勢和適

用場景。對于企業(yè)用戶來說

,在選擇時

需要根據(jù)自身的業(yè)務(wù)需求、

數(shù)據(jù)資源、

技術(shù)實力和預(yù)算等因素進行綜合考慮。

如果企業(yè)只是需要解決一些簡單的知識

檢索和生成問題

,那么

RAG可能是一個

不錯的選擇;

如果企業(yè)希望實現(xiàn)業(yè)務(wù)流

面自

化,

么AIAge

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論