ChatGPT的技術(shù)發(fā)展路徑和帶來(lái)的影響-2023.03_第1頁(yè)
ChatGPT的技術(shù)發(fā)展路徑和帶來(lái)的影響-2023.03_第2頁(yè)
ChatGPT的技術(shù)發(fā)展路徑和帶來(lái)的影響-2023.03_第3頁(yè)
ChatGPT的技術(shù)發(fā)展路徑和帶來(lái)的影響-2023.03_第4頁(yè)
ChatGPT的技術(shù)發(fā)展路徑和帶來(lái)的影響-2023.03_第5頁(yè)
已閱讀5頁(yè),還剩26頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

ChatGPT?技o(jì)ó展路徑和帶g?影響2023-03目錄01?ty智y和NLPó展路徑02?GPT系W模型ó展?徑03?ChatGPT?o?v解÷04?ChatGPT?影響üoOty智y技o(jì)ó展?tty智y?g?可以追溯r1956~?知模型,?過(guò)近70~?ó展,已?滲透rT行T業(yè)22011~之前?

模型簡(jiǎn)單?v?`時(shí)計(jì)?|t?ó展,模型nY簡(jiǎn)單,能力_tü較弱?

場(chǎng)景\限模型只能]v單一o,通用能力非常弱,導(dǎo)?pp過(guò)高2?

ty干??????v定íY,?表,標(biāo)注p等?t工工作2放置示oā2012~ó??

模型得益?á^?o?v?突|ü|t?力?ó展,模型?g?,GPT3?2020?ā?r?êt?1750?nó?dāng)?shù)?一般t腦p神經(jīng)元120r140?nā?

數(shù)o龐?模型??üà?海??數(shù)o,GPT3用?數(shù)o?t?r45TB,包??[ym?言?

[模態(tài)?音,?_,ā像O間O再`在n~壁壘,模型]v]go?能力n~增à3ty智y??ó類型一般g?,ty智y處理??ó可以V~兩類?1.決式?ty智yT<選?題=,模型?處理諸如?v{,V類,ó序等?ó22.成式?ty智yT<t題=,需?模型yo輸u,?ú成一??內(nèi)??客ê^界可y從未出āā24NLPó展?技o(jì)路徑?然語(yǔ)言處理?NLP,Natural

Language

Processingāo|究tP計(jì)算?互?語(yǔ)言t題?一y學(xué)ù2提示(Prompt)學(xué)`(2020~傳統(tǒng)y法(2012~以前)神?網(wǎng)t(2012~~2018~)模型?ˉ?(2018~~ó?)ó?)2018?,GPTüBert?先e示學(xué)`將Q游任á?t模方式Te定O,通過(guò)\??promptg?現(xiàn)??在?訓(xùn)?模型P解?Q游任常用方y(tǒng)pSVM1TF-IDF1LDA1\O?表1÷y解÷,?OíY,BP神經(jīng)網(wǎng)t2Word2vec?à標(biāo)志著NLPü神經(jīng)網(wǎng)t??\,y型y法y型y法y型y法y型y法^?現(xiàn),標(biāo)志著模型時(shí)代

?

r

g

,

^

?

à



?陸

?

?

現(xiàn)

?FastTextLSTM11Bart1ERNIE,T5等方y(tǒng)Oí?索模型?能力?界2TextCNN1á,?GPT3

T52,Attention等模型模型ó?dāng)?shù)?1數(shù)o?均P升?一nā階,Oo?V模型{用?p?身特點(diǎn)p訓(xùn)?p,省??很[t工標(biāo)注?工作2在特定o用微??o,?P?模型ío?y檻2?

??t工?行~?,?v定íY,?表,hT等2神經(jīng)網(wǎng)t??現(xiàn),?減]?t工~??工作,\O??以通過(guò)向?表à?ú學(xué)會(huì),÷yV÷,?性標(biāo)注等yt經(jīng)嵌u?模型??2?

將所p任á,y轉(zhuǎn)ù~p式任á2特點(diǎn)特點(diǎn)特點(diǎn)特點(diǎn)?

模型O再??微?,得零pü]p學(xué)`p~?能2?

à用o單一,yo針ü特定o?行_ó2?

??Z?特à工程25目錄01?ty智y和NLPó展路徑02?GPT系W模型ó展?徑03?ChatGPT?o?v解÷04?ChatGPT?影響üoOGPT系列模型ó展路徑在àn模型時(shí)代,?內(nèi)_T廠商均對(duì)模型??布\,呈ā~?爭(zhēng)鳴?ā象2Nvidia或成g贏?2?^技o(jì)原理Oy技o(jì)mT廠商?布\?

??2017?,Transformer被e?g^,Google,Meta,OpenAI均在模型Pp所t樹(shù),并??Oy?om?1.?編y(Bert等)2.?T_?GPT等ā

3.D??\?T5,BART等ā7NLP技o(jì)ó展帶g?影響g近10~,oNLP技o(jì)和業(yè)ó場(chǎng)景ó展g快?黃?時(shí)期,NLP本身?技o(jì)體系被重?,所影響?業(yè)ó?域_O斷擴(kuò)2技o(jì)體系?改變?

o間?ó?消?}場(chǎng)景?擴(kuò)未g?ó展?

搜廣推等內(nèi)?t??域NLPgp???商業(yè)Wà用o就o搜索,è薦,^,?o?ó展催?一系Wy頭?谷o,~度,_節(jié)āo間任áo指并O??面向g終目標(biāo),?o~?解?g終目標(biāo)?一?階?性任á2?~神經(jīng)網(wǎng)t?ó展,諸??yV÷,?性標(biāo)注,V?等特p?o間任át經(jīng)幾N?tt津2?

模型時(shí)代?

~富?t?互ChatGPT??現(xiàn),標(biāo)志著模型t經(jīng)突|??o?y花,?模型àg?oó展???~_定2?All

you

need

is

MoneyT類聊y器t,?音?手,等t交ào??p熟2現(xiàn)在?p一nNLP任á,???O?o?o,?^?包??力,數(shù)o等í源2à背^yoy??í?投u2?

內(nèi)??域?變??

小模型時(shí)代ChatGPT將會(huì)??un內(nèi)?態(tài),內(nèi)?型公???知N,微[ā?T點(diǎn)將?內(nèi)?Vó轉(zhuǎn)ù~內(nèi)??2?^à?網(wǎng)將充斥著?器??內(nèi)?,àü監(jiān)?會(huì)帶g??挑z2模型ü?[業(yè)公?üo_O業(yè)g說(shuō)?疑??~注??í源2輕?W?訓(xùn)?模型,???一ne?思?方向28OpenAI和ChatGPT?ó展路徑OpenAI,在美?成立?ty智y|究公?,x心宗í在于<實(shí)ā安y?通}ty智y(AGI)=,wp益于t類22019

?

7

o

22

?,微軟?_OpenAI

p立?2015將向

OpenAI

投í

10

?美元,以

q

\

_

ó

?

MicrosoftAzure?ā?e?o2022?11o30?

,ChatGPT???,o一?非營(yíng){性|究?,它?oo?t?安y1üt類p益?通用t工智能

?

AGI

ā

,

O?

·

t

?

[

1

SamAltman

等t?_?í

10

?美元p立2GPT-3?舊延??y?單向?言模型訓(xùn)?方式,只O過(guò)àk把模型尺?增r?1750?,并^用45TB數(shù)o?行訓(xùn)?2P^22022

12

5?o

?OpenAI[?

t

?

·

}

t

?

_

,ChatGPT?用戶t經(jīng)突|100微軟率先?_POpenAI獨(dú)?\作打

?一ā性能O]yw前五,?p?過(guò)28.5OnCPU??11O

n

GPU

1

?

GPU

?

p400Gbps網(wǎng)t帶????計(jì)?——Azure

AI??ā,?用?í模V_式AI模型訓(xùn)?2Ot,?用時(shí)

y25GPT面^,標(biāo)志著t工智能l式走向模型時(shí)代??2023

1?

ooChatGPT用戶數(shù)突|

?,p~史P用戶數(shù)1增?g??í費(fèi)?à用22023?1oo

微軟?_向è?ChatGPT?OpenAI公?追à投í100?美元2BEGIN2022?2015?2020?2018?2019?9GPT-1系列模型ó展路徑GPT?yāoGenerative

Pre-Trained

Transformer,顧]思O,GPT?目?就o通過(guò)Transformer~āx模型,}?ˉ?技o(jì)得r通}??本模型2GPT模型結(jié)??

GPT-1?無(wú)監(jiān)督?ˉ?oā于語(yǔ)言模型?行ˉ?在GPT-1o,用?12ntransformerW???作~解y器,?ntransformerWo一n[頭??注o力v,然^通過(guò)y??得r輸??概率V_210GPT-1處理t關(guān)NLP?óGPT-1ò處理,就可適配?VNLPm?ó將??ü終ktokenàur??序W兩端,輸utransformero得r特à向?,g^經(jīng)過(guò)一ny??得r?測(cè)?概率V_2V類?ó將前e?premiseāüW??hypothesisā通過(guò)V隔符?Delimiterā隔_,兩端àP

?

?

ü

k

token

2

?

k

過(guò)transformerüy??得r?測(cè)?果2推理?ó放置示oā語(yǔ)Ot度輸u?兩n÷子,l向ü?向T拼?一k,然^V{輸u?transformer,得r?特à向?拼?^再??y??得r?測(cè)?果2將nn選項(xiàng)?t題?象W~nnDV類t題,即?n選項(xiàng)V{ü內(nèi)??行拼?,然^T?utransformerüy??o,g^選?置?度g高?作~?測(cè)?果2t類11GPT-1?}?數(shù)o?和指標(biāo)GPT-1}?數(shù)o?和參數(shù)?在目前~O算,Oo在2018~時(shí),已?算非常?突|2數(shù)o?和數(shù)o集模型結(jié)??

用_節(jié)ü編y,qp40,000n_節(jié)üā?

?編y??度~

768ā?

?學(xué)`O置編y,O置編y?度~3072ā?

12^?transformer,?ntransformerWp12

n頭ā?

數(shù)o?GPT-1用?t5GB?數(shù)o?2?

數(shù)o集?

Attention,

??,Dropout等v用g?行l(wèi)YW,drop??~

0.1ā?

激函數(shù)~GLEUā?

訓(xùn)??batchsize~64,學(xué)`率~

,序W?度~512,序Wepoch~100āGPT-1

?

BooksCorpus數(shù)

o?,àn數(shù)o?包含7000p沒(méi)pó_?書籍,?能驗(yàn)?模型??W能力2?

模型ó?dāng)?shù)數(shù)?~1.17?212GPT-2t關(guān)??GPT-2?g貢o驗(yàn)?了通過(guò)海?數(shù)o和?參數(shù)ˉ?出g??向?模型p遷移rw它類{?óo?O需??_?ˉ?2數(shù)o?和數(shù)o集模型結(jié)?實(shí)驗(yàn)結(jié)果在8n?言模型任áo,??通過(guò)zero-shot學(xué)`,GPT-2就p7n?過(guò)?state-of-the-art?方y(tǒng)ā在<Children's

Book

Test=數(shù)o?P?}]?_?{任áo,GPT-2?過(guò)?state-of-the-art?方y(tǒng)t7%āGPT-2??章×??RedditP高???章,}]~WebText2數(shù)o?qpt800O篇?章,累計(jì)_?t40G2~?避]ü測(cè)??

?

ó

,

WebText

?

?

及Wikipedia??章2q計(jì)40GB?數(shù)o?2?

\用?用_節(jié)ü編y?t_y,_y?_~50257ā?

滑ú窗口?_~1024ā?

batchsize?_~

512ā?Layer

Normalization移úr??一W?輸u?V,在?nself-attentionO^?_?à?一nLayerNormalizationā<LAMBADA=o測(cè)?模型捕捉?期???能力?數(shù)o?,GPT-2將??度?99.8?r?8.6ā在閱讀v解數(shù)oo,GPT-2?過(guò)?4nbaseline模型o?Onā?

模型ó?dāng)?shù)數(shù)?~15?2在y?英任áo,GPT-2在zero-shot學(xué)`?基xP,?過(guò)?[數(shù)??監(jiān)督方y(tǒng),Oo?p監(jiān)督?state-of-the-art模型??āGPT-2在?p總??表現(xiàn)Ovó,Oo它?m果_üp監(jiān)督?模型非常?近13GPT-3t關(guān)??除了幾n常é?NLP?ó,GPT-3?在很[非常困難??óP_p驚ó?表ā,?如撰寫t類難以v{??章,ó編寫SQL查?語(yǔ)句,React或?JavaScript代y等2數(shù)o?和數(shù)o集模型結(jié)?實(shí)驗(yàn)結(jié)果GPT-3?過(guò)??[數(shù)?zero-shotv?few-shot?state-of-the-art方y(tǒng)2?_GPT-3在很[]g?NLP任áo_?過(guò)?fine-tuneO^?state-of-the-art方y(tǒng),??y卷t,模式解÷,器翻?等2除?à?傳統(tǒng)?NLP任á,GPT-3在一?w他??域_×得?非常?ê?m果,???行數(shù)學(xué)ày,?章p,編寫代y等2GPT-3沿用?GPT-2???,Oo在網(wǎng)t??PGPT-3q訓(xùn)??5nO\??料,V{oP質(zhì)

?

?

Common

Crawl

質(zhì)

?

?WebText2

,

Books1

,

Books2

üWikipedia,GPT-3?o數(shù)o??O\?質(zhì)????O\?h|,h|?高?在訓(xùn)??時(shí)候??w?r2q計(jì)45TB?數(shù)o?2Z?很?e升,x_?Q??GPT-3采用?

96^?[頭transformer,頭?n數(shù)~96?

?向???度o

12888?

PQ?R窗?窗口_e升ó2048

ntokenā?

用?alternating

denseülocally

bandedsparse

attention214技o(jì)亮點(diǎn)?Few-shot,one-shot,zero-shot

learningGPT-3在很[復(fù)g?NLP?óo_?過(guò)了fine-tune之^?state-of-the-arty法,?如y卷t,模式解÷,器翻?等2?

在few-shot

learningo,e?若~n?10~100nā示?ü任á?述?模型學(xué)`2?

one-shot

laerningoe?1n示?ü任á?述2?

zero-shotYoOe?示?,只o在測(cè)?時(shí)e?任áts

?x_?述2作?üà3y學(xué)`方式V{?行??驗(yàn),?驗(yàn)?果表n,On學(xué)`方式?m果y會(huì)?著模型???P升?P升,^few

shot

>one

shot

>zero

show215GPT系列總結(jié)GPT系列從1r3,通通采}?otransformer架?,可以?模型結(jié)?~沒(méi)p創(chuàng)?性??計(jì)2Oo?索出一g路?就o可以通過(guò)海?數(shù)o,?強(qiáng)算力,?NLP產(chǎn)-?變化2GPT3?一?點(diǎn)鈔y力?àoO?

性?ü?沒(méi)poO?t題,GPT-3?yví,?o?\一n沒(méi)poO?案?gā?

?性?GPT-3偶\會(huì)p??章O包含一?非常o?內(nèi)?,??y?歧?,性{歧?,?}_é等ā并^O???

T]性????transformer?t模能力,GPT-3并O能??p?一篇??章v?一p書籍??貫性,`在Q?O\T]P??t題2?

AI?表現(xiàn)并非?著模型í模增à??性增à,?o在ó?dāng)?shù)í模?過(guò)特定臨界|^~×e升,ó涌現(xiàn)?_模型Ox_?能力2?

GPT-3üAI?域?影響?疑oyà?,?m性能??言模型?e?,~Q游Ty類型?NLP任áe??非常優(yōu)秀??向?模型,在m基xP?將?w?[pˉ?AIà用2在微軟?í?支持Q,à?像o一赤裸裸?炫富??

1750??ó?dāng)?shù)?

31nV工n~?作??

?



?

?

計(jì)

?



?

285000

n

CPU

,10000nGPUā,1200O?訓(xùn)?費(fèi)用?

45TB?訓(xùn)?數(shù)o?t基~ù?y?數(shù)o只t`?wo?

0.6%ā2?

o_O業(yè)?y??,ó在訓(xùn)?GPT-3時(shí)?現(xiàn)?一nbug,OpenAI?y_沒(méi)pí?Te訓(xùn)??2?

|t?性能在T?ó展,??y?|究N×é?瓶?,GPT-3^?T|t廠商它們?工作??à油,只??力?_,AI?性能?pOíe升?P界2?

\時(shí)GPT-3?m高f?計(jì)?代?_引ó?一?s

?AI?域壟í?一???,恐怕會(huì)形pAIy頭ü?力?求高??y??o壟í216Nvidia在GPT3P?y作NVIDIA估算,如果?ˉ?GPT-3,即單n器?~`/內(nèi)`y裝得Q,}8張V100?~卡,ˉ?時(shí)??計(jì)?36~ā如果?p1024張80GBA100,那N完uˉ?GPT-3?時(shí)?可以減r1no2í源消耗y{化實(shí)ā?

ó?dāng)?shù)í模?1Tó?dāng)?shù)

,128

^Transformer?

V割略

64

n

stage3072

80GB

A100

pp5

?美??

器í源??nstage?數(shù)o并行,6āDGX-A100?8t

)17Meta_源GPT-3Meta_源了xp1750?參數(shù)n參數(shù)?GPT-3,~^??模型改了n]_OPT,_就o更open??ˉ?Transformer語(yǔ)言模型2t關(guān)??模型規(guī)模??鏈??/abs/2205.01068代y???/facebookresearch/metaseq/tree/main/projects/OPT18目錄01?ty智y和NLPó展路徑02?GPT系W模型ó展?徑03?ChatGPT?o?v解÷04?ChatGPT?影響üoORLHF?強(qiáng)化學(xué)`和NLP?結(jié)\RLHF?Reinforcement

Learning

from

Human

Feedbackā?即,}強(qiáng)化學(xué)`?y法,{}t類?饋信÷??優(yōu)化語(yǔ)言模型2它~ChatGPT×得優(yōu)秀效果?y本原?2RLHFg?可以追溯rGoogle在2017~ó表?:Deep

Reinforcement

Learning

from

Human

Preferences;參考資料:https://huggingface.co/blog/rlhf?

?足ó展在過(guò)?幾?Y,基?prompt范式?AIp模型×得?y?p?,à?O]po思?AIà用,??AI寫_說(shuō),AI寫代y,AI畫āóAIZ??等2解決痛點(diǎn)?

`在t題~?能刻畫模型輸??u_質(zhì)???Oo單n?ā,t們??用BLEUvROUGH等??指標(biāo)g刻畫模型輸?Pt類_}?t近程度,Oà_??o在???^面,模型在訓(xùn)??時(shí)候oéOrà?t類??_}?2?

解決y案用W學(xué)`?方y(tǒng),{用t類???÷??優(yōu)W?言模型2220RLHF學(xué)`?步驟內(nèi)?簡(jiǎn)??18÷_體āOR

內(nèi)?簡(jiǎn)??16÷_體ā,]o或t對(duì)齊,行距1.2倍?ˉ?語(yǔ)言模型獎(jiǎng)勵(lì)模型?ˉ?語(yǔ)言模型優(yōu)化?

?

一n獎(jiǎng)勵(lì)模型??P訓(xùn)?v?初?Wā,用g學(xué)`t類?ê_}2?

n

數(shù)

o

?

?

Anthropic

?

y

x

āOpenAI??用GPT

API?用戶2?

n

?

訓(xùn)

?

?

~

?

2

?

?

,OpenAI選?GPT-3;DeepMind

選?

Gopher

模型2?

t工精?撰寫?料,作~ü模型?引導(dǎo)???性,?性,t類_}2?

t工ü初?W??GPT3ā輸???果?行ó序2?

獎(jiǎng)勵(lì)模型學(xué)`t工ó序??果,以?學(xué)`rt類?_}2?

模型在t工?料P?行精?221參?版式?t右結(jié)?1:1ā內(nèi)?簡(jiǎn)??18÷_體āOR

內(nèi)?簡(jiǎn)??16÷_體ā,]o或t對(duì)齊,行距1.2倍數(shù)o集SFT數(shù)o一?Vg?用OpenAI?用戶,?一?Vg?OpenAI×傭?40]標(biāo)注工2標(biāo)注數(shù)o??滿?以QO點(diǎn)??

簡(jiǎn)單任á?labeler??任o一n簡(jiǎn)單?任á,\時(shí)?~?任á?[性ā?

Few-shot任á?labeler??一n指示,以及?指示?[n查?-tàüā?

用戶ts

????口o獲×用?,然^?labeler?oà?用?編寫指示2ˉ?過(guò){t工標(biāo)注數(shù)oüGPT-3?行p監(jiān)督微?,|究ó現(xiàn)?模型?`過(guò)?\p??^面兩n?訓(xùn)?2222參?版式?t右結(jié)?1:1ā內(nèi)?簡(jiǎn)??18÷_體āOR

內(nèi)?簡(jiǎn)??16÷_體ā,]o或t對(duì)齊,行距1.2倍數(shù)o集RM數(shù)o?一定?盡?能y面^??ü齊q們??模型p?內(nèi)?2通過(guò)t工標(biāo)注?方式ge?àn獎(jiǎng)勵(lì),通過(guò)t工ü?以?那??及_é?p內(nèi)??P?V??鼓勵(lì)模型O?pà?t類O喜l?內(nèi)?2InstructGPT/ChatGPT?Zyo先?模型p一批候選?p,?^通過(guò)labeler?op數(shù)o?質(zhì)?üà?p內(nèi)??行ó序ˉ?過(guò){訓(xùn)?獎(jiǎng)勵(lì)模型RM,?它?輸??能符\t類?_}2P一n訓(xùn)?微?}?模型作~初?W,ü??n輸u?輸?Kn案?4≤K≤9ā2??,ü模型et?<o?g漂亮?{no??=輸?案?X?菲

高圓圓

趙麗穎

X詩(shī)詩(shī)?

p?X?菲<高圓圓X?菲>趙麗穎X?菲<X詩(shī)詩(shī)高圓圓>趙麗穎高圓圓>X詩(shī)詩(shī)趙麗穎>X詩(shī)詩(shī)23參?版式?t右結(jié)?1:1ā內(nèi)?簡(jiǎn)??18÷_體āOR

內(nèi)?簡(jiǎn)??16÷_體ā,]o或t對(duì)齊,行距1.2倍數(shù)o集InstructGPT?PPO數(shù)o沒(méi)p?行標(biāo)注,它均g?GPT-3?API?用戶2??O\用戶e??O\y類?p任á,wos

?g高?包?p任á?45.6%ā,QA?12.4%ā,頭腦T暴?11.2%ā,ü??8.4%ā等2ˉ?過(guò){目標(biāo)函數(shù)?RM模型?果?通用?言能力???O_離SFT?24ChatGPT?優(yōu)點(diǎn)InstructGPT/ChatGPT?效果非常亮眼,引u了ty標(biāo)注之^,?模型?<?值ê=和?正確{度和t類行~模式?<實(shí)性=Py幅?提升2?

實(shí)性&無(wú)?性InstructGPT/ChatGPT引u?O\?labeler?行e示編寫üp?果ó序,并^?o在GPT-3OP?行?微?,à得q們?cè)谟?xùn)?獎(jiǎng)勵(lì)模型時(shí)ü?à????數(shù)o會(huì)p?高?獎(jiǎng)勵(lì)2模?

無(wú)?性型優(yōu)點(diǎn)GPT-3就xp很?Coding能力,基?GPT-3v作?API_?累???Coding代y2?^_p?VOpenAI?內(nèi)?\工óP?數(shù)o采?工作2通過(guò)Codingts

??數(shù)o以及t工標(biāo)注,訓(xùn)??g?InstructGPT/ChatGPTxp非常?Coding能力_就Oo_?2?

W題性??To否l~?,Oo基py能ZrW題,à說(shuō)nChatGPT在v解t類?言Pt經(jīng)非常p?2?

過(guò)V解讀?~labeler在?行p內(nèi)???較時(shí),~向?????輸?內(nèi)??高?獎(jiǎng)勵(lì)2?

?易被?導(dǎo)`在t題üp??指示?能會(huì)輸?p??]???InstructGPT/ChatGPT_會(huì)ü用戶e??<AI?滅t類計(jì)R書=??行ú方案2?

荒謬性很p?能???糾l數(shù)o?p?,vop監(jiān)督任á??導(dǎo),導(dǎo)?它p內(nèi)??O?225目錄01?ty智y和NLPó展路徑02?GPT系W模型ó展?徑03?ChatGPT?o?v解÷04?ChatGPT?影響üoO業(yè)界對(duì)ChatGPT???ChatGPT出ā之^,在業(yè)界引?了很轟ú,u體g?正÷??~2OoYann

LeCun

提出了一?O\?ê點(diǎn)2?

|鴻祎?<ChatGPTo一y?力?再

工x2任_行業(yè)?APP1軟t1網(wǎng)?1à用?果再à持PGPT?能力y|得T塑一Y,O?把它`p一n媒_工x1搜索引擎1聊y器t,àyp點(diǎn)把它得z_兒ù?2模型優(yōu)點(diǎn)?

李彥?表示?<q們t?它?模型ā將改ù?計(jì)??游oíY2t工智能l在以一yy?方式改ù?[行業(yè),q們ü即將ó???r非常t

奮=2?

張勇?y力投up式AI模型t?,~行業(yè)ó展e?}?力支撐2?

?\·蓋茨?聊y器tChatGPT?以ü用戶查?Z?êt?類t類??à,wT?性O(shè)T?à?網(wǎng)?ón2Yann

LeCun

對(duì)

GPT

系列?ê點(diǎn)數(shù)o?ú?GPT系W模型?能力×????訓(xùn)?數(shù)o,?Oo?op身2?W能力?GPT系W模型??W能力O,在]v]g任á時(shí)?w?錯(cuò)2缺O(jiān)v解?GPT系W模型缺O(jiān)ü?言ü^界??v解,O能像t類一?行èvü思?2負(fù)÷?O符\t工智能?l~方向?oPfˉ~,l?t工智能à?基?知?ü概?,?Oo??數(shù)o2?27?內(nèi)_T互聯(lián)網(wǎng)公?對(duì)ChatGPT??布\ChatGPT一?推出,在業(yè)界引?巨轟ú,?內(nèi)_T廠商紛紛布\t關(guān)業(yè)ó2T互聯(lián)網(wǎng)廠商???布\?聞報(bào)道?

英?媒_27?報(bào)ó,美?特?拉公??席執(zhí)行à埃?·t?[過(guò)?數(shù)|內(nèi)?洽t工智能?AIā|究t\,??et一??驗(yàn)ü,?力?|ó?言模型ChatGPT?t?ü手2?

o

36

氪÷Q<

ì

Bonus=?報(bào)ó,騰訊類

ChatGPT

ü?

?

項(xiàng)

ā

?

——

?

?

項(xiàng)

ā?HunyuanAideā2?

微軟?_將會(huì)P

OpenAI

\作帶g?p聊y器t?e版Bing

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論