版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
揭秘
OpenAI在
2027年前創(chuàng)建AGI
的計(jì)劃免責(zé)聲明:文章描述過(guò)程、圖片都來(lái)源于網(wǎng)絡(luò),此文章旨在倡導(dǎo)社會(huì)正能量,無(wú)低俗等不良引導(dǎo)。如涉及版權(quán)或者人物侵權(quán)問(wèn)題,我們將第一時(shí)間刪除內(nèi)容!如有事件存疑部分,聯(lián)系后即刻刪除或作出更改在本文檔中,我將披露我收集到的有關(guān)OpenAI(已推遲)計(jì)劃在2027年之前創(chuàng)造出人類級(jí)別的AGI
的信息。并非所有信息都能輕易驗(yàn)證,但希望有足夠的證據(jù)說(shuō)明相關(guān)情況。摘要:OpenAI于
2022年8月開始訓(xùn)練一個(gè)
125萬(wàn)億參數(shù)的多模態(tài)模型。第一階段是Arrakis,也稱為
Q*。該模型于2023年
12月完成訓(xùn)練,但由于推理成本過(guò)高而取消發(fā)射。這就是原計(jì)劃于2025年發(fā)布的GPT-5
。戈壁(GPT-4.5)已更名為
GPT-5,因?yàn)樵?/p>
GPT-5
已被取消。Q*
的下一階段原為GPT-6,后更名為
GPT-7(原定于2026年發(fā)布),但由于埃隆-馬斯克最近提起的訴訟而
被擱置。Q*2025(GPT-8)計(jì)劃于2027年發(fā)布,實(shí)現(xiàn)全AGI...q*2023
=
48
iqQ*2024
=96
IQ(延遲)Q*2025=
145
智商(延遲)埃隆-馬斯克(Elon
Musk)
因?yàn)樗脑V訟而導(dǎo)致了延遲。這也是我現(xiàn)在透露信息的原因,因?yàn)椴粫?huì)造成進(jìn)一步損害。我見(jiàn)過(guò)很多關(guān)于AGI(人工通用智能)的定義,但我要把AGI簡(jiǎn)單地定義為一種人工智能,它可以完成智能人類可以完成的任何智力任務(wù)?,F(xiàn)在大多數(shù)人都是這樣定義這個(gè)詞的。2020年,我第一次被人工智能系統(tǒng)震撼了--那就是GPT-3。GPT-3.5是GPT-3
的升級(jí)版本,是ChatGPT背后的模型。當(dāng)ChatGPT發(fā)布時(shí),我感覺(jué)好像世界終于跟上了我兩年前的互動(dòng)。2020年,
我廣泛使用了GPT-3,它的推理能力令我震驚。GPT-3及其半步后繼者GPT-3.5(在2023年3月升級(jí)為GPT-4
之前,它為現(xiàn)在著名的
ChatGPT
提供了動(dòng)力)是向AGI邁出的一大步,而早期的模型卻不是這樣。值得注意的是,早期的語(yǔ)言模型,如GPT-2(以及
Eliza之后的所有聊天機(jī)器人),根本不具備真正的連貫響應(yīng)能力。那么,為什么GPT-
3是如此巨大的飛躍呢?...參數(shù)計(jì)數(shù)"深度學(xué)習(xí)"這一概念基本上可以追溯到20世紀(jì)50年代人工智能研究的初期。第一個(gè)神經(jīng)網(wǎng)絡(luò)誕生于上世紀(jì)50年代,而現(xiàn)代神經(jīng)網(wǎng)絡(luò)只是"更深"而已,也就是說(shuō),它們包含更多的層--它們要大得多,也
要在更多的數(shù)據(jù)上進(jìn)行訓(xùn)練。今天,人工智能領(lǐng)域使用的大多數(shù)主要技術(shù)都源于20世紀(jì)50年代的基礎(chǔ)研究,并結(jié)合了一些小的工程解決方案,如"反推法"和"變換器模型"。總的來(lái)說(shuō),人工智能研究70年來(lái)并沒(méi)有發(fā)生根本性的變化
。因此,近期人工智能能力爆發(fā)的真正原因只有兩個(gè):規(guī)模和數(shù)據(jù)。該領(lǐng)域越來(lái)越多的人開始相信,幾十年前我們就已經(jīng)解決了AGI
的技術(shù)細(xì)節(jié),只是在21世紀(jì)之前沒(méi)有足夠的計(jì)算能力和數(shù)據(jù)來(lái)構(gòu)建它。顯然,21世紀(jì)的計(jì)算機(jī)要比20世紀(jì)50年代的計(jì)算機(jī)強(qiáng)大得多
。當(dāng)然,互聯(lián)網(wǎng)也是所有數(shù)據(jù)的來(lái)源。那么,什么是參數(shù)?你可能已經(jīng)知道了,但簡(jiǎn)單概括一下,它類似于生物大腦中的突觸,是神經(jīng)元之間的連接。生物大腦中的每個(gè)神經(jīng)元與其他神經(jīng)元之間大約有
1000個(gè)連接。顯然,數(shù)字神經(jīng)網(wǎng)絡(luò)在概念上類似于生物大腦。...那么,人腦中有多少個(gè)突觸(或"參數(shù)")?最常引用的大腦突觸數(shù)量大約為
100萬(wàn)億個(gè),這意味著每個(gè)神經(jīng)元(人腦中約有
1000億個(gè)神經(jīng)元)
大約有
1000個(gè)連接。如果大腦中每個(gè)神經(jīng)元有
1000個(gè)連接點(diǎn),這意味著一只貓大約有2500億個(gè)突觸,一只狗有5300億個(gè)突觸。一般來(lái)說(shuō),突觸數(shù)似乎預(yù)示著更高的智力,但也有少數(shù)例外:例如,從技術(shù)上講,大象的突
觸數(shù)比人類高,但智力卻比人類低。突觸數(shù)量越多,智力越低,最簡(jiǎn)單的解釋就是高質(zhì)量的數(shù)據(jù)量越少。從進(jìn)化的角度來(lái)看,大腦是在數(shù)十億年的表觀遺傳數(shù)據(jù)的基礎(chǔ)上"訓(xùn)練"出來(lái)的,人類大腦的進(jìn)化來(lái)自于比大象更高質(zhì)量的社會(huì)化和交流
數(shù)據(jù),這導(dǎo)致了我們卓越的推理能力。無(wú)論如何,突觸數(shù)量無(wú)疑是非常重要的。同樣,自2010年代初以來(lái),人工智能能力的爆炸式增長(zhǎng)也是更強(qiáng)計(jì)算能力和更多數(shù)據(jù)的結(jié)果。GPT-2有
15億個(gè)連接,還不如一個(gè)小鼠的大腦(約
100億個(gè)突觸)。GPT-3有
1750億個(gè)連接,已經(jīng)接近貓
的大腦。貓腦大小的人工智能系統(tǒng)要優(yōu)于小于老鼠大腦的人工智能系統(tǒng),這難道不直觀明顯嗎?...預(yù)測(cè)人工智能性能..2020年,在
1750億參數(shù)的GPT-3發(fā)布后,許多人猜測(cè)一個(gè)比它大600倍、參數(shù)為
100萬(wàn)億的模型的潛在性能,因?yàn)檫@個(gè)參數(shù)數(shù)將與人腦的突觸數(shù)相匹配。在2020年,并沒(méi)有強(qiáng)烈的跡象表明有人在積
極研究這種規(guī)模的模型,但這種猜測(cè)還是很有趣的。最大的問(wèn)題是,有可能通過(guò)參數(shù)數(shù)量來(lái)預(yù)測(cè)人工智能的性能嗎?事實(shí)證明,答案是肯定的,我們將在
下一頁(yè)看到這一點(diǎn)。[來(lái)源:/posts/k2SNji3jXaLGhBeYP/extrapolating-gpt-n-performance][以上內(nèi)容來(lái)自Lanrian
的LessWrong
帖子]。...正如Lanrian所說(shuō)明的那樣,推斷結(jié)果表明,當(dāng)人類水平的大腦大小與參數(shù)數(shù)量相匹配時(shí),人工智能的性能似乎會(huì)莫名其妙地達(dá)到人類水平。他計(jì)算的大腦突觸數(shù)量大約是200萬(wàn)億個(gè)參數(shù),而不是通常所
說(shuō)的
100萬(wàn)億個(gè)參數(shù),但這一觀點(diǎn)仍然成立,而且
100萬(wàn)億個(gè)參數(shù)的性能非常接近最佳狀態(tài)。順便提一下--需要注意的重要一點(diǎn)是,雖然
100萬(wàn)億次的性能略微欠佳,但OpenAI正在使用一種工程技術(shù)來(lái)彌補(bǔ)這一差距。我將在本文檔的最后解釋這一點(diǎn),因?yàn)檫@對(duì)OpenAI正在構(gòu)建的系統(tǒng)至關(guān)重要。Lanrian
的文章是網(wǎng)上眾多類似文章中的一篇--它是根據(jù)之前模型之間的跳轉(zhuǎn)推斷性能的。當(dāng)然,
OpenAI有更詳細(xì)的指標(biāo),而且他們得出的結(jié)論與Lanrian相同,我將在本文稍后部分加以說(shuō)明。那么,
如果人工智能的性能可以根據(jù)參數(shù)數(shù)量來(lái)預(yù)測(cè),
而~100萬(wàn)億個(gè)參數(shù)就足以達(dá)到人類水平,那么什么時(shí)候才能發(fā)布
100萬(wàn)億個(gè)參數(shù)的人工智能模型呢?GPT-5在2023年末實(shí)現(xiàn)了原初AGI,智商達(dá)到
48...第一次提到OpenAI
正在開發(fā)
100萬(wàn)億個(gè)參數(shù)模型是在2021
年夏天,
Cerebras
公司的首席執(zhí)行官(
安德魯-費(fèi)爾德曼)在一次有線采訪中不經(jīng)意間提到的,薩姆-奧特曼是這家公司的主要投資者。德魯-費(fèi)爾德曼(Andrew
Feldman)的回答。值得注意的是,薩姆-奧特曼承認(rèn)了他們的100萬(wàn)億參數(shù)模型計(jì)劃。(資料來(lái)源:/gpt-4-a-viral-case-of-ai-misinformation-c3f999c1f589
/r/GPT3/comments/pj0ly6/sam_altman_gpt4_will_be_remain_textonly_will_not/reddit上的帖子來(lái)源于LessWrong
的一個(gè)帖子,該帖子已應(yīng)SamAltman
的要求刪除:/posts/aihztgJrknBdLHjd2/sam-altman-q-and-a-gpt-and-agi
)山姆-奧特曼(SamAltman)在
2021年9月舉行的名為AC10
的在線聚會(huì)和問(wèn)答上對(duì)安...人工智能研究員伊戈?duì)?拜科夫僅在幾周后就聲稱,GPT-4正在接受訓(xùn)練,并將于
12月至2月間發(fā)布。我將再次證明伊戈?duì)柎_實(shí)掌握了準(zhǔn)確的信息,并且是一個(gè)可信的消息來(lái)源。這一點(diǎn)很快就會(huì)變得非
常重要格溫是人工智能領(lǐng)域的知名人物--他是一名人工智能研究員和博主。他在Twitter上給伊戈?duì)?巴伊科夫發(fā)消息(2022年9月),他收到了這樣的回復(fù)。重要提示:"參數(shù)數(shù)量巨大"。"文本"、"音頻"、"圖像"、"可能還有視頻"、和"多模式"。這篇文章來(lái)自一個(gè)名為"thisisthewayitwillbe"的子論壇,這是我參加的一個(gè)小型私人子論壇,由一位對(duì)人工智能感興趣的數(shù)學(xué)教授運(yùn)營(yíng)。人工智能愛(ài)好者(和一些專家)使用子論壇來(lái)討論比主流媒體更深入的人工智能話題。參數(shù)數(shù)量巨大"?聽(tīng)起來(lái)伊戈?duì)?巴伊科夫指的是
100萬(wàn)億個(gè)參數(shù)的模型,因?yàn)榈?022年夏天他發(fā)推文時(shí),5000億個(gè)參數(shù)模型和多達(dá)
1萬(wàn)億個(gè)參數(shù)模型已經(jīng)被訓(xùn)練過(guò)很多次了(使得這種規(guī)模的模型并不出眾,當(dāng)然也不是"
巨大的")。rxpu"似乎是一位來(lái)自土耳其的人工智能愛(ài)好者(?),他的這些推文很有意思,因?yàn)樗麄冊(cè)谄渌酥熬蛯?duì)GPT-4
的發(fā)布窗口提出了非常類似的說(shuō)法(相信我--我每天都要花很多時(shí)間在互聯(lián)網(wǎng)上搜索類似的說(shuō)法,但沒(méi)有人比他更早提出這種特定的說(shuō)法)。他還提到了"125萬(wàn)億突觸"的GPT-4--然而,他錯(cuò)誤地將GPT-3
的參數(shù)數(shù)說(shuō)成了
1萬(wàn)億。(看起來(lái)rxpu
確實(shí)掌握了內(nèi)部信息,但在參數(shù)數(shù)量上弄混了--我稍后會(huì)再次說(shuō)明這一點(diǎn),并證明rxpu沒(méi)有撒謊)。...這是一個(gè)較弱的證據(jù),但值得列入,因?yàn)?loon"作為硅谷的人工智能研究人員相當(dāng)引人注目,OpenAI首席執(zhí)行官山姆-奧特曼(SamAltman)和其他OpenAI研究人員都在Twitter上關(guān)注"loon"。發(fā)一些關(guān)于GPT-4
的基本信息,他可能會(huì)寫一篇報(bào)道,這樣消息就會(huì)傳開了。這次嘗試的結(jié)果非常顯著,我將在接下來(lái)的兩頁(yè)中加以說(shuō)明。2022年
11月,我聯(lián)系了一位名叫阿爾貝托-羅梅羅的人工智能博主。他的文章似乎在網(wǎng)上傳播得很廣,所以我希望如果我給他Alberto
Romero
的帖子??傮w答復(fù)將在下一頁(yè)顯示。。阿爾貝托-羅梅羅(Alberto
Romero)聲稱對(duì)泄密事件負(fù)責(zé),如左圖所示。100萬(wàn)億個(gè)參數(shù)的泄露在網(wǎng)上瘋傳,影響了數(shù)百萬(wàn)人,以至于包括首席執(zhí)行官山姆-奧特曼(SamAltman)在內(nèi)的
OpenAI
員工不得不做出回應(yīng),稱其"完全是胡說(shuō)八道"。TheVerge稱其"與事實(shí)不符"...伊戈?duì)?巴伊科夫,
"數(shù)量巨大的
參數(shù)"的聲明,也看到了GPT-4泄漏病毒的傳播(這基本上是他自己造成的),并做出了回應(yīng)。所以,伊戈?duì)栐谡f(shuō)"參數(shù)的巨大數(shù)量"時(shí),畢竟是指"100萬(wàn)億個(gè)參數(shù)"。但是,伊戈?duì)柕南?lái)源可靠嗎?他的其他說(shuō)法準(zhǔn)確嗎?多模態(tài)又是怎么回事?GPT-4處理圖像、聲音和視頻的能力如何?我很快就會(huì)證明伊戈?duì)柕目煽啃浴4蠹s在2022年
10月/11月,我確信OpenAI計(jì)劃在發(fā)布GPT-4之前,首先發(fā)布一個(gè)~1-2萬(wàn)億參數(shù)的子集。100萬(wàn)億參數(shù)模型("GPT-5")。這些消息來(lái)源并不特別可靠,但他們都說(shuō)了同樣的話,包括rxpu、他曾經(jīng)聲稱有一個(gè)
125
萬(wàn)億個(gè)參數(shù)的模型正在制作中,然后又錯(cuò)誤地聲稱GPT-3是
1萬(wàn)億個(gè)參數(shù)--我相信他把自己的信息弄混了。(日期:
2022)這里的消息來(lái)源可信度不一(Jyri和
Leeor是舊金山的投資者,Harris是一位人工智能研究員),但他們都莫名其妙地說(shuō)了同樣的話--GPT-4正在2022年
10月/11月進(jìn)行測(cè)試。而據(jù)美國(guó)軍方人工智能研究人員稱切麗-M-波蘭,它肯定是在
10月份接受訓(xùn)練的,這與伊戈?duì)?巴伊科夫的泄密再次吻合。(2022
年
10
月起^)...正如山姆-奧特曼(SamAltman)本人所表明的那樣,OpenAI
的官方立場(chǎng)是,
100萬(wàn)億參數(shù)GPT-4
的想法"完全是胡說(shuō)八道"。這有一半是對(duì)的,因?yàn)镚PT-4是完整的
100萬(wàn)億參數(shù)模型的
1萬(wàn)億參數(shù)
子集。還有一點(diǎn)值得注意的是,
OpenAI
聲稱GPT-4在8月份
"完成了訓(xùn)練"
,而我們知道,
在
8
月到
10
月期間,
一個(gè)
"巨大的"多模態(tài)模型正在接受訓(xùn)練。
一種解釋是,
OpenAI
撒了謊。另一種可能是,
1萬(wàn)億個(gè)參數(shù)的GPT-4
可能在
8月份完成了第一輪訓(xùn)練,
但在8月至
10
月期間又進(jìn)行了額外的再訓(xùn)練,
而這正是
100萬(wàn)億個(gè)參數(shù)模型的主要訓(xùn)練時(shí)間。為了說(shuō)明
100萬(wàn)億參數(shù)模型尚未到來(lái),仍處于開發(fā)階段,Semafor
在2023
年3
月(GPT-4
發(fā)布后不久)聲稱GPT-4擁有
1萬(wàn)億參數(shù)。
(OpenAI拒絕正式披露參數(shù)數(shù)量)。現(xiàn)在我將提供證據(jù),證明GPT-4不僅對(duì)文本和圖像進(jìn)行了訓(xùn)練,還對(duì)音頻和視頻進(jìn)行了訓(xùn)練。弗朗西斯-赫利爾似乎還算可信,但這一頁(yè)并不是最可靠的證據(jù)--我把它包括在內(nèi)是因?yàn)樗坪踝C實(shí)了其他來(lái)源的信息在說(shuō)什么。弗朗西斯是一名投資者、企業(yè)家和作家。他在推文中列出的關(guān)于找不到"互聯(lián)網(wǎng)耗盡"團(tuán)隊(duì)在任何其他出版物、任何泄密事件或任何網(wǎng)上帖子中,因此他沒(méi)有從其他地方"竊取"。下一頁(yè)的資料來(lái)源非??煽俊N④浀聡?guó)首席技術(shù)官、在GPT-4正式發(fā)布的一周前,似乎出現(xiàn)了疏漏,披露了存在一個(gè)GPT-4,
它具有處理視頻的能力。我猜他并不知道OpenAI決定不透露系統(tǒng)的視頻處理能力。這完全證明,GPT-4/5不僅對(duì)文本和圖像進(jìn)行了訓(xùn)練,還對(duì)視頻數(shù)據(jù)進(jìn)行了訓(xùn)練,當(dāng)然我們也可以推斷出音頻數(shù)據(jù)也包括在內(nèi)。顯然,伊戈?duì)栮P(guān)于
100萬(wàn)億參數(shù)模型的說(shuō)法是真實(shí)的,精確到每一個(gè)細(xì)節(jié)。另一個(gè)來(lái)源與伊戈?duì)柕恼f(shuō)法一致、是一位可信的企業(yè)家,他曾表示(2022年
10月25
日),
P2T0-
3的年發(fā)2布月日:期將在
1
月至
3
月之間。雖然GPT-4發(fā)布于2023年3月,略微超出了
IgorBaikov
聲稱的
12
月至2
月的時(shí)間窗口(我認(rèn)為這是OpenAI
故意為之,目的是詆毀Igor
的泄密行為),但BingChatGPT(基于
GPT-4)實(shí)際上是在2023年2月發(fā)布的,這清楚地表明Igor聲稱的時(shí)間窗口是有效的,很可能是驚慌失措的OpenAI在最后一刻更改的。關(guān)于機(jī)器人技術(shù)的說(shuō)明:人工智能研究人員開始相信,視覺(jué)是實(shí)現(xiàn)最佳現(xiàn)實(shí)世界/物理性能的全部必要條件。僅舉一例,特斯拉公司在其自動(dòng)駕駛汽車上完全拋棄了所有傳感器,完全采用視覺(jué)技術(shù)。問(wèn)題的關(guān)鍵在于,用互聯(lián)網(wǎng)上所有的圖像和視頻數(shù)據(jù)訓(xùn)練一個(gè)人腦大小的人工智能模型,顯然足以應(yīng)對(duì)復(fù)雜的機(jī)器人任務(wù)。視頻數(shù)據(jù)中蘊(yùn)藏著常識(shí)性推理,就像文本數(shù)據(jù)中蘊(yùn)藏著常識(shí)性推理一樣(專注于文本的GPT-4在常識(shí)性推理方面的表現(xiàn)令人驚嘆)。谷歌最近的一個(gè)例子,就是從大型視覺(jué)/語(yǔ)言模型中學(xué)習(xí)機(jī)器人能力。(在語(yǔ)言和視覺(jué)訓(xùn)練的基礎(chǔ)上,只需要極少的機(jī)器人數(shù)據(jù),就能將視覺(jué)和文本任務(wù)中的知識(shí)轉(zhuǎn)移到機(jī)器人任務(wù)中。OpenAI正在"互聯(lián)網(wǎng)上的所有數(shù)據(jù)"上訓(xùn)練他們的
100萬(wàn)億參數(shù)模型,其中無(wú)疑包括機(jī)器人數(shù)據(jù))。Palm-E是一個(gè)約5000億參數(shù)的模型--如果在互聯(lián)網(wǎng)上的所有數(shù)據(jù)上訓(xùn)練一個(gè)
100萬(wàn)億參數(shù)的模型,機(jī)器人的性能會(huì)如何呢?下一頁(yè)將詳細(xì)介紹谷歌的Palm-E模型)。結(jié)論P(yáng)aLM-E突破了一般模型訓(xùn)練的界限
,使其能夠同
時(shí)處理視覺(jué)、語(yǔ)言和機(jī)器人學(xué)問(wèn)題,
同時(shí)還能將
視覺(jué)和語(yǔ)言知識(shí)轉(zhuǎn)移到機(jī)器人學(xué)領(lǐng)域。論文還進(jìn)
一步詳細(xì)探討了其他主題,如如何利用PaLM-E的神經(jīng)場(chǎng)景表征,以及隨著模型規(guī)模的擴(kuò)大,PaLM-E在多大程度上減少了語(yǔ)言能力的災(zāi)難性
遺忘。把一袋薯片拿給他。為了順利完成任務(wù),PaLM-E制定了一個(gè)找到抽屜并將其打開的計(jì)劃,然后在執(zhí)
行任務(wù)的過(guò)程中通過(guò)更新計(jì)劃來(lái)應(yīng)對(duì)世界的變化。
在第二個(gè)例子中,機(jī)器人被要求抓取一個(gè)綠色方塊
。盡管該機(jī)器人從未見(jiàn)過(guò)這個(gè)積木塊,PaLM-E仍
會(huì)生成一個(gè)逐步推進(jìn)的計(jì)劃,并超越該機(jī)器人的訓(xùn)
練數(shù)據(jù)。PaLM-E控制一個(gè)在廚房環(huán)境中運(yùn)行的移動(dòng)機(jī)器人。左圖:任務(wù)是拿一個(gè)薯片袋。PaLM-E
顯示出對(duì)對(duì)抗性干擾的魯棒性,例如將薯片袋放回抽屜。右圖的機(jī)器人移動(dòng)操縱
機(jī)器人桌面操作問(wèn):照片
1
中有什么,但照片2
中沒(méi)有?
答:太陽(yáng)鏡在下面的第一個(gè)例子中,一個(gè)人要求移動(dòng)機(jī)器人問(wèn):如何在藍(lán)色板上放置黃色塊7答:
完成PaLM-E562B任務(wù)和運(yùn)動(dòng)平移可視化問(wèn)題解答化身語(yǔ)言模型,也是一種,
,視覺(jué)語(yǔ)言通才執(zhí)行計(jì)劃的最后步驟,以檢索先前未見(jiàn)的區(qū)塊(綠星)。這一功能得益于從視覺(jué)和語(yǔ)言模型中轉(zhuǎn)移學(xué)習(xí)。另一項(xiàng)機(jī)器人技術(shù)研發(fā)--這次來(lái)自特斯拉(2023年5月16
日)。他們訓(xùn)練機(jī)器人"擎天柱"能夠抓住一個(gè)物體--而且"沒(méi)有進(jìn)行特定任務(wù)編程"。一切都是從人類演示中學(xué)來(lái)的。"這意味著我們現(xiàn)在可以迅速擴(kuò)展到許多任務(wù)"。再次強(qiáng)調(diào):如果高級(jí)機(jī)器人的性能只需要人類的演示,那么根據(jù)網(wǎng)絡(luò)上的所有視頻訓(xùn)練出的
100萬(wàn)億個(gè)參數(shù)模型肯定能達(dá)到驚人的效果。機(jī)器人性能...左邊的圖片顯示了
1萬(wàn)億個(gè)參數(shù)的GPT-4在圖像識(shí)別方面的能力。它的反應(yīng)已經(jīng)比許多人類能夠做出的反應(yīng)更加清晰,文字也更加流暢。那么,再問(wèn)一次,如果用互聯(lián)網(wǎng)上的所有數(shù)據(jù)訓(xùn)練一個(gè)比GPT-4大
100倍(相當(dāng)于人腦大?。┑哪P停瑫?huì)發(fā)生什么呢?上圖是
1萬(wàn)億參數(shù)GPT-4文本輸出的眾多簡(jiǎn)短樣本之一。
如果這就是
1萬(wàn)億個(gè)參數(shù)模型所能寫出的結(jié)果,那么100萬(wàn)億個(gè)參數(shù)的模型能夠?qū)懽鲉幔咳斯ぶ悄苣P湍芊裾嬲哂?創(chuàng)造力"還有待商榷,但人工智能偽造創(chuàng)造力肯定是可能的,而且已
經(jīng)
發(fā)生重要提示:請(qǐng)注意人工智能模型是如何在同一場(chǎng)景中生成多個(gè)角度的、物理上準(zhǔn)確的光照,在某些情況下甚至是物理上準(zhǔn)確的流體和雨水的。如果你能生成具有準(zhǔn)確、常識(shí)性物理特性的圖像和視頻,那么你就具備了常識(shí)推理能力。如果你能生成常識(shí),你就理解了常
識(shí)。目前公開的視頻和圖像生成人工智能模型的質(zhì)量水平示例。這些模型的參數(shù)不到
100億個(gè)。如果你用互聯(lián)網(wǎng)上的
所有數(shù)據(jù)訓(xùn)練一個(gè)大
10000倍的模型,并賦予它生成圖像和視頻的能力,會(huì)發(fā)生什么呢?答案是:圖像和視頻與真實(shí)的東西完全無(wú)法區(qū)分,100%
的時(shí)間,沒(méi)有例外,沒(méi)有變通,任何人都無(wú)法分辨,無(wú)論他們?nèi)绾闻L試)。-更新:SORA來(lái)自GPT-5Q*2023
模型<--視頻
<--圖像圖像^視頻-->視頻^圖像^來(lái)自Longjumping-Sky-1971
的兩篇帖子。我之所以收錄這篇文章,是因?yàn)樗崆皫字芫蜏?zhǔn)確預(yù)測(cè)了GPT-4的發(fā)布日期(之前沒(méi)有其他人公開發(fā)布這一信息,這意味著他有內(nèi)部消息來(lái)源)。他的帖子現(xiàn)在可信度更高--他聲稱圖像和音頻生成將在2023年第三季度進(jìn)行培訓(xùn)。如果視頻生成訓(xùn)練是同時(shí)或之后不久進(jìn)行的,那么這
與陳思齊所說(shuō)的GPT-5將于2023年
12月完成訓(xùn)練不謀而合。讓我們把時(shí)間拉回到2020
年2
月。GPT-3發(fā)布前的幾個(gè)月??萍荚u(píng)論》的一篇文章是關(guān)于OpenAI的"內(nèi)幕消息",似乎暗示
OpenAI處于一個(gè)"秘密"項(xiàng)目的早期階段,該項(xiàng)目涉及訓(xùn)練的人工智能系統(tǒng)圖像、文本和"其他數(shù)據(jù)"
,以及OpenAI
的領(lǐng)導(dǎo)層認(rèn)為這是最有望實(shí)現(xiàn)AGI。我想知道這可能指的是什么。下一張幻燈片將揭示OpenAI
總裁的一些語(yǔ)錄--從2019年開始--它會(huì)告訴你他們的計(jì)劃是什么。OpenAI總裁格雷格-布羅克曼(Greg
Brockman)曾在2019年表示,在當(dāng)時(shí)獲得微軟
10億美元投資后,
OpenAI計(jì)劃在五年內(nèi)建造一個(gè)與人腦大小相同的模型,這就是他們的計(jì)劃如何實(shí)現(xiàn)AGI。2019
+5
=
2024這兩份資料都明確提到了實(shí)現(xiàn)AGI
的同一計(jì)劃--一個(gè)人腦大小的人工智能模型,通過(guò)"圖像、文本和其他數(shù)據(jù)"進(jìn)行訓(xùn)練,將在2019年之后的五年內(nèi)完成訓(xùn)練,即2024年之前。這似乎與我在這份文件中列出的所有其他資料來(lái)源一致
2023來(lái)源:《時(shí)代周刊》,正如我將在接下來(lái)的幾張幻燈片中展示的那樣,人工智能的領(lǐng)導(dǎo)者們突然開始敲響警鐘--幾乎就像他們知道一些公眾不知道的非常具體的事情一樣。1月
12
日來(lái)源:《時(shí)代周刊》,2023年
1月
12日年"我原以為這要30
到50年,甚至更長(zhǎng)的時(shí)間。顯然,我不再這么想了"。是什么讓他突然改變了主意--決定離開谷歌去談?wù)撊斯ぶ悄艿奈kU(xiǎn)?接受《紐約時(shí)報(bào)》采訪的日期:
2023年5月
1日--就開始了它的研究工作。GPT-4發(fā)布后不久,"未來(lái)生命研究所"(FutureofLife
Institute)--一該組織發(fā)表了一封公開信,呼吁所有人工智能實(shí)驗(yàn)室暫停人工智能研究。個(gè)極具影響力的研究機(jī)構(gòu)發(fā)展六個(gè)月。為什么?信的第一個(gè)發(fā)布版本特別提到"(包括目前正在接受培訓(xùn)的
GPT-5)
"。為什么要寫進(jìn)去,又為什么要?jiǎng)h掉?來(lái)源:《連線》,2023年3月29日來(lái)源:Wired
,2023年3月29日來(lái)源:Vox,2023年3月29日Vox,2023年3
月
29
日2022年
10月,薩姆-奧特曼接受采訪并回答了一些令人震驚的問(wèn)題。youtube鏈接:/watch?v=b022FECpNe8(時(shí)間:49:30)觀眾問(wèn)答問(wèn)題:"我們是否有足夠的互聯(lián)網(wǎng)信息來(lái)創(chuàng)造AGI?"山姆-奧特曼直截了當(dāng)?shù)幕卮鸫驍嗔颂釂?wèn)者:"是的"薩姆解釋道:"是的,我們有信心。我們經(jīng)常思考這個(gè)問(wèn)題并進(jìn)行測(cè)量。面試官插話道"是什么給了你這種自信?"山姆的回答"我認(rèn)為,OpenAI在這一領(lǐng)域推動(dòng)了一件非常健康的事情,那就是你可以將擴(kuò)展法則視為一種科學(xué)預(yù)測(cè)。你可以在計(jì)算方面這樣做,也可以在數(shù)據(jù)方面這樣做,但你可以在小范圍內(nèi)進(jìn)行測(cè)量,并且可以相當(dāng)準(zhǔn)確地預(yù)測(cè)它將如何擴(kuò)展。你需要多少數(shù)據(jù),需要多少計(jì)算能力,需要多少參數(shù),生成的數(shù)據(jù)什么時(shí)候能達(dá)到足夠好的效果
而互聯(lián)網(wǎng)上
有大量的數(shù)據(jù)。還有大量的視頻"。另一個(gè)觀眾問(wèn)題"我們會(huì)不會(huì)再次遭遇人工智能的寒冬,是什么原因?qū)е铝怂牡絹?lái)?"山姆-奧特曼的回答"我們會(huì)不會(huì)遇到人工智能的冬天,什么原因會(huì)導(dǎo)致冬天的到來(lái)
是的,當(dāng)然會(huì)。我認(rèn)為我們不會(huì)很快迎來(lái)人工智能的冬天。因?yàn)榧词刮覀冇肋h(yuǎn)無(wú)法找到新的研究思路,當(dāng)前模式的經(jīng)濟(jì)價(jià)值以及它能被進(jìn)一步推動(dòng)的程度,也會(huì)讓我們?cè)谖磥?lái)的許多年里繼續(xù)前行。但有可能的是,不管可能性有多小,我們?nèi)匀蝗鄙俪叫袨榭寺〉年P(guān)鍵想法,這些模型將永遠(yuǎn)停留在人類水平上。有很多原因讓我覺(jué)得這不是真的,但如果有人告訴你,我們不可能在這個(gè)研究領(lǐng)域再過(guò)一個(gè)冬天,你千萬(wàn)不要相信他們。"我將在下一頁(yè)詳細(xì)說(shuō)明這些薩姆-奧特曼語(yǔ)錄令人擔(dān)憂的原因。薩姆-奧特曼問(wèn)答中的另一段話--(時(shí)間:53:00)[注--人工智能的冬天是指在一段較長(zhǎng)的時(shí)期內(nèi),人工智能領(lǐng)域獲得的資金有限,嚴(yán)肅的研究人員對(duì)其關(guān)注度不高。這種情況發(fā)生過(guò)兩次--一次是在70年代和80年代,另一次是從80年代中期到大約2000年代末。]這張幻燈片將引用更多的問(wèn)答內(nèi)容。關(guān)于薩姆-奧特曼的問(wèn)答首先,薩姆-奧特曼似乎非常非常自信,認(rèn)為互聯(lián)網(wǎng)上存在著足夠的數(shù)據(jù)來(lái)訓(xùn)練一個(gè)人工智能系統(tǒng)--自
信到讓人懷疑他們是否已經(jīng)做到了,或者正在做這件事。其次,"人工智能的冬天"這一概念通常指的是一個(gè)向AGI
邁進(jìn)的進(jìn)展放緩的時(shí)期,但山姆-奧特曼(
SamAltman)將這一術(shù)語(yǔ)重新調(diào)整為指一個(gè)向超級(jí)智能邁進(jìn)的進(jìn)展放緩的時(shí)期。這似乎表明,OpenAI
已經(jīng)構(gòu)建了一個(gè)AGI系統(tǒng),或者已經(jīng)非常接近它,而AGI
已經(jīng)不再是目標(biāo),因?yàn)樗呀?jīng)存在。正如我在本文前面提到的,100萬(wàn)億個(gè)參數(shù)模型實(shí)際上是略微次優(yōu)的,但OpenAI正在使用一種新的縮放范式來(lái)彌合這一差距--它基于一種叫做"欽奇拉縮放定律"的東西。Chinchilla是DeepMind于2022年初推出的人工智能模型。Chinchilla研究論文的含義是,目前的模型訓(xùn)練嚴(yán)重不足,如果計(jì)算量(意味著更多數(shù)據(jù))大大增加,無(wú)需增加參數(shù)就能大幅提升性能。關(guān)鍵是,雖然一個(gè)訓(xùn)練不足的
100萬(wàn)億參數(shù)模型可能略微次優(yōu),但如果它在更多的數(shù)據(jù)上進(jìn)行訓(xùn)練,就能輕松超越人類水平。欽奇拉范式在機(jī)器學(xué)習(xí)領(lǐng)域被廣泛理解和接受,但僅以O(shè)penAI為例,總裁格雷格-布羅克曼(Greg
Brockman)在這次訪談中談到,OpenAI如何意識(shí)到他們最初的擴(kuò)展法則存在缺陷,并在此后進(jìn)行了調(diào)整,將欽奇拉法則納入考慮范圍:https://youtu.be/Rp3A5q9L_bg?t=1323人們說(shuō),"訓(xùn)練一個(gè)計(jì)算最優(yōu)的
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 建筑工程承包合同(2篇)
- 2025年度個(gè)人股權(quán)變更及分紅權(quán)轉(zhuǎn)讓合同4篇
- 2025年度個(gè)人信托產(chǎn)品購(gòu)買合同樣本3篇
- 二零二五版人工智能技術(shù)研發(fā)公司并購(gòu)合同3篇
- 親情記敘文800字6篇
- 二零二五年度養(yǎng)老產(chǎn)業(yè)用地租賃協(xié)議4篇
- 高級(jí)數(shù)據(jù)分析課程設(shè)計(jì)
- 2024年育嬰員(高級(jí))理論考試題庫(kù)附答案(培訓(xùn)復(fù)習(xí)用)
- 二零二五年度苗圃苗木移植與景觀設(shè)計(jì)實(shí)施合同4篇
- 課程設(shè)計(jì)答疑記錄表
- 2025年湖北武漢工程大學(xué)招聘6人歷年高頻重點(diǎn)提升(共500題)附帶答案詳解
- 【數(shù) 學(xué)】2024-2025學(xué)年北師大版數(shù)學(xué)七年級(jí)上冊(cè)期末能力提升卷
- GB/T 26846-2024電動(dòng)自行車用電動(dòng)機(jī)和控制器的引出線及接插件
- 遼寧省沈陽(yáng)市皇姑區(qū)2024-2025學(xué)年九年級(jí)上學(xué)期期末考試語(yǔ)文試題(含答案)
- 2024年國(guó)家工作人員學(xué)法用法考試題庫(kù)及參考答案
- 妊娠咳嗽的臨床特征
- 國(guó)家公務(wù)員考試(面試)試題及解答參考(2024年)
- 《阻燃材料與技術(shù)》課件 第6講 阻燃纖維及織物
- 2024年金融理財(cái)-擔(dān)保公司考試近5年真題附答案
- 泰山產(chǎn)業(yè)領(lǐng)軍人才申報(bào)書
- 高中語(yǔ)文古代文學(xué)課件:先秦文學(xué)
評(píng)論
0/150
提交評(píng)論