分析:人工智能將毀滅人類_第1頁
分析:人工智能將毀滅人類_第2頁
分析:人工智能將毀滅人類_第3頁
全文預(yù)覽已結(jié)束

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

分析:人工智能將毀滅人類

好萊塢大片中彰顯的人工智能,令人們開始擔(dān)憂人類未來會(huì)被更智能的機(jī)器人所統(tǒng)治,甚或消滅。而史蒂芬-霍金有關(guān)人工智能或使人類滅亡的論斷,以及企業(yè)巨鱷埃隆-馬斯克關(guān)于“創(chuàng)造人工智能就像召喚魔鬼”的言論,無疑令人類對(duì)人工智能的擔(dān)憂雪上加霜。這么說來,難道人類注定無法避免被計(jì)算機(jī)所征服?有關(guān)人工智能話題這個(gè)熱門話題,我們有必要進(jìn)行一次深入探討,了解人工智能的優(yōu)劣勢(shì)。首先,人工智能已是我們生活的一部分。谷歌搜索背后運(yùn)用的計(jì)算,或者快速瀏覽亞馬遜網(wǎng)站,計(jì)算機(jī)軟件一直在學(xué)習(xí)如何快速有效地作出反應(yīng)。在人們眼中,這種程度的人工智能“局限大”且“能力弱”,因?yàn)樗荒茉诎l(fā)明者給定的框架內(nèi)運(yùn)作。相比之下,“局限小”或者“能力強(qiáng)”的人工智能意味著,果斷執(zhí)行違背發(fā)明者意愿的任務(wù),這種人工智能不會(huì)“思考”,但是能夠臨場(chǎng)發(fā)揮。然而,目前還不存在這種意義上的人工智能,因?yàn)樵谀M人腦運(yùn)作或從零開始構(gòu)筑自主處理能力方面還困難重重,更不用說創(chuàng)造一個(gè)擁有自我意識(shí)和思想的機(jī)器人。為了真實(shí)探究人工智能現(xiàn)狀,記者參觀了美國(guó)宇航局位于加利福尼亞州帕薩迪那的噴氣推進(jìn)實(shí)驗(yàn)室,觀看工程師研制全球最智能機(jī)器人的過程。他們對(duì)記者提出的有關(guān)人類會(huì)被機(jī)器人軍隊(duì)接管的想法付之一笑。類人猿機(jī)器人RonoSimian的項(xiàng)目負(fù)責(zé)人布雷特-肯尼迪表示:“我從不擔(dān)心智能機(jī)器人?!鳖惾嗽硻C(jī)器人RonoSimian屬于令人類擔(dān)憂的機(jī)器人版本,它看上去很像一只機(jī)器猴子,借助眾多輪子可以變換不同姿勢(shì),如站立、爬行,或者打滾。RonoSimian的設(shè)計(jì)初衷是,趕赴人類難以進(jìn)入的危險(xiǎn)災(zāi)害區(qū),如倒塌的建筑物或者被毀的核反應(yīng)堆執(zhí)行任務(wù)。它身上裝載有兩臺(tái)計(jì)算機(jī),一臺(tái)用來控制身體中的傳感器,一臺(tái)用來控制身體活動(dòng)。執(zhí)行任務(wù)時(shí),RonoSimian可以執(zhí)行諸多任務(wù),如駕駛汽車,關(guān)閉巨型閥門,它在美國(guó)國(guó)防部最近舉辦的機(jī)器人挑戰(zhàn)賽中榮獲第五名。然而,RonoSimian的實(shí)際智力非常簡(jiǎn)單。機(jī)器的確需要給定詳細(xì)參數(shù),才能準(zhǔn)確執(zhí)行各類任務(wù)。布雷迪-肯尼迪身邊每天都圍繞著機(jī)器人,他表示:“在可以預(yù)見的未來,我不擔(dān)心也不指望機(jī)器人會(huì)跟人類一樣智能。我擁有一手資料,知道指令機(jī)器人執(zhí)行各種任務(wù)絕非易事?!蓖瑯樱?guó)人工智能領(lǐng)域的領(lǐng)軍人物,布里斯托機(jī)器人實(shí)驗(yàn)室的阿蘭-溫菲爾德教授也表示支持這一觀點(diǎn)。溫菲爾德教授表示:“我一直認(rèn)為完全沒有必要擔(dān)心,有關(guān)未來超級(jí)智能機(jī)器人會(huì)接管人類統(tǒng)治地球的論點(diǎn)實(shí)在是過于夸張?!辈贿^,溫菲爾德教授承認(rèn),人類應(yīng)該謹(jǐn)慎對(duì)待人工智能的發(fā)明和應(yīng)用。在全球1000位簽署呼吁“禁止在武器中應(yīng)用人工智能”的科學(xué)家和工程師中,他是其中之一。他指出:“機(jī)器人和智能系統(tǒng)的研究開發(fā),必須遵循極高的安全標(biāo)準(zhǔn),因?yàn)槲覀冃枰踩南匆聶C(jī)、汽車和飛機(jī)?!比欢?,誰也無法預(yù)料未來的科技進(jìn)步節(jié)奏,因?yàn)檎l也無法保證全球每一個(gè)角落的每一位科學(xué)家都能持同樣負(fù)責(zé)謹(jǐn)慎的態(tài)度。因此,在人工智能研發(fā)領(lǐng)域,的確存在不安定因素。人工智能安全與否的一個(gè)至關(guān)重要里程碑就是人機(jī)對(duì)等,即“人工普通智能”??茖W(xué)家正在努力研究評(píng)估,機(jī)器人何時(shí)會(huì)與人類一樣擁有對(duì)等智能,以及這種對(duì)等對(duì)人類來說有何意義。牛津大學(xué)人類未來研究院院長(zhǎng)尼克-博斯特羅姆教授,在新書《超級(jí)智能》中對(duì)未來人工智能繼續(xù)發(fā)展所帶來的潛在風(fēng)險(xiǎn),表示了深深的擔(dān)憂,并對(duì)此發(fā)出了警告。他援引了人工智能領(lǐng)域一些專家的最新調(diào)查成果。一項(xiàng)調(diào)查顯示,有50%的可能計(jì)算機(jī)將在2050年具備相當(dāng)人類水平的智能;另一項(xiàng)調(diào)查顯示,有90%的可能在2075年機(jī)器人將具備與人類對(duì)等的智能。尼克-博斯特羅姆教授稱,自己是一個(gè)不折不扣的人工智能支持者,因?yàn)榻柚斯ぶ悄芸梢詰?yīng)對(duì)氣候變化、能源與新藥物等問題。然而,博斯特羅姆教授指出:“你不能把人工智能簡(jiǎn)單看作是一個(gè)很酷的工具,或者提高公司底線的小玩意兒。人工智能的確改變了人類的基本游戲規(guī)則,它是人類智能的最后一項(xiàng)發(fā)明,同時(shí)開啟了機(jī)器人智能的新時(shí)代。”他假想了一幅畫面,一個(gè)好奇的孩子拾起了一個(gè)沒有引爆的炸彈,并且完全沒有意識(shí)到危險(xiǎn)性。他表示:“也許這一天還為期很遠(yuǎn),但是我們真的像一個(gè)天真懵懂的孩子,完全沒有意識(shí)到我們目前創(chuàng)造的機(jī)器人的力量——這就是我們作為一個(gè)物種所處的現(xiàn)狀?!辈┧固亓_姆教授目前的研究項(xiàng)目得到了埃隆-馬斯克的資金贊助,旨在探尋研究一種確保安全的共享方法。斯坦福大學(xué)教授杰瑞-卡普蘭在新書《人類不需要申請(qǐng)工作》中表示,機(jī)器人還可能有另一種隱蔽的接管形式,隨著我們習(xí)慣信任這些智能系統(tǒng),依賴它們進(jìn)行交通、交友、定制新聞

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論