FPGA成數(shù)百家嵌入式視覺企業(yè)開發(fā)首選 用于機器學習領域的已超40家_第1頁
FPGA成數(shù)百家嵌入式視覺企業(yè)開發(fā)首選 用于機器學習領域的已超40家_第2頁
FPGA成數(shù)百家嵌入式視覺企業(yè)開發(fā)首選 用于機器學習領域的已超40家_第3頁
FPGA成數(shù)百家嵌入式視覺企業(yè)開發(fā)首選 用于機器學習領域的已超40家_第4頁
FPGA成數(shù)百家嵌入式視覺企業(yè)開發(fā)首選 用于機器學習領域的已超40家_第5頁
全文預覽已結(jié)束

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領

文檔簡介

FPGA成數(shù)百家嵌入式視覺企業(yè)開發(fā)首選用于機器學習領域的已超40家越來越多的輔助駕駛、無人機、虛擬現(xiàn)實/增強現(xiàn)實、醫(yī)學診斷、工業(yè)視覺等應用,為了追逐更高性能/差異化,紛紛對機器學習產(chǎn)生濃厚的興趣。已有幾家初創(chuàng)企業(yè)在開發(fā)專門的機器學習芯片,但上述這些應用不僅僅要集成機器學習,還有計算機視覺,傳感器融合和連接。如果要開發(fā)這么一整套獨特的性能組合,可能要花費幾億美元才能推出第一款芯片,而且從各種規(guī)格的確定落實到推出樣片,可能需要三年以上。更別提這三年過程當中還有一個挑戰(zhàn):那就是神經(jīng)網(wǎng)絡、算法和傳感器等都還是處于不斷演化的過程,一款固定的、標準的設計平臺面對這些風云變幻的演進根本無力招架。此時此刻,F(xiàn)PGA技術成為數(shù)百家嵌入式視覺企業(yè)開發(fā)的首選,其中用于機器學習領域的已經(jīng)超過40家。那么問題來了,面對市場上最熱門的人工智能CPU/GPU芯片,全可編程方案的優(yōu)缺點是什么?產(chǎn)量達到多少以后就不再合適?秒殺對手的性能,是怎么算出來的?賽靈思有一個公開的性能對比:針對ZynqSoC的reVISION堆棧與NvidiaTegraX1進行基準對比,得出下圖這個驚人的數(shù)據(jù):reVISION堆棧在機器學習方面單位功耗圖像捕獲速度提升6倍,在計算機視覺處理的幀速率提升42倍,時延僅為1/5(以毫秒為單位),這些對實時應用而言都是至關重要的。既然和競爭對手做對比,一定是在相同價格的芯片之上做的一些性能對比。在接到EDN記者的疑問后,賽靈思嵌入式視覺和SDSoC高級產(chǎn)品經(jīng)理NickNi用詳細數(shù)據(jù)解答了此疑問。6倍、42倍和1/5,這幾個數(shù)據(jù)都是基于同一基礎的?!跋駲C器學習的6倍的圖像/秒/瓦是用谷歌來做編程。比如Xilinx我們使用ZU9可以達到370,我們的功率達到7W,我們使用一樣的GoogleNet,我們可以看到Nvidia已經(jīng)在公開他們最好的數(shù)據(jù),所以我們就用他們這些數(shù)字,所以就算出來6X。”Ni指出。在42倍幀/秒/瓦,則是用最優(yōu)化的這些庫來做比較。在競爭分析中使用英特爾(Altera)的Arria10器件與賽靈思的ZynqUltraScale+MPSoC對比。在進行嵌入式視覺應用計算效率比較時,選擇的器件有可比的DSP密度和器件功耗:·Arria10SoC:SX220、SX270和SX480·ZynqUltraScale+MPSoC:ZU3、ZU7和ZU9器件重點比較能用于包括深度學習和計算機視覺在內(nèi)的眾多應用的通用MACC性能。英特爾的MACC性能基于運用預加法器的算子。但是這種實現(xiàn)方案產(chǎn)生的是乘積項的和,而非單獨的乘積項。因此英特爾的預加法器不適用高效深度學習或計算機視覺運算。在本計算效率分析中,每個器件的功耗使用賽靈思的2016.4版PowerEstimator工具和英特爾的16.0.1版EPEPowerEstimate工具進行估算,并根據(jù)下列假設得出:1.90%DSP占用率2.英特爾器件-速度等級為:2L,最大頻率下供電電壓為0.9V3.賽靈思器件-速度等級為1L,最大頻率下供電電壓為0.72V4.時鐘速率為DSPFmax時邏輯利用率為70%5.時鐘速率為DSP最大頻率的一半時,BlockRAM利用率為90%6.DSP翻轉(zhuǎn)率為12.5%7.功耗特征:“典型功耗”下圖所示的即為深度學習和計算機視覺運算的能效對比。與英特爾的Arria10SoC器件相比,賽靈思器件能讓深度學習和計算機視覺運算的計算效率提高3-7倍。響應速度來源于架構(gòu)響應速度在汽車駕駛中直接影響著安全距離?!?/5時延有不一樣的方法來算,我們的算法是直接用了深度學習/機器學習,因為很多時候如果知道深度學習的話,可以用不一樣的方法來做,你輸入一個圖像進去,反應速度就是這個圖像什么時候能夠出來,我們可以看到5倍的速率差異?!盢i表示?,F(xiàn)在一些硬件的專業(yè)客戶如果他們花費很多的精力或者是時間的投入,他們有可能可以實現(xiàn)只有1/12的時延。響應速度快,其實和賽靈思的架構(gòu)是息息相關的,如下圖所示?!暗湫偷那度胧降腉PU和典型的SoC,他的傳感器的數(shù)據(jù)是需要外部存儲,在處理過程中需要不斷的去訪問外部存儲。但是Zynq能直接獲得數(shù)據(jù)流,直接經(jīng)過傳感器融合處理,再進行決策,響應時間大大縮短。”如何滿足機器學習的這三點訴求?我們從客戶那里看到三方面的需求,賽靈思公司戰(zhàn)略與市場營銷部高級副總裁SteveGlaser表示,“第一,他們希望機器學習的智能性有所提高,同時他們也希望系統(tǒng)能夠?qū)崿F(xiàn)及時的快速響應來應對一切外部事件,比如行人從車前經(jīng)過,比如神經(jīng)網(wǎng)絡或者相關技術的市場變化?!逼浯?,成本要低、功耗要低。他們希望能夠以非常高的效率使用非常先進的算法。最后,他們需要靈活性——因為一切都在不斷的變化:神經(jīng)網(wǎng)絡和算法、傳感器的類型配置和組合等?!拔覀兡軌驇椭蛻魜韮?yōu)化他們的數(shù)據(jù)流,從傳感器到視覺處理,再到機器學習推斷,一直到控制系統(tǒng)。另外我們也通過先預置的硬件,再加上可以編程的軟件,為客戶提供前所未有的靈活性?!盙laser表示,這也就意味著,在不實質(zhì)性改變硬件、包括板和芯片的情況下,客戶就能夠升級優(yōu)化到最新的神經(jīng)網(wǎng)絡、算法以及傳感器的類型配置。reVISION堆棧包含一些基礎的平臺,可以支持算法的開發(fā),而且它帶有非常符合行業(yè)標準的庫和元素,針對于計算機、視覺以及機器學習都是非常重要的,這些框架包括在機器學習領域的Caffe,以及在計算機視覺領域就是OpenVX。專門的開發(fā)人才與生態(tài)環(huán)境在GPU體系中,有一大群開發(fā)者不斷提供優(yōu)秀的設計,實現(xiàn)良性循環(huán),例如NVidia推出的運算平臺CUDA,包含了CUDA指令集架構(gòu)(ISA)以及GPU內(nèi)部的并行計算引擎。全可編程方案好是好,可是會的人少。“reVISION可以簡單地實現(xiàn)一個工程,直接把一個Caffe訓練好的神經(jīng)網(wǎng)絡模型部署到Zynq里。Zynq本身已經(jīng)包括了優(yōu)化的硬件,可以滿足神經(jīng)網(wǎng)絡的計算需求。如果需要定制自己的神經(jīng)網(wǎng)絡,只要把Caffe模型輸入到Zynq即可馬上跑起來。從開發(fā)角度講,Zynq特別像CUDA,可以直接釆用GPU或CPU訓練好的神經(jīng)網(wǎng)絡?!爆F(xiàn)在reVISION堆棧有大量符合行業(yè)標準的庫和框架,開發(fā)時間可以大大壓縮,專門針對那些并沒有硬件方面專業(yè)知識的嵌入式軟件或者系統(tǒng)級工程師。傳統(tǒng)的模式中,賽靈思提供芯片以及開發(fā)環(huán)境當中20%的解決方案,剩下的80%要由客戶來完成?!坝辛诉@個reVISION堆棧以后,賽靈思能夠完成解決方案當中80%的工作,剩下的客戶只要完成20%?!盙laser表示。關鍵的一點不能漏:reVISION是免費的,賽靈思說自己只賺芯片錢。成本,多大的量需要尋求替代性方案?最后,人工智能的硬件生態(tài)目前還沒確定,從公司角度出發(fā),搶占市場先機和獲得成本優(yōu)勢同樣重要。幾年前推出Zynq的時候,其低端的版本大批量應用差不多是15美元以下,現(xiàn)在甚至有了更低端的單核版本,與高端產(chǎn)品4核及7核的異構(gòu)多處理器MPSoC并存,“現(xiàn)在我們有從10美元到幾十美元的組合?!盙laser指出。雖然達不到幾千萬或數(shù)億那么高的量,由于不再是FPGA了,而是混合的SoC,帶有可以編程的邏輯和

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論