版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
45特特AI戰(zhàn)冊(cè)趨勢(shì)篇趨勢(shì)篇66特AI戰(zhàn)冊(cè)趨勢(shì)篇7得益于算法的進(jìn)一步成熟、算力的提高以及數(shù)據(jù)的持續(xù)人工智能(Arti?cialIntelligence,AI)得到迅猛發(fā)展,深度作為AI技術(shù)最重要的落地領(lǐng)域之一,醫(yī)療行業(yè)與人工智能技業(yè)市場(chǎng)規(guī)模正在呈現(xiàn)高速增長(zhǎng),預(yù)計(jì)將在2030年超過1.1萬億元人民幣1。這一高速增長(zhǎng)一方面得益于中國(guó)醫(yī)療市場(chǎng)的迫切需求,另一方面則源于近年來醫(yī)療人工智能技術(shù)的發(fā)展以及相關(guān)政策的支持。同時(shí),人工智能技術(shù)與產(chǎn)品的市呈加速趨勢(shì),數(shù)據(jù)表明截至2021年8月,中國(guó)已有28款不同的人工智能醫(yī)療產(chǎn)品獲批三類醫(yī)療器械注冊(cè)人工智能市場(chǎng)中的占比最大,達(dá)到35%。緊隨其后的是醫(yī)學(xué)影像人工智能,占比25%,并將以超過40%的增速發(fā)展,預(yù)計(jì)2024年其規(guī)模將達(dá)到25億美元。32022年,該細(xì)分市場(chǎng)的規(guī)模僅在中國(guó)就將接近300億元人民幣4同時(shí)隨之帶來的測(cè)序時(shí)間縮短以及成本大幅降低,又會(huì)隨著人工智能在更多醫(yī)療領(lǐng)域的運(yùn)用,更多醫(yī)療數(shù)據(jù)也參與到各類機(jī)器學(xué)習(xí)和深度學(xué)習(xí)模型的訓(xùn)練中來,如何在提升模型性能的同時(shí)保證信息安全和隱私保護(hù)也是目前業(yè)界矚目的焦點(diǎn)之一。因此,可信理念也在人工智能與醫(yī)療行業(yè)的結(jié)合值得一提的是,利用人工智能方法來加速蛋白質(zhì)結(jié)構(gòu)預(yù)測(cè)也是目前廣受關(guān)注的重要課題。以AlphaFold2為代表的新方案能夠大幅加速蛋白質(zhì)結(jié)構(gòu)解析速度,揭示和呈現(xiàn)有機(jī)體信息秘密,是人工智能在生物學(xué)、醫(yī)學(xué)和藥學(xué)等領(lǐng)域落地的核在中國(guó),政策激勵(lì)是加速醫(yī)療人工智能應(yīng)用落地的關(guān)一。相關(guān)政府部門陸續(xù)推出了大量政策,從人才培養(yǎng)、技術(shù)創(chuàng)新、標(biāo)準(zhǔn)監(jiān)管、行業(yè)融合、產(chǎn)品落地等多方位推動(dòng)人工智能發(fā)工智能標(biāo)準(zhǔn)化白皮書(2018版)》發(fā)布;同年4月,國(guó)務(wù)院措,并表示將重點(diǎn)支持研發(fā)醫(yī)療健康相關(guān)的人工智能技術(shù)、醫(yī)用機(jī)器人、大型醫(yī)療設(shè)備等。2021年10月,由國(guó)家衛(wèi)生健康委、國(guó)家中醫(yī)藥管理局印發(fā)的《公立醫(yī)院高質(zhì)量發(fā)展促進(jìn)行動(dòng)(2021-2025年)》提出建設(shè)“三位一體”智慧醫(yī)院。通過完善智慧醫(yī)院分級(jí)評(píng)估頂層設(shè)計(jì),鼓勵(lì)有條件的公立醫(yī)院加快應(yīng)用智慧服務(wù)軟硬件。2023年3月由中共中央辦公廳、國(guó)務(wù)院辦公廳印發(fā)的《關(guān)于進(jìn)一步完善醫(yī)療衛(wèi)生服務(wù)體系的意見》指計(jì)算等在醫(yī)療衛(wèi)生領(lǐng)域中的應(yīng)用,加強(qiáng)健康醫(yī)療大數(shù)據(jù)共享交數(shù)據(jù)援引自弗若斯特沙利文在2022年5月25日發(fā)布的報(bào)告《醫(yī)療智能行業(yè)白皮書》,/content/insight/detail?id=62f1ebd83a1cb46c9a9fd3ca數(shù)據(jù)援引自中國(guó)信息通信研究院發(fā)布的《人工智能白皮書(2022年)》:/kxyj/qwfb/bps/202204/t20220412_399752.htmGlobalMarketInsightsreport.2018年4月./rengongzhineng/592041.html前瞻產(chǎn)業(yè)研究院。《2018-2023年中國(guó)基因測(cè)序行業(yè)市場(chǎng)前瞻與投資戰(zhàn)略規(guī)劃報(bào)告》。2018年。/trends/detail/506/180411-e7daa2c4.html特特AI戰(zhàn)冊(cè)趨勢(shì)篇8特AI戰(zhàn)冊(cè)趨勢(shì)篇9未來,人工智能在不同層級(jí)的醫(yī)療機(jī)構(gòu)的應(yīng)用方向出更加多元化的趨勢(shì),即在基層醫(yī)院或第三方體檢中心則以提高醫(yī)生工作效率為主;在健康管理方面,人工持單位和個(gè)人支付的健康體檢為主要方向;在藥物研發(fā)領(lǐng)人工智能應(yīng)用又表現(xiàn)出不同特點(diǎn),需要相關(guān)技術(shù)公司與大型藥雖然人工智能在醫(yī)療健康領(lǐng)域迅速得以應(yīng)用,但源于數(shù).數(shù)據(jù)量。模型越復(fù)雜,參數(shù)越多,所需要的訓(xùn)練樣本量就越大。但是對(duì)許多復(fù)雜的臨床場(chǎng)景而言,所需要的.數(shù)據(jù)維度。通常而言,數(shù)據(jù)維度越少,對(duì)真實(shí)世界的描述能.數(shù)據(jù)質(zhì)量。一般而言,健康數(shù)據(jù)的組織化和標(biāo)準(zhǔn)化程度都不.數(shù)據(jù)孤島現(xiàn)象。作為關(guān)乎人們隱私信息的敏感領(lǐng)域,醫(yī)療數(shù)不同機(jī)構(gòu)間數(shù)據(jù)相互隔離的數(shù)據(jù)孤島現(xiàn)象。而單一醫(yī)療機(jī)構(gòu)又難以聚集起足夠的高質(zhì)量訓(xùn)練數(shù)據(jù),供AI模型訓(xùn)練學(xué)習(xí).模型的可解釋性。深度學(xué)習(xí)模型是個(gè)黑盒子,對(duì)如何得出結(jié).模型的通用性。首先是模型偏差,比如采用白種人患者數(shù)據(jù)是模型互操作性差,即很難建立一個(gè)適用于兩種不同電子病.模型安全。即便是訓(xùn)練有素的圖像處理模型,也有可能因輸針對(duì)這些挑戰(zhàn),醫(yī)療和人工智能等領(lǐng)域的專家已經(jīng)提出多項(xiàng)應(yīng).收集大規(guī)模和多樣化的健康數(shù)據(jù)。廣泛收集來自不同種族、.提高數(shù)據(jù)質(zhì)量。從提供可靠、高質(zhì)量的數(shù)據(jù)輸入入手,繼之.融入臨床工作流程。將深度學(xué)習(xí)融入現(xiàn)有電子病歷系統(tǒng)的管.構(gòu)建高維學(xué)習(xí)模型。引入百萬級(jí)乃至上億級(jí)的規(guī)則,通過高.法制化規(guī)范化。針對(duì)諸如計(jì)算機(jī)黑客篡改數(shù)據(jù),從而影響深解決因數(shù)據(jù)孤島所造成的高質(zhì)量訓(xùn)練數(shù)據(jù)不足問題,各方專家正積極探索引入聯(lián)邦學(xué)習(xí)方法等安全性更高的數(shù)據(jù)協(xié)作方式和更完善的AI模型訓(xùn)練架構(gòu),以便在降低隱私泄露風(fēng)險(xiǎn)的前提下,以更多高質(zhì)量數(shù)據(jù)構(gòu)建起安全可信的多源數(shù)據(jù)協(xié)同方案,提升醫(yī)療AI應(yīng)用效能,使AI技術(shù)更高效、安全地服人工智能在醫(yī)療健康領(lǐng)域的應(yīng)已有共識(shí)。伴隨著應(yīng)用的不斷深入,人工智能將在以下多種醫(yī).慢病管理與疾病監(jiān)測(cè)。基于患者體征對(duì)(潛在)慢性疾病進(jìn)行風(fēng)險(xiǎn)預(yù)估,從而通過早期干預(yù),大大降低患者的醫(yī)療病的風(fēng)險(xiǎn),根據(jù)運(yùn)營(yíng)模型預(yù)測(cè)患者再入院率,根據(jù)財(cái)務(wù)模型),人工智能方法的慢性病評(píng)估及篩查模式,提升慢性病的預(yù)測(cè)內(nèi)導(dǎo)航、導(dǎo)診、導(dǎo)醫(yī),提升精準(zhǔn)分診、健康咨詢、健生的病例處理效率;提高分析影像的準(zhǔn)確度,縮短診斷結(jié)果.基因組學(xué)分析。用以大幅降低基因測(cè)序成本,快速精確實(shí)現(xiàn)規(guī)模龐大的基因組數(shù)據(jù)分析,為疾病的診斷和治療等提究與發(fā)展提供高質(zhì)量的生物學(xué)假設(shè);1010像素級(jí)預(yù)測(cè)圖像分割25638438425640964096OpenVINO?提升AI推理效率實(shí)像素級(jí)預(yù)測(cè)圖像分割25638438425640964096OpenVINO?提升AI推理效率實(shí)戰(zhàn)篇特AI戰(zhàn)冊(cè)實(shí)戰(zhàn)篇特AI戰(zhàn)冊(cè)實(shí)戰(zhàn)篇13計(jì)算機(jī)視覺中的圖像分割5是指以圖像中的自然邊界,例如物體輪廓、線條等,將圖像切分為多個(gè)區(qū)域,其目的是用于簡(jiǎn)化或改變圖像的表現(xiàn)形式,使之更易解讀和分析。在計(jì)算機(jī)方法使具有相同標(biāo)簽的像素有著某種共同視覺特性,例如顏色、亮度、紋理等,由此進(jìn)行的度量或計(jì)算得出的一定區(qū)域的像素特作為計(jì)算機(jī)視覺技術(shù)的重要分支,圖像分割已在醫(yī)學(xué)影像處理、工業(yè)機(jī)器人、智能交通、指紋識(shí)別以及衛(wèi)星圖像定位等多個(gè)行業(yè)和領(lǐng)域獲得廣泛應(yīng)用。在醫(yī)學(xué)影像處理領(lǐng)域,圖像分割已在諸多病理位置定位、組織體積測(cè)量、解剖學(xué)研究、計(jì)算機(jī)輔助手術(shù)、治療方案制定以及臨床輔助診斷等多個(gè)細(xì)分領(lǐng)域證割成K個(gè)聚類。該算法中,分割圖像中像素與聚類中心之間都有著相似的距離偏差,距離偏差通常采用顏色、亮度、紋閾值后,將每個(gè)像素的灰度值與閾值相比較于邊緣的分割方法依賴于灰度值邊緣檢測(cè),當(dāng)邊緣灰度值呈分割,其判斷原則是根據(jù)相鄰像素點(diǎn)的灰度、顏色、紋理等隨著近年來AI技術(shù)的飛速發(fā)展,尤其是在圖像領(lǐng)域,基于AI技術(shù)的圖像識(shí)別、圖像處理應(yīng)用已經(jīng)被用在很多場(chǎng)景中,其對(duì)各類醫(yī)學(xué)影像的分析識(shí)別能力已經(jīng)超過人類。與卷積神經(jīng)網(wǎng)絡(luò)(ConvolutionalNeuralNetwork,CNN)類似的模型,是目前基于AI的圖像分割技術(shù)中常見的網(wǎng)絡(luò)模型。這其中,全卷積網(wǎng)絡(luò)(FullyConvolutionalNetwork,FCN)、U-Net和V-Net是常見的幾種基于深度學(xué)習(xí)的圖像分割方法?!鯢CNCNN的典型用途是對(duì)任務(wù)進(jìn)行分類。對(duì)圖像處理而言,它的輸出是單個(gè)類別標(biāo)簽。在生物醫(yī)學(xué)的圖像分割處輸出應(yīng)該包括定位,即應(yīng)該將類標(biāo)簽分配給每個(gè)像素。作為卷積神經(jīng)網(wǎng)絡(luò)的升級(jí)擴(kuò)展版本,如圖2-1-1所示,F(xiàn)CN6遵循編碼、解碼的網(wǎng)絡(luò)結(jié)構(gòu)模式級(jí)聯(lián)了卷積層和池化層。卷積層和最大池化層有效降低了原始圖像的空間維度。同時(shí),F(xiàn)CN使用AlexNet作為網(wǎng)絡(luò)的編碼器,采用多重轉(zhuǎn)置卷積重復(fù)擴(kuò)展的方式,對(duì)編碼器最后一個(gè)卷積層輸出的特征圖特征圖恢復(fù)到輸入圖像的分辨率,因而,可以實(shí)正向/推理96圖2-1-1FCN方法原理圖關(guān)于圖像分割的描述,部分參考:LindaG.ShapiroandGeorgeC.Stockman(2001):“ComputerVision”,pp279-325,NewJersey,Prentice-Hall,ISBN0-13-030796-3關(guān)于FCN的相關(guān)技術(shù)描述,摘選自UCBerkeleyjonlong、shelhamer和trevor的論文《FullyConvolutionalNetworksforSemanticSegmentation》:/~jonlong/long_shelhamer_fcn.pdf特特AI戰(zhàn)冊(cè)實(shí)戰(zhàn)篇14特AI戰(zhàn)冊(cè)實(shí)戰(zhàn)篇15conv3x3,ReLUconv3x3,ReLUcopyandcropmaxpool2x2up-conv2x2conv1x1outputsegmentationmapinputimagetile圖2-1-2U-Net拓?fù)洹鯱-Net作為FCN網(wǎng)絡(luò)的一個(gè)改進(jìn)版本,U-Net具有一個(gè)鮮明的U型結(jié)構(gòu),其拓?fù)鋱D如2-1-2所示,其在每個(gè)Encoder上都會(huì)進(jìn)行4次上采樣,這使得分割圖恢復(fù)邊緣等信息會(huì)更為精細(xì)。同時(shí),在同一個(gè)stage上,U-Net都采用了跳躍連接(skipconnection而不是直接在高級(jí)語(yǔ)義特征上進(jìn)行監(jiān)督和loss反傳,這樣就可以保證最后得到的特征圖融合了多的低層級(jí)(low-level)特征,也使得不同尺度的特征得到了融合,從而可以進(jìn)行多尺度預(yù)測(cè)(Multi-ScalePrediction)和深度監(jiān)督(DeepSupervision)。另外,U-Net在網(wǎng)絡(luò)后部補(bǔ)充了一個(gè)與前面類似的網(wǎng)絡(luò),形成U性結(jié)構(gòu)。其中池化運(yùn)算符由上采樣運(yùn)算符替換,因此增加了輸出的分辨率。同時(shí),為了定位,模型從收縮路徑的高分辨率特征與上采樣輸出相結(jié)合。連續(xù)卷積層可以采用relu激活函數(shù)來對(duì)原始圖片進(jìn)行降采樣操般胸片影像是胸片CT,而眼底檢查則是眼底OCT,均為針■V-NetV-Net可以視為3D版本的U-Net,如圖2-1-3所示,它與V-Net能夠?qū)崿F(xiàn)基于3D圖像的端到端圖像語(yǔ)義分割,并通過使用5x5x5過濾器,非線性PReLu圖2-1-3V-Net拓?fù)渌枷雽?duì)于在醫(yī)療行業(yè)中構(gòu)建基于深度學(xué)習(xí)的圖像分割方法,可以參英特爾?至強(qiáng)?金牌6240處理器或更高ONON16GBDDR42666MHz*12及以上英特爾?固態(tài)盤D5P4320系列及以上CentOSLinux7.6或最新版本Linux核心3.10.0或最新版本GCC4.8.5或最新版本Python版本Python3.6或最新版本TensorFlow版本OpenVINO?2019R1或最新版本Keras版本將傳統(tǒng)的CNN圖像分割方法用于醫(yī)學(xué)圖像時(shí),往往存在以下?CNN通常都是應(yīng)用于分類,生物醫(yī)學(xué)圖像則更關(guān)注分割以?CNN需要獲取大量的訓(xùn)練數(shù)據(jù),而醫(yī)學(xué)圖像很難獲得相應(yīng)以往在應(yīng)對(duì)上述困難時(shí),通常采用滑窗的方法,即為分類的像素點(diǎn)取周圍的一部分鄰域輸入。這種方法好處有兩每次動(dòng)作都會(huì)取一個(gè)像素點(diǎn)周圍的鄰域,可以大大增加訓(xùn)練的塊之間有較大的重疊,會(huì)導(dǎo)致訓(xùn)練和推理速度變慢;二是網(wǎng)絡(luò)需要在局部準(zhǔn)確性和獲取上下文之間進(jìn)行取舍,因?yàn)槿绻叭〉膲K過大,就需要更多的池化層,定位準(zhǔn)確率會(huì)降低,而取基于英特爾?架構(gòu)平臺(tái)開展的一系列優(yōu)化,可以從另一個(gè)層面幫助用戶解決以上問題。這些優(yōu)化方法包括:調(diào)整處理器核心數(shù)量、引入非統(tǒng)一內(nèi)存訪問架構(gòu)(Non-UniformMemoryAccessArchitecture,NUMA)技術(shù),以及面向深度神經(jīng)網(wǎng)絡(luò)的英特爾?數(shù)學(xué)核心函數(shù)庫(kù)(Intel?MathKernelLibraryforDeepNeuralNetworks,英特爾?MKL-DNN從而為■環(huán)境變量設(shè)置首先,需要對(duì)環(huán)境變量進(jìn)行設(shè)置,如以下所示,命令包括:清空系統(tǒng)的緩存(cache將處理器設(shè)置為性能優(yōu)先的模式,?KMP_BLOCKTIME設(shè)置為1,是設(shè)置某個(gè)線程在執(zhí)行完當(dāng)?KMP_AFFINITY設(shè)置為Compact,是表示在該模式下,?OMP_NUM_THREADS設(shè)置為20,是將并行執(zhí)行線程的■測(cè)試代碼中添加線程控制如上述設(shè)置命令所示,在進(jìn)行tf.Con?gProto()初始化時(shí),我們也可以通過設(shè)置intra_op_parallelism_threads參數(shù)和inter_op_parallelism_threads參數(shù),來控制每個(gè)操作符op?intra_op_parallelism_threads控制運(yùn)算符op內(nèi)部的并行,當(dāng)運(yùn)算符op為單一運(yùn)算符,并且內(nèi)部可以實(shí)現(xiàn)并行時(shí),如矩陣乘法、reduce_sum之類的操作,可以通過設(shè)置intra_op_parallelism_threads參數(shù)來并行,intra代表內(nèi)部。特特AI戰(zhàn)冊(cè)實(shí)戰(zhàn)篇特AI戰(zhàn)冊(cè)實(shí)戰(zhàn)篇17?inter_op_parallelism_threads控制多個(gè)運(yùn)算符op之間的并行計(jì)算,當(dāng)有多個(gè)運(yùn)算符op,并且它們之間比較獨(dú)立,運(yùn)算符和運(yùn)算符之間沒有直接的路徑Path相連時(shí),TensorFlow會(huì)嘗試并行地對(duì)其進(jìn)行計(jì)算,并使用由inter_op_parallelism_threads參數(shù)來控制數(shù)量的一個(gè)線程池。通常而言,intra_op_parallelism_threads設(shè)置為單個(gè)處理器的物理核心數(shù)量,而inter_op_parallelism_threads則設(shè)置為■利用NUMA特征來控制處理器計(jì)算資源的使用數(shù)據(jù)中心使用的服務(wù)器,通常都是配置兩顆或更多的處理器,處理器訪問它自己的本地存儲(chǔ)器的速度比非本地存儲(chǔ)器更快一些。為了在這樣的系統(tǒng)上獲取最好的計(jì)算性能,需要通過一些特定指令來加以控制。Numactl就是用于控制進(jìn)程與共享存儲(chǔ)的一種技術(shù)機(jī)制,也是在Linux系統(tǒng)中廣泛使用的計(jì)算資源AVX-512進(jìn)行優(yōu)化的二進(jìn)制文件,從而得到一個(gè)經(jīng)過優(yōu)化且?https://www.tensor?/guide/performance/overview?hl=zh_cn?/zh-cn/articles/tensor?ow-optimizations-on-modern-intel-architectureU-Net基于英特爾?架構(gòu)優(yōu)化后的測(cè)試及器平臺(tái)上的性能得到了顯著提升,測(cè)試結(jié)果如下圖所示7:120.00%100.00%80.00%60.00%40.00%20.00%0.00%1.0001.0001.2001.0000.8000.6000.4000.2000.00099.50%優(yōu)化后處理時(shí)延0.2740.274圖2-1-4用NUMA特征來控制處理器計(jì)算資源的使用基于英特爾?架構(gòu)的處理器(包括英特爾?MKL-DNN)優(yōu)化上述指令表示的是test.py在執(zhí)行的時(shí)候只使用了處理器#CPU0中的0-19和40-59核,以及處理器#CPU0對(duì)應(yīng)的■采用面向英特爾?MKL-DNN優(yōu)化的TensorFlow為了使用戶在通用處理器平臺(tái)上進(jìn)行高效的AI計(jì)算,英特爾前在工業(yè)界和學(xué)術(shù)界使用十分廣泛的TensorFlow。通過使用英特爾?MKL-DNN優(yōu)化的多種原語(yǔ)(Primitive英特爾對(duì)TensorFlow進(jìn)行了優(yōu)化。英特爾?MKL-DNN是從TensorFlow1.2開始添加的。除了在訓(xùn)練基于CNN的模型時(shí)能顯著提升性能之外,使用英特爾?MKL-DNN進(jìn)行編譯還可以創(chuàng)建針對(duì)英特爾?高級(jí)矢量擴(kuò)展指令集(Intel?Advanced基于OpenVINO?工具套件英特爾?發(fā)行為滿足客戶在實(shí)際應(yīng)用場(chǎng)景中的需求,在上述結(jié)果英特爾又基于OpenVINO?工具套件英特爾?發(fā)行版(以下簡(jiǎn)稱“OpenVINO?工具套件”)對(duì)U-Net圖像切■模型轉(zhuǎn)換由于原有的模型是基于Keras進(jìn)行訓(xùn)練,生成的模型為hdf5格式,這種格式的模型無法直接作為OpenVINO?工具套件測(cè)試配置為:處理器:雙路英特爾?至強(qiáng)?金牌6148處理器,2.40GHz;核心/線程:20/40;內(nèi)存:16GBDDR42666MHz*12;硬盤:英特爾?固態(tài)盤SC2BB480G7;BIOS:SE5C620.86B.02.01.0008.031920191559;操作系統(tǒng):CentOSLinux7.6;Linux內(nèi)核:3.10.0-957.21.3.el7.x86_64;gcc版本:7.2;Python版本:Python3.6;TensorFlow版本:R1.13.1。■將模型通過OpenVINO?工具套件的mo■將模型通過OpenVINO?工具套件的mo.py轉(zhuǎn)換成xml文件和bin文件LearningBoost,英特爾?DLBoost)技術(shù)■通過InferenceEngine來進(jìn)行模型推理構(gòu)、更多的內(nèi)核及更快的內(nèi)存通道帶來了計(jì)算性能的提升,更面向AI應(yīng)用提供了更為全面的加速能力,在其集成為用戶提供了高效的INT■通過InferenceEngine來進(jìn)行模型推理英特爾?深度學(xué)習(xí)加速技術(shù)通過VNNI指令集來支持8位或16位低精度數(shù)值相乘,這對(duì)于需要執(zhí)行大量矩陣乘法的深度學(xué)習(xí)計(jì)算而言尤為重要。它的導(dǎo)入使得用戶在執(zhí)行INT8推理時(shí),對(duì)系統(tǒng)內(nèi)存的要求最大可減少75%9,而對(duì)內(nèi)存和所需帶寬的減少,也加快了低數(shù)值精度運(yùn)算的速度,從而使系統(tǒng)整體時(shí)的圖像分割結(jié)果,最右列是通過OpenVINO?工具套件優(yōu)化之后生成的圖像分割結(jié)果。可以看出,通過OpenVINO?工具套件優(yōu)化后生成的圖像分割結(jié)果,在準(zhǔn)確率上與未與以往的FP32模型相比,INT8模型具有更小的數(shù)值精度和動(dòng)態(tài)范圍,因此在圖像切割等深度學(xué)習(xí)中采用INT8推理方式,需要著重解決計(jì)算執(zhí)行時(shí)的信息損失問題。時(shí)的圖像分割結(jié)果,最右列是通過OpenVINO?工具套件優(yōu)化之后生成的圖像分割結(jié)果。可以看出,通過OpenVINO?工具套件優(yōu)化后生成的圖像分割結(jié)果,在準(zhǔn)確率上與未是一個(gè)邊計(jì)算邊縮減的過程。換言之,如何確認(rèn)縮減的范圍是實(shí)現(xiàn)信息損失最小化的關(guān)鍵。在FP32向INT8映射的過程中,采用根據(jù)數(shù)據(jù)集校準(zhǔn)的方式,來確定映射縮減的參數(shù)參數(shù)后,平臺(tái)再根據(jù)所支持的INT8操作列表,對(duì)圖形進(jìn)行分析并執(zhí)行量化/反量化等操作。量化操作用于FP32向S8(有符號(hào)INT8)或U8(無符號(hào)INT8)的量化,反量化操作則執(zhí)基于OpenVINO?工具套件進(jìn)行FP32模型到INT8模型的轉(zhuǎn)換圖2-1-6基于OpenVINO?工具套件對(duì)U-Net的優(yōu)化結(jié)果圖2-1-6基于OpenVINO?工具套件對(duì)U-Net的優(yōu)化結(jié)果相關(guān)驗(yàn)證測(cè)試配置為:處理器:雙路英特爾?至強(qiáng)?金牌6148處理器,2.40GHz;核心/線程:20/40;內(nèi)存:16GBDDR42666MHz*12;硬盤:英特爾?固態(tài)盤SC2BB480G7;BIOS:SE5C620.86B.02.01.0008.031920191559;操作系統(tǒng):CentOSLinux7.6;Linux內(nèi)核:3.10.0-957.21.3.el7.x86_64;gcc版本:4.8.5;Python版本:Python3.6;OpenVINO?工具套件:2019R1;Keras:2.1.3。數(shù)據(jù)源引自/en-us/articles/lower-numerical-precision-deep-learning-inference-and-training特特AI戰(zhàn)冊(cè)實(shí)戰(zhàn)篇18特AI戰(zhàn)冊(cè)實(shí)戰(zhàn)篇IRRunModelOptimizerTainaModel.XML.bin精度的基礎(chǔ)之上可以提供效率更高的模型推理應(yīng)用,通常情況IRRunModelOptimizerTainaModel.XML.binOpenVINO?工具套件從2018R4版本開始提供FP32模型到INT8模型的轉(zhuǎn)換功能,并且從2019R1版本開始,支持基于第二代英特爾?至強(qiáng)?可擴(kuò)展處理器所集成的英特爾OpenVINO?工具套件中的模型優(yōu)化器基本工作和部署流程為:首先工具套件會(huì)將訓(xùn)練好的、基于開放神經(jīng)網(wǎng)絡(luò)交換(OpenNeuralNetworkExchange,ONNX)訓(xùn)練的模型進(jìn)的優(yōu)化包含節(jié)點(diǎn)融合、批量歸一化的去除和常量折疊等方法;然后,通過OpenVINO?工具套件中的轉(zhuǎn)換工具將FP32格式的文件轉(zhuǎn)換為INT8格式的xml文件和bin文件,在轉(zhuǎn)換的過程中需要用到一個(gè)小批量的驗(yàn)證數(shù)據(jù)集,并且會(huì)將轉(zhuǎn)換量化過程中的統(tǒng)計(jì)數(shù)據(jù)存儲(chǔ)下來,以便在后續(xù)的推理時(shí)確保精度不受影響。上述的轉(zhuǎn)換流程是離線運(yùn)行的,也就是只要轉(zhuǎn)換一次UserApplicationInferenceEngine圖2-1-7基于OpenVINO?工具套件的FP32模型到INT8模型的轉(zhuǎn)換1與FP32相比,INT80.404INT8FP32INT8圖2-1-8FP32與INT8的時(shí)延性能對(duì)比通過對(duì)兩種模型進(jìn)行性能分析可以看出,F(xiàn)P32模型中的重排序操作(ReorderOps)占據(jù)了大量的執(zhí)行時(shí)間,在INT8模型中,重采樣(ResampleOps)只支持FP32的操作,連接操作(ConcatOps)執(zhí)行時(shí)間過長(zhǎng),而本來占比最高的卷積操作(ConvolutionOps)在整個(gè)模型運(yùn)行中占據(jù)的時(shí)間比例反而少。因此,需對(duì)其進(jìn)行進(jìn)一步的優(yōu)化。10.4040.314FP32INT8INT8優(yōu)化1圖2-1-9優(yōu)化后的INT8模型時(shí)延性能對(duì)比此時(shí)再將INT8模型進(jìn)行逐層分析,可以看到相比之前已經(jīng)有了很明顯的提升。但在優(yōu)化之后的模型中,ConcatOps所占據(jù)的執(zhí)行時(shí)間還是較長(zhǎng)。為了進(jìn)一步提升模型的吞吐量,需對(duì)ConcatOps進(jìn)行特定優(yōu)化,并且不再使用英特爾?MKL-上述優(yōu)化主要的目的是,實(shí)現(xiàn)并行化地批量拷貝數(shù)據(jù)到置。通過此類型的優(yōu)化,模型性能有了進(jìn)一步的提升。此模型執(zhí)行時(shí)間基本達(dá)到了理想狀況,最終優(yōu)化結(jié)果如圖2-1-101INT8對(duì)ConcatOps進(jìn)行特定0.4040.3140.147FP32INT8INT8優(yōu)化1INT8優(yōu)化2圖2-1-10進(jìn)一步優(yōu)化后的INT8模型時(shí)延性能對(duì)比從性能分析可以獲知,此時(shí)模型運(yùn)行占比最高的原語(yǔ)成了卷積操作,完全符合本實(shí)例中DenseU-Net模型本應(yīng)有的效果。本圖來源于/latest/_docs_MO_DG_Deep_Learning_Model_Optimizer_DevGuide.html東軟eStroke影像平臺(tái)■背景醫(yī)療影像的快速和準(zhǔn)確判讀對(duì)醫(yī)院醫(yī)療技術(shù)能力讀水平。為應(yīng)對(duì)這一挑戰(zhàn),醫(yī)療行業(yè)需要一種即便在基層醫(yī)院醫(yī)生判斷水平不足的情況下,仍然可以快速準(zhǔn)確地對(duì)相關(guān)■方案與成效eStroke影像平臺(tái)具有以下優(yōu)勢(shì):.支持多模態(tài)影像學(xué)設(shè)備。其中包括電子計(jì)算機(jī)斷層掃描(ComputedTomography,CT)、核磁共振成像(MagneticResonanceImaging,MRI)圖像等16排以上多層螺旋CT.實(shí)現(xiàn)全流程自動(dòng)化。從醫(yī)院設(shè)備掃描序列開始到影像后處理.能夠接入互聯(lián)網(wǎng)醫(yī)療診治技術(shù)應(yīng)用研究平臺(tái)等外部診療系臺(tái)對(duì)灌注成像的各個(gè)參數(shù),包括CBF、CBV、MTT和TMAXMKL-DNN優(yōu)化)以及OpenVINO?工具套件進(jìn)行了優(yōu)化,使基于U-Net模型的深度學(xué)習(xí)推理在保證準(zhǔn)確性的同時(shí),推理時(shí)間得以大幅減少。這對(duì)于爭(zhēng)分奪秒的腦卒一致的情況下,采用兩個(gè)工具優(yōu)化后的方案與未經(jīng)優(yōu)化的對(duì)比,推理延遲分別降低72.6%和85.4%11。120.00%100.00%80.00%60.00%40.00%20.00%0.00%1.0001.00099.50%99.50%優(yōu)化后處理時(shí)延0.2740.1461.2001.0000.8000.6000.4000.2000.000基于英特爾?架構(gòu)的處理器(包括英特爾?MKL-DNN)優(yōu)化基于OpenVINO?工具套件英特爾?發(fā)行版優(yōu)化該數(shù)據(jù)所使用的測(cè)試配置為:處理器:雙路英特爾?至強(qiáng)?金牌6148處理器,2.40GHz;核心/線程:20/40;內(nèi)存:16GBDDR42666MHz*12;硬盤:英特爾?固態(tài)盤SC2BB480G7;BIOS:SE5C620.86B.02.01.0008.031920191559;操作系統(tǒng):CentOSLinux7.6; Linux內(nèi)核:3.10.0-957.21.3.el7.x86_64;gcc版本:7.2(TensorFlow)&4.8.5(OpenVINOPython版本:Python3.6;TensorFlow版本:R1.13.1;OpenVINO?工具套件:2019R1;Keras:2.1.3。特特AI戰(zhàn)冊(cè)實(shí)戰(zhàn)篇20ONNXoutputIEint8outputInput特AI戰(zhàn)冊(cè)實(shí)戰(zhàn)篇■背景與挑戰(zhàn)過去,醫(yī)生往往需要憑借經(jīng)驗(yàn)來對(duì)MRI影像進(jìn)行判讀,不僅費(fèi)時(shí)費(fèi)力,且錯(cuò)誤率較高,在解釋圖像時(shí)也容易受隨著AI技術(shù)的發(fā)展,西門子醫(yī)療正在開展一系列創(chuàng)新醫(yī)療AI應(yīng)用研究,并將成果納入實(shí)際應(yīng)用。但要將這些AI能力真正首先,AI應(yīng)用對(duì)臨床診療帶來延遲。AI應(yīng)用需要與各類檢查儀器生成的數(shù)據(jù)保持同步,并保證AI推理具備高吞吐、低延遲的特性,才能讓基于AI的醫(yī)療系統(tǒng)服務(wù)更多患者。其次,為此,西門子醫(yī)療與英特爾一起,基于通用處理器平臺(tái)來開展針對(duì)MRI影像的判讀和測(cè)量,實(shí)施高效的AI推理工作。雙方不僅利用深度學(xué)習(xí)的方法對(duì)來自MRI的影像進(jìn)行了AI判讀研究,同時(shí)基于第二代英特爾?至強(qiáng)?可擴(kuò)展處理器以及OpenVINO?工具套件等,進(jìn)行了優(yōu)化工作,使推理速度大■方案簡(jiǎn)介及實(shí)施效果在本案例中,西門子醫(yī)療與英特爾一起合作該AI模型基于DenseU-Net,可對(duì)檢測(cè)對(duì)象進(jìn)行語(yǔ)義分割。AI模型的輸入是檢測(cè)對(duì)象的MRI圖像的堆疊,輸出則是檢測(cè)對(duì)象的不同區(qū)域以及結(jié)構(gòu),其中每個(gè)結(jié)構(gòu)都會(huì)被顏色編碼。這樣可以將原先需要人工識(shí)別標(biāo)注的過程智能化,從而加快影像高效、靈活和可擴(kuò)展的平臺(tái),特別是經(jīng)與OpenVINO?件的緊密結(jié)合,有效地加速了針對(duì)視覺應(yīng)用的深度學(xué)習(xí)推理,加速技術(shù)對(duì)INT8良好的支持能力,使其可以將FP32訓(xùn)練模在本案例中,深度神經(jīng)網(wǎng)絡(luò)(例如DenseU-Net)經(jīng)過訓(xùn)練后被用以識(shí)別檢測(cè)對(duì)象區(qū)域,神經(jīng)網(wǎng)絡(luò)的權(quán)值通常采用浮點(diǎn)數(shù)值(FP32)來表示,因此模型通常情況下會(huì)通過FP32精度來進(jìn)行訓(xùn)練和推理。但I(xiàn)NT8同樣可以在損失很小的準(zhǔn)確率(通常<0.5%,本案例中可達(dá)到<0.001%)情況下來提升推理速度12。心臟心臟MRI檢查AI系統(tǒng)四個(gè)腔室的量化圖2-1-13西門子醫(yī)療與英特爾一起構(gòu)建面向MRI該數(shù)據(jù)援引自JournaloftheAmericanCollegeofCardiology,2017.通過英特爾?深度學(xué)習(xí)加速技術(shù)和OpenVINO?工具套件提供的FP32通過英特爾?深度學(xué)習(xí)加速技術(shù)和OpenVINO?工具套件提供的FP32到INT8的轉(zhuǎn)換工具,英特爾幫助西門子醫(yī)療實(shí)現(xiàn)了在保持準(zhǔn)確率的情況下,以更高的速度來進(jìn)行推理運(yùn)力。圖2-1-14顯示了使用INT8模型前后輸出的圖像,可以直■背景CT檢查是現(xiàn)代醫(yī)學(xué)中最常用的檢查手段之一。其通過X射線束對(duì)人體層面進(jìn)行掃描,并得到相關(guān)部位的斷面或立體圖像,從而發(fā)現(xiàn)人體的病變情況。CT檢查雖然有著極為重要的臨床意義,但CT切片圖像的檢查在傳統(tǒng)上往往依賴經(jīng)驗(yàn)豐富的醫(yī)生進(jìn)行人工讀片,不僅效率較低,且受醫(yī)生主觀性的影響也會(huì)學(xué)習(xí)的方法,對(duì)CT切片圖像進(jìn)行分類和標(biāo)記,這更便于醫(yī)生尋找到微小病灶,并將其用于研究或臨床比較。在2018年的AI的結(jié)構(gòu)分類器的論文,其CT成像專家使用Python語(yǔ)言、TensorFlow框架以及Keras庫(kù)構(gòu)建并訓(xùn)練了新的AI模型。通過與英特爾開展的深入技術(shù)合作,雙方正利用英特爾?至強(qiáng)?處理器、英特爾?深度學(xué)習(xí)部署工具(Intel?DeepLearningDeploymentToolkit,英特爾?DLDT)等產(chǎn)品與技術(shù),來優(yōu)化其面向CT推理的解決方案。處理器、英特爾?深度學(xué)習(xí)加速技術(shù)以及OpenVINO?工具套件進(jìn)行優(yōu)化后,面向MRI的AI分析能力得以大幅增強(qiáng)。一方面,MRI影像的處理速度獲得了顯著增強(qiáng),達(dá)到了200FPS(幀每秒為相關(guān)MRI在臨床上的近實(shí)時(shí)應(yīng)用開辟了可能;另一方面,優(yōu)化后的解決方案,在量化和執(zhí)行模型時(shí),在幾乎沒有降低精度的情況下,性能可以提5.5倍13。英特爾處理器、英特爾?深度學(xué)習(xí)加速技術(shù)以及OpenVINO?工具套件進(jìn)行優(yōu)化后,面向MRI的AI分析能力得以大幅增強(qiáng)。一方面,MRI影像的處理速度獲得了顯著增強(qiáng),達(dá)到了200FPS(幀每秒為相關(guān)MRI在臨床上的近實(shí)時(shí)應(yīng)用開辟了可能;另一方面,優(yōu)化后的解決方案,在量化和執(zhí)行模型時(shí),在幾乎沒有降低精度的情況下,性能可以提5.5倍13。該數(shù)據(jù)所使用的測(cè)試配置為:處理器:雙路英特爾?至強(qiáng)?鉑金8280處理器,2.70GHz;核心/線程:28/56;HT:ON;Turbo:ON;內(nèi)存:192GBDDR42933;硬盤:英特爾?固態(tài)盤SC2KG48;BIOS:SE5C620.86B.02.01.0008.031920191559;操作系統(tǒng):CentOSLinux7.6.1810;Linux內(nèi)核:4.19.5-1.el7.elrepo.x86_64;gcc版本:4.8.5;OpenVINO?工具套件:2019R1;工作負(fù)載:DenseU-Net。特特AI戰(zhàn)冊(cè)實(shí)戰(zhàn)篇22特AI戰(zhàn)冊(cè)實(shí)戰(zhàn)篇23深度學(xué)習(xí)訓(xùn)練框架基于英特爾?DLDT技術(shù)的模型優(yōu)化器優(yōu)化后模型訓(xùn)練模型實(shí)時(shí)數(shù)據(jù)于TensorFlow等框架訓(xùn)練得到的模型。深度學(xué)習(xí)訓(xùn)練框架基于英特爾?DLDT技術(shù)的模型優(yōu)化器優(yōu)化后模型訓(xùn)練模型實(shí)時(shí)數(shù)據(jù)GEGE醫(yī)療CT邊緣AI增強(qiáng)應(yīng)用基于邊緣的推理引擎英特爾?MKL-DNN英特爾?至強(qiáng)?處理器圖2-1-15部署有英特爾?DLDT的GE醫(yī)療CT邊緣AI增強(qiáng)應(yīng)用利用英特爾?DLDT對(duì)模型進(jìn)行轉(zhuǎn)換和優(yōu)化后,可將優(yōu)化后的模型導(dǎo)入GE醫(yī)療CT邊緣AI增強(qiáng)應(yīng)用中,該應(yīng)用在英特爾?至強(qiáng)?處理器和英特爾?MKL-DNN的基礎(chǔ)上,構(gòu)建了基于邊為了驗(yàn)證這一優(yōu)化方案的實(shí)際效能,雙方進(jìn)行了一系列的性能測(cè)試,該數(shù)據(jù)集具有8,834個(gè)CT掃描圖像。GE醫(yī)療希望在測(cè)試結(jié)果顯示,在只啟動(dòng)單核心的英特爾?至強(qiáng)?處理器E5-2650v4上,優(yōu)化后的模型可使推理吞吐量提高到優(yōu)化前的14倍。同時(shí),英特爾?至強(qiáng)?處理器的多核心性能,使得GE4個(gè)處理器核心后,推理引擎每秒可處理的圖像數(shù)量提升到了5.964.053.011.48期望值1核心2核心3核心4核心■背景醫(yī)學(xué)影像技術(shù)來進(jìn)行輔助診斷。前文也提到,影醫(yī)生具有豐富的經(jīng)驗(yàn)以及橫跨多學(xué)科的知識(shí)儲(chǔ)備。擁有這能的醫(yī)生,即便在一些大型醫(yī)院也數(shù)量不足,而小型動(dòng)了計(jì)算機(jī)醫(yī)療影像分析解決方案的出現(xiàn),但由于傳統(tǒng)圖像診斷支持系統(tǒng)的準(zhǔn)確率達(dá)不到人工識(shí)別的水平,所以醫(yī)會(huì)用其作為分析診斷前的單一篩查分類和預(yù)判斷。另外缺乏統(tǒng)一的數(shù)據(jù)互聯(lián)互通標(biāo)準(zhǔn),在面對(duì)治療期內(nèi)同一患者由多為幫助醫(yī)療機(jī)構(gòu)獲得更具效能的智能化輔助診療平臺(tái),作為以人工智能賦能分級(jí)診療和精準(zhǔn)醫(yī)療為使命的高新技術(shù)企業(yè),匯醫(yī)慧影與英特爾展開深入合作,通過引入OpenVINO?工具套件以及其他先進(jìn)軟硬件產(chǎn)品,構(gòu)建基于深度學(xué)習(xí)方法的輔助診療解決方案(Dr.TuringAI并已在一些疾病的早期篩■方案與成效作為全新基于深度學(xué)習(xí)方法的智能圖像輔助診斷方法,Dr.TuringAI新方案可以運(yùn)用于病灶早期篩查和診斷的全流程,并以統(tǒng)一良好的數(shù)據(jù)連通性,幫助醫(yī)務(wù)人員提高圖像分析、診?提供基于美國(guó)放射學(xué)會(huì)(ACR)標(biāo)準(zhǔn)的學(xué)習(xí)算法模型,如InceptionV4、InceptionResNetV2等。在卷積網(wǎng)絡(luò)模型為基礎(chǔ)網(wǎng)絡(luò)(Backbone)的Re模型,來實(shí)施模型訓(xùn)練及推理,其中ResNet50卷積網(wǎng)絡(luò)模型該數(shù)據(jù)所使用的測(cè)試配置為:處理器:英特爾?至強(qiáng)?處理器E5-2650v4,2.20GHz;核心/線程:12/24;HT:ON;Turbo:ON;內(nèi)存:264GB;硬盤:480GB;操作系統(tǒng):CentOSLinux7.4.1708;Linux內(nèi)核:3.10.0-693.el7.x86_64;gcc版本:4.8.5;工作負(fù)載:包含了8,834個(gè)CT掃描圖像的數(shù)據(jù)集。件來提升推理性能。一方面,OpenVINO?工具套件中內(nèi)置的一系列優(yōu)化工具和預(yù)訓(xùn)練模型,可供用戶調(diào)用,并對(duì)已訓(xùn)練完方案也能使用OpenVINO?工具套件完成FP32模型到INT8模型的轉(zhuǎn)換,以可控的模型精度損失換取推理速度的大幅提升方案的訓(xùn)練過程采用了精度較高的KerasFP32浮點(diǎn)類型模型,而在之后的推理過程中,則使用OpenVINO?工具套件中的模型優(yōu)化器(ModelOptimizer)將原始模型轉(zhuǎn)換為IR文件,并輸入推理引擎(InferenceEngine)中進(jìn)行推理,再利用其內(nèi)置的量化工具(CalibrationTool將FP32模型量化為INT8類型來提高推理速度。如圖2-1-18所示,采用OpenVINO?工具套件對(duì)FP32模型進(jìn)行推理,速度是原始模型的3.02倍,而采用OpenVINO?8.24X98.24X87653.02X43.02X32110原始KerasFP32引入OpenVINO?優(yōu)化FP32模型引入OpenVINO?優(yōu)化INT8模型圖2-1-18OpenVINO?工具套件帶來的推理效率優(yōu)化■背景在肺部疾病的臨床診斷工作中,CT影像不僅是重要的診斷依將AI引入智能輔助診斷,可以幫助醫(yī)療機(jī)構(gòu)有效應(yīng)對(duì)這一挑戰(zhàn)。為此,衛(wèi)寧健康科技集團(tuán)股份有限公司(以下簡(jiǎn)稱:衛(wèi)寧健康)與英特爾和AMAX一起,基于深度學(xué)習(xí)方法,構(gòu)建了全新的智能輔助診斷系統(tǒng)。系統(tǒng)中的智能輔助診斷模型與放射信息管理系統(tǒng)(RadiologyInformationSystem,RIS)和影像歸檔和通信系統(tǒng)(PictureArchivingandCommunicationSystems,PACS)相互連通,可將相關(guān)影像學(xué)定量的表現(xiàn)插入RIS報(bào)告中,并通過三維智能重建,展現(xiàn)病理組織同周圍為使系統(tǒng)具有更優(yōu)的部署和運(yùn)行效能,衛(wèi)寧健康選擇二代英特爾?至強(qiáng)?可擴(kuò)展處理器,以及內(nèi)置OpenVINO?工具套件的AMAX深度學(xué)習(xí)一體機(jī)做為基礎(chǔ)設(shè)施。新的處理器不僅擁有強(qiáng)大的通用計(jì)算能力,還集成了英特爾?AVX-512、英特爾?DLBoost等創(chuàng)新技術(shù),能夠很好兼顧通用計(jì)算能力和并行計(jì)算能力,為人工智能訓(xùn)練提供了卓越的性能。而OpenVINO?工具套件包含了大量由英特爾調(diào)優(yōu)和封裝的預(yù)訓(xùn)練模型,便于用戶直接調(diào)用。同時(shí),用戶還可使用OpenVINO?模型轉(zhuǎn)換器進(jìn)行數(shù)值類型轉(zhuǎn)化來提升效率(詳場(chǎng)景中的測(cè)試數(shù)據(jù)表明,OpenVINO?工具套件可將推理速度提升10-30倍16。數(shù)據(jù)援引自匯醫(yī)慧影內(nèi)部測(cè)試數(shù)據(jù):/docs/aibuilders/huiying-medical-technology-optimizes-breast-cancer-early-screening-and-diagnosis-with-intel-ai-technologies.pdf,所使用的測(cè)試配置為:處理器:雙路英特爾?至強(qiáng)?鉑金8268處理器,2.90GHz;核心/線程:24/48;OpenVINO?工具套件版本為英特爾發(fā)行版2019R2。相關(guān)測(cè)試配置:雙路英特爾?至強(qiáng)?金牌6240處理器、18核/36線程、啟用超線程技術(shù);總內(nèi)存:384GB(12插槽/32GB/2666MHz存儲(chǔ):英特爾?固態(tài)盤D3-S4510;BIOS:SE5C620.86B.02.01.0010.010620200716(ucode:0x400002CCentOS8,Kernel:5.6.4-1.el8.elrepo.x86_64;深度學(xué)習(xí)框架:PyTorch;編譯器:gcc7.3;MKLDNN版本:v0.20.5;精度:FP32,數(shù)據(jù)集:357x4x3x96x512x512;定制3DU-Net;配置1:LinuxPyTorch(1.3.0)DefaultNumaOFF,1實(shí)例;配置2:LinuxPyTorch(1.3.0)OptimizedNumaON,36實(shí)例;配置3:OpenVINO,版本:2019.3.376。特特AI戰(zhàn)冊(cè)實(shí)戰(zhàn)篇24IR文件模型量化INT8模型特AI戰(zhàn)冊(cè)實(shí)戰(zhàn)篇25再將處理結(jié)果返回到醫(yī)院的應(yīng)用軟件上,幫助醫(yī)生進(jìn)行疾病診斷。如圖2-1-20所示,在這一過程中,結(jié)果的反饋速度可能INT8等低精度定點(diǎn)計(jì)算方式,可以更高效地利用高速緩存,減少帶寬瓶頸,并更大限度地利用處理器計(jì)算資源,提升的推理速度。因此,致遠(yuǎn)慧圖充分運(yùn)用英特特性,借助OpenVINO?工具套件實(shí)施模型優(yōu)化。如圖2-1-21所示,OpenVINO?工具套件會(huì)將訓(xùn)練好的模型(假設(shè)使用PyTorch框架)通過PyTorch提供的工具轉(zhuǎn)換為ONNX模型,再使用模型優(yōu)化器將其轉(zhuǎn)化為OpenVINO?工具套件獨(dú)有的優(yōu)化中間表示文件(IntermediateRepresentation,AnnotationConvert 數(shù)據(jù)集&標(biāo)注Json格式torch.onnxModelOptimizerFPFP32模型ONNX格式Calibrate工具假設(shè)使用ResNet34模型,輸入圖像分辨率為256*256;任務(wù)是OCT上的NORMAL、CNV、DME、DRUSEN四分類任務(wù)。首先使用torch.onnx工具,將模型轉(zhuǎn)化為ONNX格式使用ModelOptimizer工具,生成IR文件命令如下:執(zhí)行結(jié)果如圖2-1-22所示,此時(shí)IR文件是FP32格式,包括了resnet34.xml和resnet34.bin兩個(gè)文件。圖2-1-22使用ModelOptimizer工具生成的IR文件接下來需要將模型進(jìn)一步量化,這需要準(zhǔn)備與任務(wù)相關(guān)的數(shù)據(jù)集以及標(biāo)注,并使用OpenVINO?工具套件提供的AnnotationConvert工具將數(shù)據(jù)集轉(zhuǎn)換為標(biāo)準(zhǔn)格式。因?yàn)楸疚募僭O(shè)的是多分類任務(wù)的模型,因此使用imagenet格式組織數(shù)據(jù),然后使用工具進(jìn)行轉(zhuǎn)化。如圖2-1-23所示,數(shù)據(jù)集的組織格式,從左到右分別是圖像文件夾、圖像標(biāo)注及轉(zhuǎn)化完成后,可以得到一個(gè)json文件:此時(shí),需要借助OpenVINO?工具套件提供的Calibrate工具對(duì)模型進(jìn)一步量化,將模型從FP32量化為INT8,來進(jìn)一步提升模型的推理速度。本文中采用的resnet34.yml中包括使用de?nition.yml定義launchers的框架和設(shè)備,以及各種數(shù)據(jù)集的地址、標(biāo)注和評(píng)價(jià)指標(biāo),這里使用accuracy的top1Calibrate工具量化命令如下:且經(jīng)進(jìn)一步轉(zhuǎn)化為INT8模型后,在基本不影響準(zhǔn)確率的情況下,推理速度能獲得顯著提升,有效地縮短了影像處理的醫(yī)療圖像分割、目標(biāo)檢測(cè)是AI應(yīng)用于醫(yī)療方向的重要分支。良好的圖像分割模型,能有效幫助醫(yī)療機(jī)構(gòu)提高醫(yī)學(xué)影像判讀與基于AI在其他圖像處理領(lǐng)域的應(yīng)用不同,醫(yī)療領(lǐng)域的圖像分割對(duì)時(shí)效性要求更高,留給病患的黃金診療窗口往往只有數(shù)十分鐘。因此,如果圖像分割A(yù)I應(yīng)用的推理效率不夠高,就有可能延誤寶貴的搶救時(shí)間。來自多個(gè)行業(yè)、多個(gè)場(chǎng)至強(qiáng)?可擴(kuò)展處理器,以及英特爾?深度學(xué)習(xí)加速指令集、OpenVINO?工具套件等產(chǎn)品和技術(shù),可以有效提升深度學(xué)習(xí)模型的推理效率。基于不斷創(chuàng)新的產(chǎn)品與技術(shù),英特爾也將一如既往地推動(dòng)醫(yī)療行業(yè)中AI應(yīng)用的創(chuàng)新和落地,使科技更26AI26AI+實(shí)戰(zhàn)篇特AI戰(zhàn)冊(cè)實(shí)戰(zhàn)篇26特AI戰(zhàn)冊(cè)實(shí)戰(zhàn)篇27情。今天,通過各類醫(yī)療設(shè)備和信息系統(tǒng),尤其是醫(yī)學(xué)影像設(shè)目前,在大中型醫(yī)療機(jī)構(gòu)中,X光機(jī)、CT機(jī)、核磁共振等設(shè)不僅具備臨床醫(yī)學(xué)、醫(yī)學(xué)影像學(xué)等方面的專業(yè)知識(shí),還必須熟練掌握放射學(xué)、CT、核磁共振、超聲學(xué)等相關(guān)技能,同時(shí),因此,雖然醫(yī)學(xué)影像設(shè)備在醫(yī)療機(jī)構(gòu)已相當(dāng)普及,片”的尷尬境地。以一些省份為例,很多醫(yī)學(xué)影像設(shè)備已部署到縣、社區(qū)一級(jí)的醫(yī)療機(jī)構(gòu),但病人接受檢查后掃描等方式傳給上一級(jí)醫(yī)療機(jī)構(gòu)。有時(shí)會(huì)因?yàn)橛跋裎牟粌H如此,由于各醫(yī)療機(jī)構(gòu)的信息化系統(tǒng)彼此獨(dú)立,且數(shù)據(jù)標(biāo)準(zhǔn)未完全統(tǒng)一。例如各個(gè)PACS上存儲(chǔ)的醫(yī)學(xué)影像數(shù)據(jù)幾地區(qū)患者在基層醫(yī)療機(jī)構(gòu)得不到有效的病情分析,長(zhǎng)途奔波到大醫(yī)院后,卻還需要接受重復(fù)檢查的怪現(xiàn)象,存在引發(fā)醫(yī)云計(jì)算技術(shù)的快速發(fā)展,讓信息孤島問題逐漸得以解決,如圖2-2-1所示,越來越多的醫(yī)療機(jī)構(gòu)開始將相關(guān)醫(yī)技設(shè)備及醫(yī)療服務(wù)過程都通過云的方式鏈接起來,并在其上構(gòu)建全醫(yī)技協(xié)同平臺(tái)、影像協(xié)同平臺(tái)等能力和應(yīng)用,以平臺(tái)即服務(wù)(PlatformasaService,PaaS)或軟件即服務(wù)(Softwareasaservice,SaaS)的方式滿足各層級(jí)醫(yī)療機(jī)構(gòu)的不同需求。能夠獲得跨終端、跨平臺(tái)的全醫(yī)技功能應(yīng)用。而則能夠讓來自大、中型醫(yī)療機(jī)構(gòu)的醫(yī)學(xué)影像專家隨時(shí)隨地處理從不同地區(qū)傳來的影像數(shù)據(jù),并對(duì)疑難雜癥進(jìn)行協(xié)同會(huì)不僅讓各醫(yī)療機(jī)構(gòu)可以規(guī)避過度檢查、重復(fù)治療等醫(yī)療服務(wù)質(zhì)量。同時(shí),通過影像數(shù)據(jù)的積累和分析,也讓基于AI的醫(yī)學(xué)影像分析應(yīng)用日趨走向成熟。現(xiàn)在,基于云技術(shù)+AI的醫(yī)學(xué)影像分析已逐漸在各個(gè)醫(yī)療機(jī)構(gòu)獲得部署,并獲得絡(luò)等AI模型獲得大量的訓(xùn)練樣本,令基于AI的智能化輔助診現(xiàn)在,在醫(yī)學(xué)影像AI分析應(yīng)用中,部分醫(yī)療機(jī)構(gòu)正利用低劑量CT對(duì)病灶進(jìn)行智能化輔助診斷。實(shí)踐數(shù)據(jù)顯示,其定量的監(jiān)測(cè)敏感度(探測(cè)率)已達(dá)到95%,篩查時(shí)間也由人工所需乳腺影像介入影像介入核醫(yī)學(xué)核醫(yī)學(xué)人工放療放療特特AI戰(zhàn)冊(cè)實(shí)戰(zhàn)篇28特AI戰(zhàn)冊(cè)實(shí)戰(zhàn)篇29的10多分鐘縮短到秒級(jí)17。通過AI模型識(shí)別出病灶后,再交目前,在醫(yī)學(xué)影像AI分析應(yīng)用中,目標(biāo)偵測(cè)神經(jīng)網(wǎng)絡(luò)正被廣泛地運(yùn)用,其通過深度學(xué)習(xí)的方法,能夠?qū)光片、CT成像典型的目標(biāo)偵測(cè)神經(jīng)網(wǎng)絡(luò)有R-CNN、FastR-CNN、SPP-NET、R-FCN18等。R-FCN是近年來在醫(yī)學(xué)影像分析領(lǐng)域常一個(gè)典型的R-FCN結(jié)構(gòu),如圖2-2-2所示,首先,對(duì)需要處理的影像圖片進(jìn)行預(yù)處理操作后,送入一個(gè)預(yù)先訓(xùn)練好的卷積神經(jīng)網(wǎng)絡(luò)(CNN)中,例如ResNet-101網(wǎng)絡(luò)。在該網(wǎng)絡(luò)最后一個(gè)卷積層獲得的特征地圖(featuremap)上,會(huì)引出3個(gè)分支。第1個(gè)分支是將特征地圖導(dǎo)入?yún)^(qū)域生成網(wǎng)絡(luò)(RegionProposalNetwork,RPN并獲得相應(yīng)的興趣區(qū)域(RegionOfInterest,ROI第2個(gè)分支是在該特征地圖上獲得一個(gè)用于分類的多維位置敏感得分映射(position-sensitivescoremap第3個(gè)分支就是在該特征地圖上獲得一個(gè)用于回歸分別執(zhí)行位置敏感的ROI池化操作(Position-SensitiveROIPooling),由此獲得對(duì)應(yīng)的類別和位置信息。RPNRPNRolsconvper-RolRolsvotepoolfeaturemapsconvconv圖2-2-2典型的R-FCN結(jié)構(gòu)與其他目標(biāo)偵測(cè)神經(jīng)網(wǎng)絡(luò)模型,例如FasterR-CNN相比,R-FCN具有檢測(cè)速度更快,檢測(cè)精度也更高等特點(diǎn)19。對(duì)于基于AI的醫(yī)療影像分析方案構(gòu)建,可以參考以下基于英特爾?至強(qiáng)?金牌6240處理器或更高ONON16GBDDR42666MHz*12及以上英特爾?固態(tài)盤D5P4320系列及以上CentOSLinux7.6或最新版本Linux核心3.10.0或最新版本GCC4.8.5或最新版本Cafe版本優(yōu)化AI模型效率包括英特爾?至強(qiáng)?可擴(kuò)展處理器、第二代英特爾?至強(qiáng)?可擴(kuò)展處理器等在內(nèi)的英特爾?架構(gòu)平臺(tái),不僅可為基于AI+Cloud的智能醫(yī)療影像分析系統(tǒng)帶來強(qiáng)大的通用計(jì)算能力,更可為其提供亟需的并行計(jì)算能力。在深度學(xué)習(xí)模型的推理過程中,往往對(duì)并行計(jì)算能力有著較高要求,而英特爾?至強(qiáng)?可擴(kuò)展處理器通過引入英特爾?AVX-512,提供了更高效的單指令多數(shù)據(jù)流(SingleInstructionMultipleData,同時(shí),英特爾?數(shù)學(xué)核心函數(shù)庫(kù)(Intel英特爾?MKL)、英特爾?MKL-DNN升AI模型的工作效率,其主要通過以下三個(gè)方面來提升人工?使用Winograd算法級(jí)優(yōu)化。深度學(xué)習(xí)加速技術(shù),讓深度學(xué)習(xí)推理可以使用INT8來獲得更數(shù)據(jù)援引自盈谷內(nèi)部測(cè)試數(shù)據(jù):/content/www/cn/zh/analytics/arti?cial-intelligence/yinggu-case-study-medical.htmlR-FCN相關(guān)技術(shù)描述,援引自JifengDai,YiLi,KaimingHe,JianSun,R-FCN:ObjectDetectionviaRegion-basedFullyConvolutionalNetworks,/pdf/1605.06409v2.pdfR-FCN性能數(shù)據(jù),請(qǐng)參閱JifengDai,YiLi,KaimingHe,JianSun,R-FCN:ObjectDetectionviaRegion-basedFullyConvolutionalNetworks,/pdf/1605.06409v2.pdf在英特爾?至強(qiáng)?可擴(kuò)展處理器平臺(tái)上,以單幅胸部Dicom數(shù)據(jù)執(zhí)行R-FCN模型為例,來自某應(yīng)用的數(shù)據(jù)表明,英特爾?100%100%100%80%60%40%20%0%優(yōu)化的Ca?e1.1.6優(yōu)化的Ca?e1.1.0圖2-2-3單幅胸部Dicom數(shù)據(jù)執(zhí)行R-FCN模型處理比較面向英特爾?架構(gòu)優(yōu)化的CafeBLVC)版本的Ca?e21相比,面向英特爾?架構(gòu)優(yōu)化的Ca?e22MKL、英特爾?MKL-DNN以及英特爾?AVX-512的支持,在|1.exportoMP_NUM_THREADS=36這里OMP_NUM_THREADS是指定要使用的線程數(shù)。通過對(duì)BLVCCa?e實(shí)施的性能分析,面向英特爾?架構(gòu)優(yōu)化的Ca?e進(jìn)行了以下幾個(gè)方面的優(yōu)化。■代碼矢量化優(yōu)化?將基本線性代數(shù)子程序(BLAS)庫(kù)從自動(dòng)調(diào)優(yōu)線性代數(shù)系統(tǒng)(ATLAS)切換至英特爾?MKL-DNN,從而使通用矩陣乘法(GEMM)等優(yōu)化后,更適用于矢量化、多線程化?使用Xbyakjust-in-time(JIT)匯編程序執(zhí)行編譯過程。作為一種x86/x64JIT匯編程序,Xbyak對(duì)英特爾?架構(gòu)下的指令集,例如MMX?技術(shù)、英特爾?流式單指令多數(shù)據(jù)擴(kuò)展(Intel?StreamingSIMDExtensions,英特爾?SSE)、面向英特爾?架構(gòu)優(yōu)化的Ca?e在代碼實(shí)施過程中提高矢量?對(duì)GNUCompilerCollection(GCC)和OpenMulti-Processing(OpenMP)進(jìn)行代碼矢量化。矢量化率的提高,有利于■常規(guī)代碼優(yōu)化?改進(jìn)im2col_cpu/col2im_cpu執(zhí)行效率,im2col_cpu函庫(kù),以GEMM方式執(zhí)行直接卷積??蓪?duì)im2col_cpu實(shí)施以下優(yōu)化:在BLVCCa?e代碼中 搭載192GB內(nèi)存(12slots/16GB/2666MHzCentOS7.6,BIOS:SE5C620.86B.02.01.0008.031920191559(uncode:0x200005eKurnel版本:3.10.0-957.21.3.el7.x86_64,編譯器GCC4.8.5。測(cè)試組使用英特爾?MKL-DNN0.12版本,對(duì)比組使用英特爾?MKL-DNN0.18版本,該版本源代碼請(qǐng)?jiān)斠?BVLC/ca?e該版本源代碼請(qǐng)?jiān)斠?intel/ca?e特特AI戰(zhàn)冊(cè)實(shí)戰(zhàn)篇30特AI戰(zhàn)冊(cè)實(shí)戰(zhàn)篇31其中的四次算術(shù)運(yùn)算(兩次加法和兩次乘法可替換為單次l1.exportkMP_AFFNTY=granularity=fnecompact1,0通過緊密設(shè)置相鄰線程,可提高GEMM操作性能,因?yàn)樗芯€程都可共享相同的末級(jí)高速緩存(LLC從而可將之前預(yù)■借助OpenMP實(shí)現(xiàn)代碼并行化采用OpenMP多線程并行處理方法,可以有效提升神經(jīng)網(wǎng)絡(luò)的推理效率,例如在池化層中,單一池化層適用于處理單張?zhí)卣鲌D,但如果池化層與OpenMP多線程并行執(zhí)行,由于圖像parallel可以擴(kuò)展到兩個(gè)for-loop嵌套語(yǔ)句,再將批量迭代圖像和圖像通道兩個(gè)循環(huán)合并成一個(gè)循環(huán),并對(duì)該循環(huán)通過一系列的優(yōu)化方法和技巧,面向英特爾?架構(gòu)優(yōu)化的Ca?e在性能上相較BLVCCa?e有了長(zhǎng)足的提升。一項(xiàng)測(cè)試表明,面向英特爾?架構(gòu)優(yōu)化的Ca?e,工作負(fù)載執(zhí)行時(shí)間可縮短至原來的10%,而整體執(zhí)行性能則提升到原來的10倍以上23。*更多面向英特爾?架構(gòu)優(yōu)化的Ca?e的技術(shù)細(xì)節(jié),請(qǐng)參閱本手冊(cè)技術(shù)影像核心技術(shù)近20年的西安盈谷網(wǎng)絡(luò)科技有限公司(以下與最新的云計(jì)算、大數(shù)據(jù)和AI技術(shù)結(jié)合起來,形成高效、智并在其上形成基于AI的數(shù)據(jù)分析能力,進(jìn)而以資源共享為幫助西安盈谷更好地推動(dòng)這一系統(tǒng)的部署落地,英特爾為以及對(duì)于Ca?e、TensorFlow等深度學(xué)習(xí)框架的部署和優(yōu)化。通過雙方的協(xié)作和努力,全新的醫(yī)療智能化輔助診斷系統(tǒng)已經(jīng)在篩查時(shí)間、準(zhǔn)確率等多個(gè)指標(biāo)維度上獲得了用戶的一致相關(guān)測(cè)試數(shù)據(jù),以及更多面向英特爾?架構(gòu)優(yōu)化的Ca?e的優(yōu)化方法,請(qǐng)參閱《Ca?e*OptimizedforIntel?Architecture:ApplyingModernCodeTechniques》:/en-us/articles/ca?e-optimized-for-intel-architecture-applying-modern-code-techniques。建了一系列醫(yī)學(xué)影像分析處理應(yīng)用,并采用英特爾?器執(zhí)行高效率的模型推理;另一方面,西安盈谷也將其CloudIDT智能應(yīng)用與醫(yī)學(xué)影像處理及分析云計(jì)算@iMAGES核心圖2-2-4云端PET-CT融合如圖2-2-4所示,結(jié)合基于英特爾?架構(gòu)的處理器提供的強(qiáng)勁算力,以及@iMAGES核心引擎提供的基于云端的強(qiáng)大正電子發(fā)射計(jì)算機(jī)斷層顯像(PositronEmissionTomographyCT,PET-CT)融合能力,不僅能夠提供基于形態(tài)學(xué)和功(StandardUptakeValue,SUV)分析,而這些影像又可通過CloudIDT智能系統(tǒng)中的R-FCN目標(biāo)偵測(cè)神經(jīng)網(wǎng)絡(luò),進(jìn)作伙伴的共同心愿。基于云計(jì)算、物聯(lián)網(wǎng)、大數(shù)據(jù)以及AI等技術(shù)領(lǐng)域,針對(duì)醫(yī)療信息化、智能化的應(yīng)用目前已經(jīng)得到泛的開展和探索,并在醫(yī)學(xué)影像數(shù)據(jù)實(shí)時(shí)計(jì)算展現(xiàn)、醫(yī)類數(shù)據(jù)人工智能研究等多個(gè)方面都獲得了突破,在各個(gè)醫(yī)療機(jī)架構(gòu)優(yōu)化的Ca?e框架通過代碼矢量化、借助OpenMP并行化等優(yōu)化手段,使模型整體性能相較BLVCCa?e獲得巨大提升,在與西安盈谷CloudIDT智能應(yīng)用、醫(yī)學(xué)影像處理及分析云計(jì)算@iMAGES核心引擎等應(yīng)用結(jié)合后,已在一大批關(guān)鍵場(chǎng)景中建立起“AI+Cloud”的智能輔助診斷系統(tǒng)能力。隨著存等英特爾技術(shù)與產(chǎn)品的涌現(xiàn),相信基于英特爾?架構(gòu)平臺(tái)構(gòu)建的醫(yī)療影像分析解決方案會(huì)輸出更強(qiáng)大的性能表現(xiàn)以及更高超的AI能力。未來,英特爾還計(jì)劃與更多合作伙伴繼續(xù)深入開展合作,將更多、更先進(jìn)的產(chǎn)品與技術(shù)與醫(yī)療信息化進(jìn)程結(jié)合起來,推動(dòng)精準(zhǔn)醫(yī)療、智慧醫(yī)療的前行,讓信息化、數(shù)字化和智能化更有效地提升醫(yī)療服務(wù)水平,為患者帶去更舒心和貼TensorFlow等人工智能框架的優(yōu)化,進(jìn)一步提升了西安盈谷CloudIDT智能系統(tǒng)的執(zhí)行效率。通過對(duì)R-FCN模型的優(yōu)化,模型裁剪融合帶來了近30%的性能提升,而進(jìn)一步優(yōu)化OpenMP多線程實(shí)現(xiàn)方案后,性能再度提升40-50%24。算能力兩方面的算力支撐,也可助力智能系統(tǒng)將原先分同平臺(tái)的任務(wù)處理,例如數(shù)據(jù)統(tǒng)計(jì)與模型推理,合進(jìn)而讓用戶不僅能在其私有云中部署更多的虛擬機(jī),還能降低總擁有成本(TotalCostofOwnership,TCO)。數(shù)據(jù)援引自盈谷內(nèi)部測(cè)試數(shù)據(jù):/content/www/cn/zh/analytics/arti?cial-intelligence/yinggu-case-study-medical.html,硬盤:英特爾?固態(tài)盤SC2KB48;網(wǎng)絡(luò)適配器:英特爾?以太網(wǎng)聚合網(wǎng)絡(luò)適配器XC710;BIOS:SE5C620.86B.02.01.0008.031920191559;特特AI戰(zhàn)冊(cè)實(shí)戰(zhàn)篇實(shí)戰(zhàn)篇3232特AI戰(zhàn)冊(cè)實(shí)戰(zhàn)篇33AIAI病理切片是將部分病變組織或臟器,經(jīng)過一系列處理后形成微病理科醫(yī)生通過顯微鏡對(duì)病理切片進(jìn)行鏡檢,觀察病理變并作出病理診斷和預(yù)后評(píng)估。病理切片檢查是一項(xiàng)非常復(fù)雜和具有挑戰(zhàn)性的工作,而想要成為病理學(xué)方面的專家,更是需要具備多年的讀片經(jīng)驗(yàn)與數(shù)萬張切片的閱片積累以及具有豐富專業(yè)知識(shí)。然而,據(jù)統(tǒng)計(jì),目前全國(guó)病理科醫(yī)生還不足萬人25。一患者的病理切片作出的診斷,也經(jīng)常會(huì)存在差異,這可能導(dǎo)患者的病理切片以40倍的放大倍數(shù)進(jìn)行數(shù)字化后,單個(gè)病理切片的像素點(diǎn)可能超過百萬像素。病理科醫(yī)生需要不僅費(fèi)時(shí)費(fèi)力,還容易出現(xiàn)錯(cuò)漏。且較長(zhǎng)的閱片時(shí)間也會(huì)導(dǎo)致隨著基于AI的圖像處理與分析技術(shù)獲得巨大進(jìn)步,各個(gè)醫(yī)療機(jī)構(gòu)均不遺余力地開展了基于深度學(xué)習(xí)或機(jī)器學(xué)習(xí)的病理切片分析方法,并取得了良好的成效。例如通過ResNet50網(wǎng)絡(luò)進(jìn)行的深度學(xué)習(xí)模型訓(xùn)練,可用于執(zhí)行高危病的病理組織辨識(shí)工作。盡管其得到的病灶預(yù)測(cè)熱學(xué)圖依然存在噪聲等問題,但已經(jīng)可以像病理科醫(yī)生一樣,以不同的放大片圖像。實(shí)驗(yàn)表明,醫(yī)療機(jī)構(gòu)有可能通過訓(xùn)練一個(gè)深度網(wǎng)絡(luò)模型,使其不僅能夠具備專業(yè)的檢測(cè)技術(shù),還能有超快的檢測(cè)速來自紐約大學(xué)的一項(xiàng)最新研究成果表明,利用大量數(shù)字化病理切片圖像訓(xùn)練的Inceptionv3深度學(xué)習(xí)模型,識(shí)別病灶組織和正常組織的準(zhǔn)確率已達(dá)到99%26。長(zhǎng)足的發(fā)展。作為深度學(xué)習(xí)的代表方法之一,CNN的典型代表,例如LeNet、ZFNet、VGGNet和ResNet等,已經(jīng)被廣泛地運(yùn)用于圖像分類、目標(biāo)定位和圖像分析全連接層池化層卷積層池化層卷積層模型■分類卷積神經(jīng)網(wǎng)絡(luò)全連接層池化層卷積層池化層卷積層模型在醫(yī)療圖像的檢測(cè)結(jié)果中,往往會(huì)出現(xiàn)明顯的分類情況,例如陰性為正常,陽(yáng)性為非正常。可以看出,此時(shí)檢測(cè)所期望CNN能夠有效幫助醫(yī)療機(jī)構(gòu)先初步、定性地篩選出有問題的典型的二分類算法,如邏輯回歸,是一種廣義的線性回歸分析模型。以根據(jù)病理切片圖片來預(yù)測(cè)患者是否患病為例,假設(shè)隨著患者年齡的增加,當(dāng)發(fā)現(xiàn)某種細(xì)胞超過x個(gè)即可判定患病,此時(shí),其在數(shù)學(xué)上就表現(xiàn)為一個(gè)閾值為x的線性函數(shù),即y=異常細(xì)胞的大小、狀態(tài)等也可能成為判斷依據(jù)y=n*a+m*c+o*d……+b如前所述,分類問題需要輸出一系列離散的線性函數(shù)上加上一個(gè)激活函數(shù),使其輸出結(jié)果呈離散化。而對(duì)于神經(jīng)網(wǎng)絡(luò)而言,激活函數(shù)的作用是能夠給神經(jīng)網(wǎng)絡(luò)加入一些見的激活函數(shù)有Sigmoid函數(shù)、tanh函數(shù)、ReLU函數(shù)等。另外,邏輯回歸會(huì)采用梯度下降迭代求解的方法,來獲取最小通常,基于二分類算法的CNN圖像分類具有以下幾個(gè)主要模塊,如圖2-3-1所示,包括圖像讀取與預(yù)處理、圖像訓(xùn)練、迭代優(yōu)化和圖像預(yù)測(cè)。其中基于CNN的模型訓(xùn)練,由卷積層、池化層以及全連接層等構(gòu)成,可采用交叉熵?fù)p失函數(shù),以及MBGD梯度下降算法或BGD梯度下降算法。全連全連接層預(yù)處理迭代優(yōu)化迭代優(yōu)化圖2-3-1基于二分類算法的CNN圖像分類組成模塊該數(shù)據(jù)援引自媒體報(bào)道:/article/20141118/content-463705.html數(shù)據(jù)源引自CoudrayN,MoreiraAL,SakellaropoulosT,etal.Classi?cationandMutationPredictionfromNon-SmallCellLungCancerHistopathologyImagesusingDeepLearning[J].bioRxiv,2017.特AI戰(zhàn)冊(cè)實(shí)戰(zhàn)特AI戰(zhàn)冊(cè)實(shí)戰(zhàn)篇34Rol池化層特AI戰(zhàn)冊(cè)實(shí)戰(zhàn)篇35在實(shí)際應(yīng)用中,殘差網(wǎng)絡(luò)(ResidualNet,ResNet)也是常見的分類卷積神經(jīng)網(wǎng)絡(luò)之一,其在2D圖像分類、檢測(cè)及定位上有著非常優(yōu)異的特性。與其他CNN相比,ResNet在如圖2-3-2所示:xWeightLayerF(x)reLUF(x)WeightLayerF(x)+x圖2-3-2ResNet的殘差結(jié)構(gòu)這一結(jié)構(gòu)(殘差結(jié)構(gòu))在一定程度上解決了經(jīng)典CNN網(wǎng)絡(luò)結(jié)構(gòu)在信息傳遞時(shí)可能存在的信息丟失、損耗,乃至梯度消失等采用ResNet后,訓(xùn)練模型的層數(shù)可以大幅增加,也由此提高■目標(biāo)偵測(cè)神經(jīng)網(wǎng)絡(luò)目標(biāo)偵測(cè)神經(jīng)網(wǎng)絡(luò)是指在給定的圖片中精確找到物體所在位FastR-CNN、SPP-NET、R-FCN
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 重慶市2025屆高三高三第一次聯(lián)合診斷檢測(cè)生物試卷(含答案)
- 內(nèi)蒙古呼和浩特市2024-2025學(xué)年高一上學(xué)期期末學(xué)業(yè)質(zhì)量監(jiān)測(cè)考試歷史試卷(含答案)
- 湖北省黃石市大冶市2024-2025學(xué)年九年級(jí)上學(xué)期期末考試歷史試卷(含答案)
- 2025年度室內(nèi)設(shè)計(jì)施工后期維護(hù)保養(yǎng)合同3篇
- 福建省南平市嵐谷中學(xué)2020-2021學(xué)年高二語(yǔ)文月考試題含解析
- 福建省南平市井后中學(xué)2021-2022學(xué)年高三地理月考試卷含解析
- 2025年度二零二五年度竹林生態(tài)保護(hù)與承包開發(fā)合同3篇
- 2025年度出租車客運(yùn)服務(wù)與安全管理合同范本3篇
- 2024起訴離婚后財(cái)產(chǎn)分割與子女撫養(yǎng)糾紛仲裁協(xié)議書3篇
- 2024香菇種植基地農(nóng)業(yè)保險(xiǎn)合作協(xié)議3篇
- 信息化風(fēng)險(xiǎn)評(píng)估報(bào)告
- 談戀愛被騙民事起訴狀范本
- DB11T 945.1-2023建設(shè)工程施工現(xiàn)場(chǎng)安全防護(hù)、場(chǎng)容衛(wèi)生及消防保衛(wèi)標(biāo)準(zhǔn) 第1部分:通則
- 無犯罪證明申請(qǐng)表
- 2021年校長(zhǎng)休業(yè)式講話稿
- GB/T 1621-2023工業(yè)氯化鐵
- 河道工程護(hù)砌(連鎖砌塊)施工方案
- 家裝工地形象及成品保護(hù)驗(yàn)收標(biāo)準(zhǔn)
- 2018年海南公務(wù)員考試申論真題
- GB/T 14296-2008空氣冷卻器與空氣加熱器
- 2023年新澤西駕照筆試題中英對(duì)照139題我中文02
評(píng)論
0/150
提交評(píng)論