人工智能單選考試題與答案_第1頁
人工智能單選考試題與答案_第2頁
人工智能單選考試題與答案_第3頁
人工智能單選考試題與答案_第4頁
人工智能單選考試題與答案_第5頁
已閱讀5頁,還剩16頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

人工智能單選考試題與答案一、單選題(共100題,每題1分,共100分)1、主成分分析是一種數(shù)據(jù)降維和去除相關(guān)性的方法,它通過()將向量投影到低維空間。A、拉布拉斯變換B、z變換C、非線性變換D、線性變換正確答案:D2、關(guān)于模型參數(shù)(權(quán)重值)的描述,錯誤的說法是A、模型參數(shù)量越多越好,沒有固定的對應(yīng)規(guī)則B、訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型存儲于一定結(jié)構(gòu)的神經(jīng)元之間的權(quán)重和神經(jīng)元的偏置中C、每一次Epoch都會對之前的參數(shù)進(jìn)行調(diào)整,迭代次數(shù)越多,損失函數(shù)一般越小D、在訓(xùn)練神經(jīng)網(wǎng)絡(luò)過程中,參數(shù)不斷調(diào)整,其調(diào)整的依據(jù)是基于損失函數(shù)不斷減少正確答案:A3、基于神經(jīng)網(wǎng)絡(luò)的分類模型是?A、判別模型B、兩者都不屬于C、兩者都屬于D、生成模型正確答案:A4、下面對集成學(xué)習(xí)模型中的弱學(xué)習(xí)器描述錯誤的是?A、他們經(jīng)常不會過擬合B、他們通常帶有高偏差,所以其并不能解決復(fù)雜學(xué)習(xí)問題C、他們通常會過擬合正確答案:C5、我們想要減少數(shù)據(jù)集中的特征數(shù),即降維。選擇以下適合的方案①使用前向特征選擇方法②使用后向特征排除方法③我們先把所有特征都使用,去訓(xùn)練一個模型,得到測試集上的表現(xiàn)然后我們?nèi)サ粢粋€特征,再去訓(xùn)練,用交叉驗證看看測試集上的表現(xiàn),如果表現(xiàn)比原來還要好,我們可以去除這個特征④查看相關(guān)性表,去除相關(guān)性最高的一些特征A、①②③④B、②③④C、①②D、①②④正確答案:A6、檢索的()和基于反事實學(xué)習(xí)的檢索和推薦模型已經(jīng)成為信息檢索領(lǐng)域重要的研究方向A、準(zhǔn)確性B、公平性C、真實性D、快速性正確答案:B7、使用一組槽來描述事件的發(fā)生序列,這種知識表示法叫做()A、過程表示法B、語義網(wǎng)絡(luò)法C、劇本表示法D、框架表示法正確答案:C8、一般情況,K-NN最近鄰方法在()的情況下效果較好.A、樣本呈團(tuán)狀分布B、樣本較多但典型性不好C、樣本呈鏈狀分布D、樣本較少但典型性好正確答案:D9、下面哪個技術(shù)跟中文分詞無關(guān)():A、槽位填充B、詞語消歧C、未登錄詞識別D、詞性標(biāo)注正確答案:A10、以下關(guān)于人工智能概念的描述中,錯誤的是A、人工智能使計算機(jī)能實現(xiàn)更高層次應(yīng)用B、人工智能英文翻譯是ArtificialIntelligenceC、人工智能是對人的意識、思維過程進(jìn)行模擬D、人工智能就是機(jī)器學(xué)習(xí)正確答案:D11、人工智能之父是()。A、奧巴B、諾貝爾C、恰佩克D、圖靈正確答案:D12、關(guān)于人工智能的發(fā)展歷史下列說法中不正確的是()。A、其發(fā)展階段經(jīng)歷了三次大的浪潮。B、第二次是70-80年代依托知識積累構(gòu)建模型的專家系統(tǒng)時代。C、人工智能的概念形成于20世紀(jì)40年代。D、第一次是50-60年代注重邏輯推理的機(jī)器翻譯時代。正確答案:C13、批規(guī)范化(BatchNormalization)的好處都有啥?A、它是?種?常有效的反向傳播(BP)?法B、讓每?層的輸?的范圍都?致固定C、它將權(quán)重的歸?化平均值和標(biāo)準(zhǔn)差D、這些均不是正確答案:B14、下列代碼運行結(jié)果是?a=map(lambdax:x**3,[1,2,3])list(a)A、[1,12,27]B、(1,6,9)C、[1,8,27]D、[1,6,9]正確答案:C15、一所大學(xué)內(nèi)的各年紀(jì)人數(shù)分別為:一年級200人,二年級160人,三年級130人,四年級110人。則年級屬性的眾數(shù)是:A、一年級B、三年級C、二年級D、四年級正確答案:A16、據(jù)WardMO(2010)的研究,超過()的人腦功能用于視覺信息的處理,視覺信息的處理是人腦的最主要功能之一A、0.45B、$0.75C、0.5D、0.55正確答案:C17、大數(shù)據(jù)的最顯著特征是()A、數(shù)據(jù)處理速度快B、數(shù)據(jù)類型多樣C、數(shù)據(jù)價值密度高D、數(shù)據(jù)規(guī)模大正確答案:D18、感知機(jī)描述錯誤的是:(___)A、輸出層是M-P神經(jīng)元;B、感知機(jī)能容易實現(xiàn)邏輯與、或、非運算;C、感知機(jī)根據(jù)正確的程度進(jìn)行權(quán)重調(diào)整;D、輸入層接收外界輸入信號傳遞給輸出層;正確答案:C19、關(guān)于正態(tài)分布,下列說法錯誤的是A、標(biāo)準(zhǔn)正態(tài)分布的均值為0,方差為1B、正態(tài)分布的偏度為0,峰度為1C、正態(tài)分布具有集中性和對稱性D、正態(tài)分布的均值和方差能夠決定正態(tài)分布的位置和形態(tài)正確答案:B20、在Python中,下列哪種說法是錯誤的()。A、除字典類型外,所有標(biāo)準(zhǔn)對象均可以用于布爾測試B、空字符串的布爾值是FalseC、空列表對象的布爾值是FalseD、值為0的數(shù)值型數(shù)據(jù)的布爾值是False正確答案:A21、()算法是決策樹學(xué)習(xí)的基本算法,其他多數(shù)決策樹學(xué)習(xí)方法都是它的變體A、KNN算法B、Find-S算法C、概念算法D、ID3算法正確答案:D22、()的神經(jīng)形態(tài)芯片已經(jīng)可以搭建較大規(guī)模的類腦計算系統(tǒng),為類腦計算模型提供快速運行平臺。A、基于腦電波神經(jīng)網(wǎng)絡(luò)B、基于脈沖神經(jīng)網(wǎng)絡(luò)C、基于腦回路神經(jīng)網(wǎng)絡(luò)D、基于類腦神經(jīng)網(wǎng)絡(luò)正確答案:B23、以下()屬于數(shù)據(jù)統(tǒng)計方法中的離中趨勢分析。A、線性相關(guān)B、位置平均數(shù)C、離散系數(shù)D、數(shù)值平均數(shù)正確答案:C24、當(dāng)在卷積神經(jīng)網(wǎng)絡(luò)中加入池化層(poolinglayer)時,變換的不變性會被保留,是嗎?A、是B、看情況C、否D、不知道正確答案:A25、()是人以自然語言同計算機(jī)進(jìn)行交互的綜合性技術(shù),結(jié)合了語言學(xué)、心理學(xué)、工程、計算機(jī)技術(shù)等領(lǐng)域的知識。A、體感交互B、腦機(jī)交互C、情感交互D、語音交互正確答案:D26、ImageNet大賽是計算機(jī)視覺領(lǐng)域非常重要的大賽,從ImageNet大賽中走出來的著名網(wǎng)絡(luò)結(jié)構(gòu)有:①.AlexNet②.VGG③.GoogLeNet④.RestNetA、①③④B、①③④C、①②③④D、①②④正確答案:C27、當(dāng)在內(nèi)存網(wǎng)絡(luò)中獲得某個內(nèi)存空間時,通常選擇讀取矢量形式數(shù)據(jù)而不是標(biāo)量,這里需要的哪種類型的尋址來完成A、基于內(nèi)容的尋址B、基于位置的尋址C、都可以D、都不行正確答案:A28、下面哪一句話是正確的A、機(jī)器學(xué)習(xí)就是深度學(xué)習(xí)B、人工智能就是機(jī)器學(xué)習(xí)C、深度學(xué)習(xí)是一種機(jī)器學(xué)習(xí)的方法D、人工智能就是深度學(xué)習(xí)正確答案:C29、關(guān)于級聯(lián)相關(guān)網(wǎng)絡(luò)描述錯誤的是(___)A、屬于結(jié)構(gòu)自適應(yīng)網(wǎng)絡(luò),網(wǎng)絡(luò)結(jié)構(gòu)也是其優(yōu)化目標(biāo);B、主要成分為級聯(lián)、相關(guān)、歸約;C、無需設(shè)置網(wǎng)絡(luò)層數(shù)、隱層神經(jīng)元數(shù)目;D、訓(xùn)練速度快,但數(shù)據(jù)較小時容易陷入過擬合;正確答案:B30、利用計算機(jī)來模擬人類的某些思維活動,如醫(yī)療診斷、定理證明等,這些應(yīng)用屬于A、模擬仿真B、數(shù)值計算C、人工智能D、自動控制正確答案:C31、a={2:3},a.get(2,4)返回的值是A、3B、4C、NoneD、$2正確答案:A32、用Tensorflow處理圖像識別任務(wù)時,若輸入數(shù)據(jù)的形狀為[64,224,224,3],下面說法正確的是A、每一張圖片都是三通道圖片B、模型一次處理224張圖片(batchsize為224)C、每一張圖片都是二值圖片D、以上選項均不正確正確答案:A33、世界上第一次正式的AI會議于()年召開,JohnMarthy正式提出“ArtifiialIntelligene”這一術(shù)語A、1954B、$1,957C、1955D、1956正確答案:D34、范數(shù)是將向量映射到()的函數(shù)。A、非正值B、正值C、負(fù)值D、非負(fù)值正確答案:D35、CRISP-DM將數(shù)據(jù)挖掘的過程抽象為四個層次:階段、一般任務(wù)、()和過程實例A、具體任務(wù)B、規(guī)劃C、建模D、分析正確答案:A36、個體學(xué)習(xí)器(),則集成越好A、準(zhǔn)確性越低、多樣性越小B、準(zhǔn)確性越低、多樣性越大C、準(zhǔn)確性越高、多樣性越小D、準(zhǔn)確性越高、多樣性越大正確答案:D37、以下關(guān)于Bagging(裝袋法)的說法不正確的是A、進(jìn)行重復(fù)的隨機(jī)采樣所獲得的樣本可以得到?jīng)]有或者含有較少的噪聲數(shù)據(jù)B、Bagging(裝袋法)是一個統(tǒng)計重采樣的技術(shù),它的基礎(chǔ)是BootstrapC、主要通過有放回抽樣)來生成多個版本的預(yù)測分類器,然后把這些分類器進(jìn)行組合D、能提升機(jī)器學(xué)習(xí)算法的穩(wěn)定性和準(zhǔn)確性,但難以避免overfitting正確答案:D38、一下哪個環(huán)境變量表示當(dāng)前路徑()A、ROOTB、HOMEC、PATHD、PWD正確答案:D39、1997年5月12日,轟動全球的人機(jī)大戰(zhàn)中,“更深的藍(lán)”戰(zhàn)勝了國際象棋之子卡斯帕羅夫,這是()。A、機(jī)器智能B、人工思維C、機(jī)器思維D、人工智能正確答案:D40、在循環(huán)語句中,_______語句的作用是提前進(jìn)入下一次循環(huán)。A、breakB、passC、returnD、continue正確答案:D41、代碼arr5=np.arange(0,6).reshape([2,3]);print(arr5[1,:])的輸出結(jié)果是()?A、[345]B、[012]C、[23]D、[01]正確答案:A42、趨勢可以是線性的,也可以是()。A、正態(tài)性的B、曲線性的C、離散性的D、非線性的正確答案:D43、語義網(wǎng)絡(luò)表達(dá)知識時,有向弧AKO鏈、ISA鏈表達(dá)節(jié)點知識的()A、繼承性B、無悖性C、可擴(kuò)充性D、完整性正確答案:A44、某超市研究銷售紀(jì)錄數(shù)據(jù)后發(fā)現(xiàn),買啤酒的人很大概率也會購買尿布,這種屬于數(shù)據(jù)挖掘的哪類問題?()A、關(guān)聯(lián)規(guī)則發(fā)現(xiàn)B、分類C、聚類D、自然語言處理正確答案:A45、循環(huán)隊列的存儲空間為Q(1:50)。經(jīng)過一系列正常的入隊與退隊操作后,front=rear=25。后又成功地將一個元素入隊,此時隊列中的元素個數(shù)為A、26B、1C、$2D、50正確答案:B46、如果在大型數(shù)據(jù)集上訓(xùn)練決策樹。為了花費更少的時間來訓(xùn)練這個模型,下列哪種做法是正確的?A、增加學(xué)習(xí)率B、減小樹的深度C、增加樹的深度D、減少樹的數(shù)量正確答案:B47、什么是KDD?()A、動態(tài)知識發(fā)現(xiàn)B、數(shù)據(jù)挖掘與知識發(fā)現(xiàn)C、文檔知識發(fā)現(xiàn)D、領(lǐng)域知識發(fā)現(xiàn)正確答案:B48、神經(jīng)網(wǎng)絡(luò)研究屬于下列哪個學(xué)派?A、符號主義B、行為主義C、以上都不是D、連接主義正確答案:D49、以下不是點估計中統(tǒng)計量標(biāo)準(zhǔn)的是()A、隨機(jī)性B、一致的C、無偏性D、有效的正確答案:A50、下面哪個是Python中的不變的數(shù)據(jù)結(jié)構(gòu)()。A、setB、listC、dictD、tuple正確答案:D51、1956年之前,人工智能領(lǐng)域的三論不包括().A、數(shù)據(jù)論B、系統(tǒng)論C、信息論D、控制論正確答案:A52、剪枝分為前剪枝和后剪枝,前剪枝本質(zhì)就是早停止,后剪枝通常是通過衡量剪枝后()變化來決定是否剪枝。A、準(zhǔn)確率B、損失函數(shù)C、信息增益D、召回率正確答案:B53、設(shè)矩陣A的秩為r,則A中()。A、所有的r階子式都不為0B、至少有一個r階子式不為0C、所有的r-1階子式都不為0D、所有的r-1階子式都為0正確答案:B54、下列哪個神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)會發(fā)生權(quán)重共享?()A、卷積神經(jīng)網(wǎng)絡(luò)B、全連接神經(jīng)網(wǎng)絡(luò)C、選項A和BD、循環(huán)神經(jīng)網(wǎng)絡(luò)正確答案:C55、隱馬爾可夫模型(HMM)是結(jié)構(gòu)最簡單的動態(tài)貝葉斯網(wǎng)絡(luò),是一種著名的()模型。A、有向圖B、無向圖C、雙向圖D、單向圖正確答案:A56、以下哪個不是圖像識別服務(wù)的應(yīng)用?A、語音合成B、目標(biāo)檢測C、智能相冊D、場景分析正確答案:A57、TCP/IP中,哪個協(xié)議是用來進(jìn)行IP自動分配的?A、NFSB、ARPC、DNSD、DHCP正確答案:D58、在一個神經(jīng)網(wǎng)絡(luò)中,知道每一個神經(jīng)元的權(quán)重和偏差是最重要的一步。如果知道了神經(jīng)元準(zhǔn)確的權(quán)重和偏差,便可以近似任何函數(shù),但怎么獲知每個神經(jīng)的權(quán)重和偏移呢?A、以上都不正確的B、賦予一個初始值,然后檢查跟最佳值的差值,不斷迭代調(diào)整權(quán)重C、隨機(jī)賦值,聽天由命D、搜索每個可能的權(quán)重和偏差組合,直到得到最佳值正確答案:B59、圖像分類任務(wù)是一個計算量較大的任務(wù),下面描述正確的是:①.不要使用深度學(xué)習(xí)技術(shù)②.盡量使用GPU加速運算③.盡量使用前人探索的有成功經(jīng)驗的經(jīng)典的網(wǎng)絡(luò)結(jié)構(gòu)④.盡量自己重新設(shè)計編寫網(wǎng)絡(luò),不要照搬別人的網(wǎng)絡(luò)A、①②B、②③C、①③D、①②③正確答案:B60、一般而言,隨著劃分過程不斷進(jìn)行,我們希望決策樹的分支結(jié)點所包含的樣本盡可能屬于同一類別,即結(jié)點的()越來越高。A、準(zhǔn)確度B、可信度C、精度D、純度正確答案:D61、符號集a、b、c、d,它們相互獨立,相應(yīng)概率為1/2、1/4、1/8、1/16,其中包含信息量最小的符號是()A、dB、aC、cD、b正確答案:B62、批量梯度下降,小批量梯度下降,隨機(jī)梯度下降最重要的區(qū)別在哪里?A、學(xué)習(xí)率B、梯度大小C、梯度方向D、使用樣本數(shù)正確答案:D63、當(dāng)需要在字符串中使用特殊字符時,python使用()作為轉(zhuǎn)義字符。A、%B、#C、/D、\正確答案:D64、對于一個分類任務(wù),如果開始時神經(jīng)網(wǎng)絡(luò)的權(quán)重不是隨機(jī)賦值的,而是都設(shè)成0,下面哪個敘述是正確的?A、其他選項都不對B、神經(jīng)網(wǎng)絡(luò)不會開始訓(xùn)練,因為沒有梯度改變C、神經(jīng)網(wǎng)絡(luò)可以訓(xùn)練,但是所有的神經(jīng)元最后都會變成識別同樣的東西D、沒啥問題,神經(jīng)網(wǎng)絡(luò)會正常開始訓(xùn)練正確答案:C65、()是數(shù)據(jù)庫管理系統(tǒng)運行的基本工作單位。A、數(shù)據(jù)單元B、D數(shù)據(jù)分析C、數(shù)據(jù)倉庫D、事務(wù)正確答案:D66、DBSCAN在最壞情況下的時間復(fù)雜度是()。A、O(m2)B、O(m)C、O(m*logm)D、O(logm)正確答案:A67、以下關(guān)于GPU的敘述中,錯誤的是()。A、GPU是CPU的替代產(chǎn)品B、GPU擅長進(jìn)行大規(guī)模并發(fā)計算C、GPU采用單指令流多數(shù)據(jù)流計算架構(gòu)D、GPU目前大量用在比特幣的計算方面正確答案:A68、下述字符串格式化語法正確的是?A、GNU\'sNot%d%%'%'UNIX'B、GNU'sNot%s%%'%'UNIX'C、GNU'sNot%d%%'%'UNIX'D、GNU\'sNot%s%%'%'UNIX'正確答案:D69、OCR是指對文本書面資料(印刷字體、手寫字體)的圖像文件進(jìn)行分析識別處理,獲取文字及版面信息的過程,其中文全程是()。A、文字識別B、字符識別C、光學(xué)字符識別D、書面識別正確答案:C70、規(guī)則生成本質(zhì)上是一個貪心搜索的過程,須有一定的機(jī)制來緩解過擬合的風(fēng)險,最常見的做法是(___)A、重組B、去重C、序列化D、剪枝正確答案:D71、規(guī)則學(xué)習(xí)中ILP的全稱是(___)A、歸納邏輯程序設(shè)計B、信息泄露防護(hù)C、引入層次程序設(shè)計D、內(nèi)部邏輯程序設(shè)計正確答案:A72、下列哪個模型屬于無監(jiān)督學(xué)習(xí)A、決策樹B、KNN分類C、邏輯回歸D、DBSCAN正確答案:D73、下列關(guān)于K-Means聚類說法錯誤的是()A、可以使用多組隨機(jī)的初始中心點進(jìn)行計算B、聚類前應(yīng)當(dāng)進(jìn)行維度分析C、聚類前應(yīng)當(dāng)進(jìn)行數(shù)據(jù)標(biāo)準(zhǔn)化D、聚類的簇個數(shù)會由模型自動給出正確答案:D74、()是TensorFlow的核心數(shù)據(jù)單位。A、向量B、張量C、矩陣D、數(shù)組正確答案:B75、DSSM模型的結(jié)構(gòu)是什么?A、雙塔B、三塔C、非線性D、線性正確答案:A76、下列選項中,哪個不是關(guān)鍵詞提取常用的算法()A、SSAB、LDAC、TF-IDFD、TextRank正確答案:A77、以()為中心是數(shù)據(jù)產(chǎn)品區(qū)別于其他類型產(chǎn)品的本質(zhì)特征A、數(shù)據(jù)B、客戶C、資源D、分析正確答案:A78、下面不屬于人工智能研究基本內(nèi)容的是()。A、機(jī)器學(xué)習(xí)B、機(jī)器思維C、自動化D、機(jī)器感知正確答案:C79、以下選項不是聚類算法的是()A、離散聚類B、K平均值聚類C、兩步聚類D、分層聚類正確答案:A80、設(shè)λ0是矩陣A的特征方程的3重根,A的屬于λ0的線性無關(guān)的特征向量的個數(shù)為k,則必有()A、kB、k=3C、k≤3D、k>3正確答案:C81、數(shù)據(jù)庫管理系統(tǒng)實現(xiàn)對數(shù)據(jù)庫中數(shù)據(jù)的查詢、插入、修改和刪除等操作,這種功能稱之為()A、數(shù)據(jù)管理B、數(shù)據(jù)控制C、數(shù)據(jù)定義D、數(shù)目操縱正確答案:D82、數(shù)據(jù)產(chǎn)品“以數(shù)據(jù)為中心”的特征不僅體現(xiàn)在“以數(shù)據(jù)為核心生產(chǎn)要素”,而且還表現(xiàn)在以下三個方面A、數(shù)據(jù)驅(qū)動數(shù)據(jù)審計數(shù)據(jù)分析B、數(shù)據(jù)加工數(shù)據(jù)密集型數(shù)據(jù)范式C、數(shù)據(jù)加工數(shù)據(jù)審計數(shù)據(jù)分析D、數(shù)據(jù)驅(qū)動數(shù)據(jù)密集型數(shù)據(jù)范式正確答案:D83、()是用來評估神經(jīng)網(wǎng)絡(luò)的計算模型對樣本的預(yù)測值和真實值之間的誤差大小。A、優(yōu)化函數(shù)B、梯度下降C、反向傳播D、損失函數(shù)正確答案:D84、()的目的是構(gòu)造出新特征。A、離散化B、平滑處理C、聚集D、特征構(gòu)造正確答案:D85、獨熱編碼的英文是:A、onecoldB、twohotC、twocoldD、onehot正確答案:D86、下列關(guān)于Python函數(shù)調(diào)用說法錯誤的是()。A、函數(shù)的遞歸調(diào)用由于棧的大小是無限的,所以,遞歸調(diào)用的次數(shù)過多,也不會導(dǎo)致棧溢出B、函數(shù)的遞歸調(diào)用必須有一個明確的結(jié)束條件C、函數(shù)的遞歸調(diào)用效率不高,遞歸層次過多會導(dǎo)致棧溢出(在計算機(jī)中,函數(shù)調(diào)用是通過棧(stack)這種數(shù)據(jù)結(jié)構(gòu)實現(xiàn)的,每當(dāng)進(jìn)入一個函數(shù)調(diào)用,棧就會加一層棧幀,每當(dāng)函數(shù)返回,棧就會減一層棧)D、函數(shù)的遞歸調(diào)用每次進(jìn)入更深一層遞歸時,問題規(guī)模相比上次遞歸都應(yīng)有所減少正確答案:A87、在pytorch中,如果主機(jī)有1塊TitanX顯卡,以下哪個選項中的代碼都可以將變量名為var的tensor放在GPU上運行A、var=var.to("cuda:0")、var=var.to("cuda:1")B、var=var.cuda()、var=var.to("cuda:1")C、var=var.cuda()、var=var.to("cuda:0")D、var=var.to("cuda:1")正確答案:C88、一般來講,下列語言屬于人工智能語言的是。A、PrologB、VBC、PascalD、Logo正確答案:A89、卷積神經(jīng)網(wǎng)絡(luò)經(jīng)常使用的激活函數(shù)有好幾種:()、tanh函數(shù)、ReLu函數(shù)、LeakyReLu函數(shù)、PReLu函數(shù)等。A、sum函數(shù)B、max函數(shù)C、sigmoid函數(shù)D、main

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論