人工智能題庫2020_第1頁
人工智能題庫2020_第2頁
人工智能題庫2020_第4頁
人工智能題庫2020_第5頁
已閱讀5頁,還剩24頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認(rèn)領(lǐng)

文檔簡介

人工智能題庫(一)20201_人工智能概述單選題如果分別向參加測試的人和計算機提出一些書面問題,人類無法區(qū)分問題答案來自人還是計算機,那么可以說這臺計算機通過了—測試。A、 黑盒B、 丘奇C、 圖靈D、 智商正確答案:C有人說“人類智能是智能回路的總開關(guān)”,即人類智能決定著任何智能的高度、廣度和深度,下—描述和這個觀點不一致。A、 人類智能是機器智能的設(shè)計者B、 機器智能目前已經(jīng)超越了人類智能C、 機器智能目前無法完全模擬人類所有智能D、 機器智能和人類智能相互協(xié)同所產(chǎn)生的智能能力可超越人類智能或機器智能正確答案:B下面關(guān)于人工智能及深度學(xué)習(xí)的關(guān)系描述中,—是正確的。A、機器學(xué)習(xí)是深度學(xué)習(xí)的一種方法日、人工智能是機器學(xué)習(xí)的一個分支頃人工智能就是深度學(xué)習(xí)D、深度學(xué)習(xí)是一種機器學(xué)習(xí)的方法正確答案:D下面—描述了現(xiàn)有深度學(xué)習(xí)這一種人工智能方法的特點。A、 大數(shù)據(jù),大任務(wù)B、 大數(shù)據(jù),小任務(wù)C、 小數(shù)據(jù),小任務(wù)D、 小數(shù)據(jù),大任務(wù)正確答案:B被譽為“機器學(xué)習(xí)之父“的是—。A、 塞繆爾B、 費根鮑姆C、 西蒙D、 圖靈正確答案:A第一個成功研制的專家系統(tǒng)—。A、 計算機配置專家系統(tǒng)XconB、 血液病診斷專家系統(tǒng)MYCINC、 化合物結(jié)構(gòu)識別專家系統(tǒng)DendralD、 探礦專家系統(tǒng)Prospector正確答案:C強化學(xué)習(xí)技術(shù)屬于—學(xué)派。A、 行為主義B、 符號主義C、 連接主義D、 邏輯主義正確答案:A計算機領(lǐng)域的最高獎項—。A、 菲爾茲獎B、 馮.諾伊曼獎C、 圖靈獎D、 香農(nóng)獎?wù)_答案:C機器智能目前還無法達到人類智能,主要原因—。A、 機器智能占有的數(shù)據(jù)量還不夠大B、 機器智能的支持設(shè)備的計算能力不足C、 機器智能的推理規(guī)則不全面D、 機器智能缺乏直覺和頓悟能力正確答案:D我國《新一代人工智能發(fā)展規(guī)劃》中規(guī)劃,到—年成為世界主要人工智能創(chuàng)新中心。TOC\o"1-5"\h\zA、 2020B、 2025C、 2030D、 2035正確答案:C多選題(共12題,52.7分)—系統(tǒng)屬于人工智能應(yīng)用的實例。A、 計步器B、 機械式密碼鎖頃聊天機器人D、電商網(wǎng)站的商品推薦正確答案:CD下面關(guān)于人工智能概念的表述,合理。A、 根據(jù)對環(huán)境的感知做出合理的行動,并獲得最大收益的計算機程序B、 任何計算機程序都具有人工智能C、 針對特定的任務(wù),人工智能程序一般具有自主學(xué)習(xí)的能力。、人工智能程序要和人類具有相同的思考方式正確答案:AC下面—學(xué)科是人工智能的基礎(chǔ)。A、 經(jīng)濟學(xué)B、 計算機科學(xué)C、 地理學(xué)D、 數(shù)學(xué)正確答案:BD符合強人工智能的描述有—。A、 僅在某個特定的領(lǐng)域超越人類的水平B、 是通用的人工智能C、 可以勝任人類的所有工作D、 在科學(xué)創(chuàng)造力、智慧等方面都遠勝于人類正確答案:BC發(fā)展出圖像識別成功率超越人類的人工智能的主要因素有—。A、 人類專家規(guī)則的完善B、 計算力的提升C、 社會關(guān)注度提升D、 大量數(shù)據(jù)驅(qū)動正確答案:BD

6.ImageNet是個圖片集合,它是.ABCD圖像算法性能檢驗的“標(biāo)準(zhǔn)”數(shù)據(jù)集繪制圖像的參考標(biāo)準(zhǔn)任何圖形進行分類的依據(jù)每個圖片都有類別標(biāo)簽I':':■6.ImageNet是個圖片集合,它是.ABCD圖像算法性能檢驗的“標(biāo)準(zhǔn)”數(shù)據(jù)集繪制圖像的參考標(biāo)準(zhǔn)任何圖形進行分類的依據(jù)每個圖片都有類別標(biāo)簽I':':■::::■正確答案:AD數(shù)據(jù)驅(qū)動的人工智能方法的弱點?—。A、 解釋性差B、 需要大量數(shù)據(jù)集合C、 需要建立知識庫D、 直接從數(shù)據(jù)中學(xué)習(xí)正確答案:AB對人工智能的發(fā)展趨勢劃分,一般可分為—。A、 強人工智能B、 泛人工智能C、 弱人工智能D、 超人工智能正確答案:ACDAlphaGo成為第一個戰(zhàn)勝圍棋世界冠軍的人工智能機器人,它用至I技術(shù)。A、 專家系統(tǒng)B、 深度學(xué)習(xí)C、 知識圖譜D、 強化學(xué)習(xí)正確答案:BD搜索下面的知識圖譜中,可以得到—結(jié)論。A、 風(fēng)云兒是東京的美食品牌B、 風(fēng)云兒是最著名的拉面品牌C、 在一藺吃壽司人均消費低于100元D、 壽司和拉面是本州島的美食正確答案:AD采用深度學(xué)習(xí)根據(jù)圖像訓(xùn)練一個植物分類模型前,一般需—。A、 搜集大量植物圖像樣本B、 搜集少量典型植物圖像樣本C、 對植物樣本進行標(biāo)注D、 每類植物搜集一張圖像正確答案:AC當(dāng)前推動人工智能發(fā)展的主要支持技術(shù)包括—。A、云計算技術(shù)B、 大數(shù)據(jù)技術(shù)C、 深度學(xué)習(xí)算法D、 圖靈測試技術(shù)正確答案:ABC每一次比較都使搜索范圍減少一半的方法^。A、 蒙特卡洛方法B、 A*算法C、 minimax算法D、 二分查找法正確答案:D考慮到對稱性,井字棋最終局面有—種不相同的可能。TOC\o"1-5"\h\zA、 19683B、 91C、 44D、 138正確答案:D在啟發(fā)式搜索中,評價函數(shù)的作用—。A、 判斷搜索算法的時間復(fù)雜度B、 判斷搜索算法的空間復(fù)雜度C、 從當(dāng)前節(jié)點出發(fā)來選擇后續(xù)節(jié)點D、 計算從當(dāng)前節(jié)點到目標(biāo)節(jié)點之間的最小代價值正確答案:D下面對minimax搜索算法描述中,哪句描述是不正確的A、 MIN節(jié)點希望對方收益最小化B、 minimax值計算從根節(jié)點自頂向下進行C、 根據(jù)minimax值確定行棋決策D、 MAX節(jié)點希望自己收益最大化正確答案:D蒙特卡洛搜索樹中,在—階段要兼顧探索和利用。A、 選擇B、 擴展C、 模擬D、 反向傳播正確答案:D根據(jù)課程所講的井字棋估值方法,給以下局面估值為—(X為正,O為負(fù))。A、 1B、 -1C、 0D、 2正確答案:D除了問題本身的定義之外,使用問題特定知識的搜索策略被認(rèn)為是A、 啟發(fā)式算法B、 minimax算法C、 深度優(yōu)先搜索D、 蒙特卡洛樹搜索正確答案:D圖中所示的minimax算法決策樹,圖中估值為7的結(jié)點被稱為。A、 終止結(jié)點B、 MAX結(jié)點C、 MIN結(jié)點D、 根節(jié)點正確答案:D在啟發(fā)式搜索(有信息搜索)中,啟發(fā)函數(shù)的作用^。A、 從當(dāng)前節(jié)點出發(fā)來選擇后續(xù)節(jié)點B、 計算從當(dāng)前節(jié)點到目標(biāo)節(jié)點之間的最小代價值C、 判斷搜索算法的空間復(fù)雜度D、 判斷搜索算法的時間復(fù)雜度正確答案:D在貪婪最佳優(yōu)先搜索中,評價函數(shù)取值和啟發(fā)函數(shù)取值之間的關(guān)系^。A、 相等B、 不相等C、 大于D、 小于正確答案:D將兩個圖片每個像素RGB三個分量的差值的平方和作為適應(yīng)度函數(shù)的計算方法。前后兩次計算得出來的值分別為1512869728和1495705312,那么說明適應(yīng)度函數(shù)]_,適應(yīng)度—。A、 變低了;變低了B、 變高了;變低了C、 變低了;變高了D、 變高了;變高了正確答案:D二.多選題在圍棋對弈的蒙特卡洛搜索樹中,每個節(jié)點記錄A/B值分別對應(yīng)—。A、 該節(jié)點的層數(shù)B、 該局面的子節(jié)點數(shù)C、 該局面被訪問總次數(shù)D、 該局面被訪問的勝利次數(shù)正確答案:CD下列關(guān)于搜索算法的描述,錯誤的—。入、盲目搜索如DFS或BFS由于沒有知識支持,很可能在解空間中找不到最優(yōu)解B、 A*算法如果啟發(fā)函數(shù)滿足可容性和單調(diào)性,一定能在解空間中找到最優(yōu)解C、 蒙特卡洛算法有可能找到最優(yōu)解,但搜索效率比minimax搜索要高D、 貪婪最佳優(yōu)先搜索一定能在解空間中找到最優(yōu)解正確答案:ACD下列部分屬于基因遺傳算法的有—。A、 選擇B、 交叉和變異C、 初始化編碼D、 反向傳播正確答案:ABC基因遺傳算法的兩個常用的結(jié)束條件為—。A、 達到一定的迭代次數(shù)B、 達到一定的交叉次數(shù)C、 達到一定的變異次數(shù)D、 適應(yīng)度函數(shù)結(jié)果達到一定的要求正確答案:AD判斷題在解決函數(shù)優(yōu)化問題時,基因遺傳算法的全局性不好,容易陷入局部最優(yōu)值。正確答案:X每次在同一個搜索樹中進行蒙特卡洛搜索的結(jié)果都是一樣的。正確答案:X仿生算法是一類模擬自然生物進化或者群體社會行為的隨機搜索方法的統(tǒng)稱。正確答案:V2_人工智能單選題如果一個模型_,我們稱它過擬合。A、 在訓(xùn)練集上表現(xiàn)好,在測試集上表現(xiàn)也好B、 在訓(xùn)練集上表現(xiàn)不好,在測試集上表現(xiàn)也不好C、 在訓(xùn)練集上表現(xiàn)好,在測試集上表現(xiàn)不好D、 在訓(xùn)練集上表現(xiàn)不好,在測試集上表現(xiàn)好正確答案:C某線性回歸模型在訓(xùn)練集和測試集上的性能都較差,這說明出現(xiàn)了—問題。A、 過擬合B、 欠擬合C、 數(shù)據(jù)泄露D、 泛化能力強正確答案:B有關(guān)機器學(xué)習(xí),說法錯誤的—。A、 可以利用數(shù)據(jù)來獲取新知識B、 使用樣本數(shù)據(jù)來建立模型,處理同源數(shù)據(jù)的能力得以提升C、 從某類數(shù)據(jù)中學(xué)習(xí)規(guī)律,解決所有數(shù)據(jù)的預(yù)測問題D、 模仿人的學(xué)習(xí)行為來解決問題正確答案:C線性回歸模型的訓(xùn)練目標(biāo)是找到一組參數(shù),彳—最小。A、 樣本損失值B、 樣本特征值C、 決定系數(shù)D、 損失函數(shù)值正確答案:D回歸分析的目的。A、 對歷史數(shù)據(jù)進行統(tǒng)計B、 對歷史數(shù)據(jù)進行歸類C、 對當(dāng)前數(shù)據(jù)進行歸類D、 對未知數(shù)據(jù)做出預(yù)測正確答案:D進行多項式回歸時,以下—說法錯誤。A、 特征構(gòu)建會生成更多得用于建模的特征值B、 越是高次多項式,生成的衍生特征越多C、 一元多項式回歸一般會得到一個曲線模型D、 如果一元線性回歸出現(xiàn)過擬合,可采用多項式回歸避免過擬合正確答案:D對線性回歸模型進行性能評估時,以下—說法正確。A、 均方根誤差接近1最好B、 均方根誤差越大越好C、 決定系數(shù)越接近1越好D、 決定系數(shù)越接近0越好正確答案:C已知各次在電視、微信兩個渠道投放廣告獲得的收益,利用線性回歸方法為投資和收益關(guān)系建模,可得到的目標(biāo)函數(shù)模型為—。Ay二W]勺+w2x2+bEy=中內(nèi)+i>TOC\o"1-5"\h\zV—1-f-j-|jfj + y= +bA、 AB、 BC、 CD、 D正確答案:A有關(guān)線性回歸模型的參數(shù),以下—說法錯誤。A、 參數(shù)的數(shù)量跟特征數(shù)量無關(guān)B、 參數(shù)可以使用梯度下降法求得C、 一元線性回歸模型的參數(shù)大小和正負(fù)說明自變量對因變量的相對影響大小D、 添加正則化可以使參數(shù)變小正確答案:A回歸分析通過對樣本數(shù)據(jù)的學(xué)習(xí),可以得到一—來表示目標(biāo)變量和自變量之間的因果關(guān)系。A、 數(shù)學(xué)模型B、 邏輯推理規(guī)則C、 關(guān)系表D、 決策搜索樹正確答案:A多選題廣義線性回歸要求以下—有一個是一次的就可以。入、自變量日、目標(biāo)變量C、 損失函數(shù)D、 參數(shù)正確答案:AD在機器學(xué)習(xí)建模分析時,通常將數(shù)據(jù)集劃分為—。A、 訓(xùn)練集B、 預(yù)測集C、 測試集D、 回歸集正確答案:AC以下屬于機器學(xué)習(xí)的任務(wù)—。A、 匯總B、 回歸C、 聚類D、 排序正確答案:BC用線性回歸建模時,以下—是正確的操作。A、 剔除異常值B、 被預(yù)測值應(yīng)該在建模的自變量范圍內(nèi)C、 可視化觀察目標(biāo)變量與自變量關(guān)系D、 使用相關(guān)分析把相關(guān)變量合成為一個或只保留一個正確答案:ABCD三.判斷題把訓(xùn)練數(shù)據(jù)交給線性回歸模型LinearRegression(),它會自動根據(jù)數(shù)據(jù)分布決定用直線擬合還是曲線擬合。正確答案:X在數(shù)據(jù)集分割時,一般訓(xùn)練集的樣本數(shù)大于測試集。正確答案:V線性回歸是一種監(jiān)督學(xué)習(xí)算法。正確答案:V線性回歸模型能建模多個特征和目標(biāo)變量的關(guān)系。正確答案:V測試集用來評估模型,因此不需要數(shù)據(jù)標(biāo)簽。正確答案:X訓(xùn)練得到的模型如果出現(xiàn)欠擬合,說明模型太復(fù)雜。正確答案:X6_用邏輯回歸進行分類單選題測試集有800個樣本,其中正類樣本有600個,若使分類模型的準(zhǔn)確率(Accuracy)至少達到85%,則該模型預(yù)測結(jié)果正確的樣本數(shù)目應(yīng)大于等于—個。TOC\o"1-5"\h\zA、 400B、 480C、 510D、 680正確答案:D邏輯回歸模型中的損失函數(shù)一般采用—。A、 對數(shù)似然損失函數(shù)B、 均方損失函數(shù)C、 絕對值損失函數(shù)D、 Logistic函數(shù)正確答案:A下面對回歸和分類的描述不正確的—。A、 兩者均是學(xué)習(xí)輸入變量和輸出變量之間潛在關(guān)系模型B、 在回歸分析時,學(xué)習(xí)得到一個函數(shù)將輸入變量映射到連續(xù)輸出空間C、 回歸是一種無監(jiān)督學(xué)習(xí),分類學(xué)習(xí)是有監(jiān)督學(xué)習(xí)D、 在分類時,學(xué)習(xí)得到一個模型將輸入變量映射到離散輸出空間正確答案:C用戶針對同一問題建立了四個分類模型,分別繪制了ROC曲線如圖,說明—模型最優(yōu)。1-特異度A、 NT-proBNPB、 CTNIC、 DKMBD、 D-Dimer正確答案:A保險公司有客戶購買保險的歷史信息(姓名、性別、生日、收入、孩子數(shù)、房產(chǎn)面積、已購保險品種),若利用這些信息做數(shù)據(jù)分析,下面哪種數(shù)據(jù)分析需要利用機器學(xué)習(xí)的分類算) 。A、 對老客戶的年齡段進行分類(39以下,40-69,70以上)B、 預(yù)測新客戶購買的保險品種C、 對老客戶的性別進行分類(男、女)D、 預(yù)測新客戶的房產(chǎn)面積值正確答案:B在用于分類算法建模的數(shù)據(jù)集合中,—。A、 不需要分類標(biāo)簽列B、 是否需要分類標(biāo)簽,根據(jù)集合特點確定C、 一定有多列是分類標(biāo)簽D、 至少有一列是分類標(biāo)簽正確答案:D評價一個分類模型的性能,召回率計算公式為—。A、將正類預(yù)測為正類的樣本數(shù)/所有真正的正類的樣本數(shù)B、 將正類預(yù)測為正類的樣本數(shù)/所有預(yù)測為正類的樣本數(shù)C、 所有預(yù)測正確的樣本數(shù)/總的樣本數(shù)D、 所有真正的正類樣本數(shù)/總的樣本數(shù)正確答案:A多選題處理數(shù)據(jù)集中的缺失值一般采取以下方法—。A、 刪除相關(guān)記錄B、 替換為Nan即可C、 替換為0D、 用估計的數(shù)據(jù)填充正確答案:AD邏輯回歸模型建立后,對于一個新的未知數(shù)據(jù)進行分類,可以通—實現(xiàn)。A、 計算模型輸出的概率值B、 計算損失函數(shù)值C、 決策邊界計算D、 Sigmoid函數(shù)計算正確答案:AC以下屬于機器學(xué)習(xí)的任務(wù)—。A、 匯總B、 回歸C、 分類D、 排序正確答案:BC以下關(guān)于邏輯回歸的說法,正確的有—。A、 可以實現(xiàn)二元分類B、 是線性的C、 是非線性的D、 是否線性根據(jù)實際情況確定正確答案:AC以下需要使用到分類技術(shù)的應(yīng)用有—。A、 根據(jù)客戶消費額大小將用戶聚為三類B、 樹木生長高度預(yù)測C、 車牌識別D、 垃圾郵件過濾正確答案:CD分類問。A、 是一種預(yù)測,預(yù)測數(shù)據(jù)所屬的類別B、 有二分類問題和多分類問題C、 是無監(jiān)督學(xué)習(xí)問題D、 是有監(jiān)督學(xué)習(xí)問題正確答案:ABD判斷題非平衡的二分類問題,是指正負(fù)樣本的比例差異大。正確答案:V邏輯回歸的損失函數(shù)應(yīng)該反映預(yù)測值與分類標(biāo)簽0和1的距離,因此適合采用交叉嫡損失函數(shù)。正確答案:V邏輯回歸模型用于二分類(0,1)的輸出結(jié)果是樣本屬于類別1的概率值。正確答案:V7_決策樹與隨機森林單選題信息增益的計算方法是―。A、 信息嫡(當(dāng)前集劃分前)-信息嫡(當(dāng)前集劃分后)B、 信息嫡(當(dāng)前集劃分后)-信息嫡(當(dāng)前集劃分前)C、 信息熵(訓(xùn)練集初始嫡)-信息嫡(葉節(jié)點樣本集信息嫡)D、 信息嫡(葉節(jié)點樣本集信息嫡)-信息熵(訓(xùn)練集初始嫡)正確答案:A隨機森林算法中,—。A、 隨機的含義是包含決策樹的個數(shù)是隨機的B、 樹之間沒有關(guān)聯(lián),每棵樹單獨學(xué)習(xí)C、 一棵樹的學(xué)習(xí)結(jié)果作為另一棵樹的輸入D、 隨機森林的預(yù)測結(jié)果取決于分類性能最強的那棵決策樹正確答案:B下面有關(guān)過擬合的認(rèn)識錯誤的—。A、 過擬合是因為訓(xùn)練樣本太多了,把訓(xùn)練樣本的規(guī)律都擬合進去了。B、 降低決策樹的復(fù)雜度可以減少過擬合,例如減少決策樹的深度。C、 判斷模型是否過擬合可以看隨著訓(xùn)練的增加,訓(xùn)練集的分類精度提高,但測試集的精度卻下降了。D、 分類算法都可能會遇到過擬合現(xiàn)象。正確答案:A集成學(xué)習(xí)的主要思想是—。A、 將多個數(shù)據(jù)集合集成在一起進行訓(xùn)練B、 將多源數(shù)據(jù)(如文本、圖像、聲音等)進行融合學(xué)習(xí)C、 通過聚類算法使數(shù)據(jù)集分為多個簇D、 將多個機器學(xué)習(xí)模型組合起來解決問題正確答案:DID3算法使用—作為啟發(fā)式信息來及進行特征選擇。A、 信息嫡B、 信息增益C、 信息增益比D、 Gini指數(shù)正確答案:B從歷史數(shù)據(jù)中建立模型分析某人是否適合某個崗位,以指導(dǎo)招聘人員選撥新員工,這應(yīng)該用—算法解決。A、 分類B、 回歸C、 聚類D、 查詢正確答案:A決策樹算法—。A、 擬合出一個含有參數(shù)的函數(shù)B、 構(gòu)造出一個含有參數(shù)的網(wǎng)絡(luò)C、 生成一個有分枝的決策樹D、 生成一^有向圖正確答案:C有關(guān)決策樹與特征工程的關(guān)系,以下說法錯誤的—。A、 決策樹可以得到對分類重要的屬性,因此可以作為分類特征獲取的一種方法。B、 如果要了解影響簽署合同快慢的主要因素,可以使用決策樹算法。C、 決策樹獲得的特征可以作為其他算法(例如回歸算法的自變量)輸入的依據(jù)。D、 決策樹可以增強數(shù)據(jù)集獲得更多的特征。正確答案:D如果從員工的日常表現(xiàn)數(shù)據(jù)預(yù)測其升職的可能性可以使用下面—機器學(xué)習(xí)方法。A、 關(guān)聯(lián)分析B、 線性回歸C、 聚類D、 分類正確答案:DID3用信息增益來進行特征選擇,信息增—。A、 越小越好B、 越大越好C、 為0最好D、 為1最好正確答案:B在決策樹算法中,如果一個特征對于所有樣本都沒有區(qū)分能力,那么它對決A、 無用途,可以不考慮B、 仍必須保留在決策樹中C、 最好放在距離根節(jié)點近的位置D、 最好放在距離葉節(jié)點近的位置正確答案:A多選題理想的決策樹具有—特點。A、 樹的高度最高B、 葉子節(jié)點數(shù)最多C、 葉子節(jié)點數(shù)最少D、 葉子節(jié)點深度最小正確答案:CD決策樹通過構(gòu)造一棵樹來實現(xiàn)分類任務(wù)。它^。A、 一種有監(jiān)督學(xué)習(xí)方法B、 一種無監(jiān)督學(xué)習(xí)方法C、 樹的葉子節(jié)點對應(yīng)分類結(jié)果D、 樹的中間節(jié)點對應(yīng)數(shù)據(jù)特征正確答案:ACD決策樹中進行決策選擇的節(jié)點包括_。A、 根節(jié)點B、 中間節(jié)點C、 葉子節(jié)點D、 所有節(jié)點正確答案:AB構(gòu)建樹結(jié)構(gòu)為多叉樹的決策樹算法有—。A、 ID3B、 C4.5C、 LogisticD、 CART正確答案:AB以下—算法屬于決策樹算法。A、 ID3B、 C4.5C、 LogisticD、 CART正確答案:ABD判斷題決策樹是一種分類模型,不能用于解決回歸問題。正確答案:X—個集成學(xué)習(xí)分類算法可能包含多個弱分類器。正確答案:V在決策樹中,選用較好分類能力的特征對數(shù)據(jù)集進行劃分,各分支中樣本的純度會比較高。正確答案:V集成學(xué)習(xí)分類算法AdaBoosting通過關(guān)注被已有分類器分類錯誤的樣本,來提升新的分類器性能。正確答案:V8_^Kmeans進行聚類單選題聚類算法屬于—。A、 分類問題B、 回歸分析C、 有監(jiān)督學(xué)習(xí)D、 無監(jiān)督學(xué)習(xí)正確答案:D聚類的目標(biāo)是—。A、 已知數(shù)據(jù)類別和特點,將其他數(shù)據(jù)分類到和它相似度高的類別中B、 已知數(shù)據(jù)類別和特點,將類別進一步細(xì)分C、 未知數(shù)據(jù)類別和特點,把相似度高和相似度低的樣本分別聚集在一起D、 未知數(shù)據(jù)類別和特點,根據(jù)數(shù)據(jù)內(nèi)在性質(zhì)及規(guī)律將其劃分為若干個子集正確答案:DK-means聚類的結(jié)果中。A、 類別的個數(shù)不確定B、 最終的類別之間不能有樣本的交叉C、 最終的類別之間允許有少量樣本的交叉D、 不同類別的元素之間相似度大正確答案:BK-means算法的結(jié)束條件是。A、 K的值達到最大B、 每個簇包含相同個數(shù)的樣本C、 每個簇的中心點不再變化D、 某個簇的樣本相似度最大正確答案:CK-means算法中如果使用余弦相似度計算數(shù)據(jù)樣本的相似性,那么計算結(jié);^。A、 越接近0,相似度越高B、 越接近1,相似度越高C、 越接近-1,相似度越高D、 無法僅根據(jù)值判斷相似度正確答案:B如果用K-means算法根據(jù)廣場上的人員分布進行聚類,應(yīng)該選擇—度量樣本相似性。A、 歐式距離B、 余弦距離C、 漢明距離D、 人員密度正確答案:A以下對K-means聚類結(jié)果的解釋,描述錯誤的—。A、 最終聚類結(jié)果中,簇內(nèi)凝聚度高,簇間分離度高B、 換不同的K值聚類結(jié)果應(yīng)該一樣C、 每個樣本數(shù)據(jù)歸屬于與其距離最近的聚類質(zhì)心所在的簇D、最終聚類結(jié)果中每個簇中所包含的數(shù)據(jù)差異性最小正確答案:BK-means算法中的K個初始中心點,通常的選擇方法—。A、 排序后選最大的K個值B、 排序后選最小的K個值C、 求均值后,選與均值最接近的K個值D、 隨機選擇K個值正確答案:D根據(jù)用戶使用移動運營商的數(shù)據(jù),可以為他們設(shè)計合適的套餐,使—方法比較合適。A、 聚類B、 回歸C、 匯總D、 分類正確答案:A下列說法錯誤的。A、 在聚類分析中,簇之間的相似性越大,簇內(nèi)樣本的差別越大,聚類的效果就越好B、 聚類分析可以看作是一種非監(jiān)督的樣本分組過程C、 k均值算法是一種常用的聚類算法,簇的個數(shù)算法不能自動確定D、 k均值算法的計算耗時與初始假設(shè)聚類中心的位置有關(guān)正確答案:A分析營銷投入與銷售收入的關(guān)系可以使用—數(shù)據(jù)建模方法。A、 匯總B、 聚類C、 回歸D、 分類正確答案:C在使用Kmeans算法進行聚類時,可以利用肘部原理觀察—折線圖來選擇k值。A、 迭代次數(shù)B、 蘭德指數(shù)C、 輪廓系數(shù)D、 歐式距離正確答案:C在聚類時,根據(jù)—衡量樣本是否可以聚為同類。A、 樣本損失B、 樣本數(shù)量C、 樣本維度D、 樣本相似度正確答案:D多選題下面描述屬于K-means聚類算法特點的有—。A、 算法迭代執(zhí)行B、 需要初始化聚類質(zhì)心C、 數(shù)據(jù)需要帶有分類標(biāo)簽D、 需要事先確定聚類數(shù)目正確答案:ABD有關(guān)機器學(xué)習(xí)算法選擇的說法不正確的有―。A、 每種算法都有其使用范圍,因此選擇算法需要考慮具體處理的問題B、 判斷機器學(xué)習(xí)算法好壞在數(shù)據(jù)需求階段就可以確定C、 在分類前可以先做聚類分析D、 對聚類問題可以任選一種聚類算法正確答案:BD對移動客戶進行分組,以便根據(jù)各組的特點,策劃不同的營銷方案,需要客戶數(shù)據(jù)可能包括A、身高日、收入C、 年齡D、 客戶長途市話以及漫游等通話數(shù)據(jù)正確答案:BCD以下算法需要訓(xùn)練數(shù)據(jù)樣本必須有標(biāo)簽。A、 決策樹B、 邏輯回歸C、 Kmeans聚類D、 線性回歸正確答案:ABD對聚類結(jié)果進行評估可以采用輪廓系數(shù),它綜合考慮了—。A、 簇內(nèi)凝聚度B、 簇內(nèi)分離度C、 簇間分離度D、 簇間凝聚度正確答案:AC判斷題對有標(biāo)簽的數(shù)據(jù)集進行聚類結(jié)果的性能評估,可以利用“調(diào)正蘭德系數(shù)ARI”計算真實標(biāo)簽與聚類標(biāo)簽的分布相似性,ARI越接近0越好。正確答案:x聚類和分類的本質(zhì)是一樣的,都是對樣本的類別進行預(yù)測。正確答案:x9_神經(jīng)網(wǎng)絡(luò)原理與實現(xiàn)單選題以下—算法是基于規(guī)則的分類器。A、 神經(jīng)網(wǎng)絡(luò)B、 k-meansC、 邏輯回歸D、 決策樹正確答案:D2'以下關(guān)于人工神經(jīng)網(wǎng)絡(luò)的描述正確的—。A、 神經(jīng)網(wǎng)絡(luò)對訓(xùn)練數(shù)據(jù)中的噪聲不敏感,因此不用考慮數(shù)據(jù)質(zhì)量B、 神經(jīng)網(wǎng)絡(luò)訓(xùn)練后很容易得到分類的規(guī)則C、 訓(xùn)練人工神經(jīng)網(wǎng)絡(luò)是一個很耗時的過程D、 只能用于分類任務(wù)正確答案:C有關(guān)前饋神經(jīng)網(wǎng)絡(luò)的認(rèn)識正確的是_。A、 神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程是擬合訓(xùn)練數(shù)據(jù)模式的過程B、 神經(jīng)網(wǎng)絡(luò)訓(xùn)練后很容易得到分類的規(guī)則C、 一個結(jié)構(gòu)明確的神經(jīng)網(wǎng)絡(luò)的訓(xùn)練結(jié)果是唯一的D、 神經(jīng)網(wǎng)絡(luò)模型的分類能力一定比決策樹好正確答案:A在一個神經(jīng)網(wǎng)絡(luò)中,確定每一個神經(jīng)元的權(quán)重和偏差是模型擬合訓(xùn)練樣本的目標(biāo),比較有效的辦法A、根據(jù)人工經(jīng)驗隨機賦值B、 搜索所有權(quán)重和偏差的組合,直到得到最佳值C、 賦予一個初始值,然后迭代更新權(quán)重,直至損失函數(shù)取得極小D、 下一層神經(jīng)元繼承上一層神經(jīng)元的權(quán)重和偏差正確答案:C梯度下降算法的正確計算步驟是_。計算預(yù)測值和真實值之間的誤差迭代更新,直到找到最佳權(quán)重把輸入傳入網(wǎng)絡(luò),得到輸出值初始化隨機權(quán)重和偏差對每一個產(chǎn)生誤差的神經(jīng)元,改變其權(quán)重值以減小誤差A(yù)、 1)2)3)4)5)B、 5)4)3)2)1)C、 3)2)1)5)4)D、 4)3)1)5)2)正確答案:D以下—問題不適合應(yīng)用神經(jīng)網(wǎng)絡(luò)。牌1 H2 圍3 &|4A、 預(yù)測電信客戶流失的可能性B、 輔助確定是否給銀行的客戶貸款C、 對基金公司的客戶進行分組,了解每組客戶的特點D、 股票走勢的預(yù)測正確答案:C—用來評估神經(jīng)網(wǎng)絡(luò)的計算模型對樣本的預(yù)測值和真實值之間的誤差大小。A、 優(yōu)化函數(shù)B、 梯度下降C、 反向傳播D、 損失函數(shù)正確答案:D下面對感知機網(wǎng)絡(luò)(PerceptronNetworks)描述不正確的是。A、 感知機網(wǎng)絡(luò)沒有隱藏層B、 感知機網(wǎng)絡(luò)具有一層隱藏層C、 感知機網(wǎng)絡(luò)不能擬合復(fù)雜數(shù)據(jù)D、 感知機網(wǎng)絡(luò)是一種特殊的前饋神經(jīng)網(wǎng)絡(luò)正確答案:B在神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)中,每個神經(jīng)元會完成若干功能,下面—不是神經(jīng)元所能夠完成的功能。A、 將加權(quán)累加信息向后續(xù)相鄰神經(jīng)元傳遞B、 通過激活函數(shù)對加權(quán)累加信息進行非線性變換C、 向前序相鄰神經(jīng)元反饋加權(quán)累加信息D、 對前序相鄰神經(jīng)元所傳遞信息進行加權(quán)累加正確答案:C10—對前饋神經(jīng)網(wǎng)絡(luò)的描述是不正確的。A、 層與層之間通過“全連接”進行連接,即兩個相鄰層之間神經(jīng)元完全成對連接B、 各個神經(jīng)元接受前一級神經(jīng)元的輸入,并輸出到下一級C、 同一層內(nèi)神經(jīng)元之間存在全連接D、 同一層內(nèi)的神經(jīng)元相互不連接正確答案:C11下面 圖像是sigmoid激活函數(shù)。TOC\o"1-5"\h\zA、 圖1B、 圖2C、 圖3D、 圖4正確答案:A12神經(jīng)網(wǎng)絡(luò)的一次誤差反向傳播算法可?—。A、 修改一層神經(jīng)元的參數(shù)B、 修改相鄰2層的神經(jīng)元的參數(shù)C、 修改網(wǎng)絡(luò)中所有神經(jīng)元的參數(shù)D、 修改網(wǎng)絡(luò)中所有神經(jīng)元的激活函數(shù)正確答案:C13神經(jīng)網(wǎng)絡(luò)訓(xùn)練時,數(shù)據(jù)的類別標(biāo)簽可以用獨熱編碼,編碼中—。A、 只有1個1,其他為0B、 只有1個0,其他為1C、 只要是二進制就可以D、 一般用8位二進制數(shù)正確答案:A14神經(jīng)網(wǎng)絡(luò)建模步驟一般是—。模型評估網(wǎng)絡(luò)配置模型訓(xùn)練數(shù)據(jù)準(zhǔn)備模型預(yù)測A、 1)2)3)4)5)B、 3)2)1)5)4)C、 5)4)3)2)1)D、 4)2)3)1)5)正確答案:D多選題神經(jīng)網(wǎng)絡(luò)由許多神經(jīng)元組成,下列關(guān)于神經(jīng)元的陳述中—是正確的。A、 —神經(jīng)元可以有多個輸入和—輸出B、 —神經(jīng)元可以有—輸入和多個輸出C、 一個神經(jīng)元可以有多個輸入和多個輸出D、 一^神經(jīng)元只能有一^輸入和一^輸出正確答案:ABC神經(jīng)網(wǎng)絡(luò)的激活函數(shù),通常具有—特性。A、 非線性B、 線性C、 可導(dǎo)D、 不可導(dǎo)正確答案:AC下列—可以使神經(jīng)網(wǎng)絡(luò)模型擬合復(fù)雜函數(shù)的能力增加。A、 隱藏層層數(shù)增加B、 Dropout的比例增加C、 加大學(xué)習(xí)率D、 增加神經(jīng)元的數(shù)量正確答案:AD訓(xùn)練樣本中,正負(fù)樣本數(shù)量的比例較大,這稱為樣本類別不平衡問題,可采—解決。A、 過采樣,即增加正樣本數(shù)量,使正負(fù)樣本接近再學(xué)習(xí)B、 欠采樣,即去除反例樣本數(shù)量,使正負(fù)樣本接近再學(xué)習(xí)C、 設(shè)置閾值。基于原始數(shù)據(jù)集學(xué)習(xí),當(dāng)使用已訓(xùn)練好的分類器進行測試時,將正負(fù)樣本數(shù)量的比例作為閾值嵌入到?jīng)Q策過程中D、 改變評價標(biāo)準(zhǔn),用AUC/ROC來進行評價正確答案:ABCD如果神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)率太大,—。A、 網(wǎng)絡(luò)一定收斂B、 網(wǎng)絡(luò)可能無法收斂C、 網(wǎng)絡(luò)收斂速度慢D、 網(wǎng)絡(luò)收斂速度快正確答案:BD判斷題全連接神經(jīng)網(wǎng)絡(luò)輸入層的神經(jīng)元個數(shù)一般與一個輸入樣本的特征個數(shù)相同。正確答案:V10_神經(jīng)網(wǎng)絡(luò)應(yīng)用案例與調(diào)優(yōu)單選題實現(xiàn)二分類任務(wù)的神經(jīng)網(wǎng)絡(luò)中,輸出層激活函數(shù)一般選擇—。A、 softmaxB、 reluC、 tanhD、 sigmoid正確答案:D如果神經(jīng)網(wǎng)絡(luò)的性能有—表現(xiàn),說明出現(xiàn)過擬合。A、 訓(xùn)練集精度升高、驗證集精度升高B、 訓(xùn)練集精度下降、驗證集精度下降C、 訓(xùn)練集精度升高、驗證集精度下降D、 訓(xùn)練集精度下降、驗證集精度升高正確答案:C實現(xiàn)多分類任務(wù)的神經(jīng)網(wǎng)絡(luò),輸出層的神經(jīng)元個數(shù)一般選擇—。A、 與類別數(shù)一致B、 10以內(nèi)C、 2個D、 類別數(shù)的2倍正確答案:A神經(jīng)網(wǎng)絡(luò)訓(xùn)練時采用k折交叉驗證時,—。A、 隨機選任一份做驗證集,其他份做訓(xùn)練集B、 隨機選任一份做訓(xùn)練集,其他份做驗證集C、 依次選一份做驗證集,其他份做訓(xùn)練集D、 隨機選k份做訓(xùn)練集,其他份做驗證集正確答案:C5實現(xiàn)標(biāo)量回歸預(yù)測任務(wù)的神經(jīng)網(wǎng)絡(luò),評價指標(biāo)一般選電。A、 精確率B、 平均絕對誤差C、 召回率D、 交叉嫡正確答案:B多選題在進行神經(jīng)網(wǎng)絡(luò)訓(xùn)練之前,一般需要把訓(xùn)練集再分割為_。A、 訓(xùn)練集B、 測試集C、 驗證集D、 備用集正確答案:AC神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)預(yù)處理,一般包括—步驟。A、 將數(shù)據(jù)向量化B、 將數(shù)據(jù)值標(biāo)準(zhǔn)化C、 處理缺失值D、 將數(shù)據(jù)值轉(zhuǎn)化為浮點數(shù)或整數(shù)正確答案:ABCD判斷題特征工程的目標(biāo)就是減少數(shù)據(jù)集中特征的個數(shù)。正確答案:X神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練中不應(yīng)該出現(xiàn)過擬合,這網(wǎng)絡(luò)結(jié)構(gòu)不合理。正確答案:X上海積累了歷年的氣候大數(shù)據(jù),并使用這些數(shù)據(jù)訓(xùn)練建立了神經(jīng)網(wǎng)絡(luò)模型進行天氣預(yù)測,那么這個模型也可用于其他地區(qū)的天氣預(yù)測。正確答案:X11_卷積神經(jīng)網(wǎng)絡(luò)計算機視覺基礎(chǔ)單選題以下—情況下,神經(jīng)網(wǎng)絡(luò)模型被稱為深度學(xué)習(xí)模型。入、加入更多層,使神經(jīng)網(wǎng)絡(luò)深度加深日、輸入層可以接收維度更高的數(shù)據(jù)C、 當(dāng)問題是圖形識別或分類問題時D、 激活函數(shù)更復(fù)雜正確答案:A卷積神經(jīng)網(wǎng)絡(luò)輸入的彩色圖像數(shù)據(jù)的張量格式為.。A、 (樣本數(shù),高度,寬度,通道數(shù))B、 (樣本數(shù),高度,寬度)C、 (高度,寬度)D、 (高度*寬度)正確答案:A深度學(xué)習(xí)算法對于圖像進行特征提取采用的方法是。A、 人為設(shè)計好特征,由網(wǎng)絡(luò)實現(xiàn)提取B、 網(wǎng)絡(luò)自動提取C、 不需要提取特征D、 根據(jù)特征集合提取正確答案:B假設(shè)我們需要訓(xùn)練一個卷積神經(jīng)網(wǎng)絡(luò),來完成500種圖像分類,類別采用獨熱編碼。該卷積神經(jīng)網(wǎng)絡(luò)最后一層是分類層,則最后一層輸出向量的維數(shù)大小可能是。TOC\o"1-5"\h\zA、 1B、 100C、 250D、 500正確答案:DCNN網(wǎng)絡(luò)中池化層的作用有—。A、 實現(xiàn)局部特征提取B、 減少過擬合C、 減少隱層節(jié)點數(shù)D、 獲得分類結(jié)果正確答案:C下列—在神經(jīng)網(wǎng)絡(luò)中引入了非線性。A、 隨機梯度下降B、 Relu函數(shù)C、 卷積計算D、 損失函數(shù)正確答案:BCNN中,—是局部連接,所以提取的是局部信息。A、 卷積層B、 池化層C、 全連接層D、 Dropout層正確答案:A數(shù)據(jù)增強可以有效提升模型質(zhì)量,最好在—進行數(shù)據(jù)增強。A、 整個數(shù)據(jù)集B、 訓(xùn)練集C、 驗證集D、 測試集正確答案:B預(yù)訓(xùn)練模型是指―。A、 先訓(xùn)練一個模型作為基準(zhǔn)B、 在正式訓(xùn)練之前,做一次試驗訓(xùn)練C、 已經(jīng)在大數(shù)據(jù)集上訓(xùn)練好的一個模型D、 預(yù)先根據(jù)任務(wù)特點,對模型結(jié)構(gòu)進行調(diào)整正確答案:C10使用預(yù)訓(xùn)練模型進行特征提取,要訓(xùn)練的部分—。A、 全連接分類器B、 高層卷積層C、 底層卷積層D、 整個網(wǎng)絡(luò)正確答案:A預(yù)訓(xùn)練模型的卷積基一舟—。A、 只包含卷積層B、 包含卷積層、池化層和全連接層C、 包含卷積層和池化層D、 包含凍結(jié)的卷積層正確答案:C微調(diào)預(yù)訓(xùn)練模型,一般是指調(diào)—。A、 全連接層B、 高層卷積層C、 底層卷積層D、 任意一^或幾個卷積層正確答案:B要解決的問題只有少量的數(shù)據(jù),但幸運的是有一個之前訓(xùn)練過的針對類似問題的神經(jīng)網(wǎng)絡(luò)模型。最佳方案是 。A、 對于新的數(shù)據(jù)集重新訓(xùn)練模型B、 凍結(jié)除第一層之外的所有層,微調(diào)第一層C、 評估型每一層的功能,然后選擇其中的某些層D、 凍結(jié)除最后一層之外的所有層,重新訓(xùn)練最后一層正確答案:D多選題深度全連接神經(jīng)網(wǎng)絡(luò)在圖像處理中有_弱點。A、 參數(shù)量太大B、 無法利用相鄰像素關(guān)聯(lián)C、 模型結(jié)構(gòu)單一D、 過擬合嚴(yán)重正確答案:AB通過數(shù)據(jù)增強可以減少過擬合的發(fā)生,常用的方法有以下—。A、 從數(shù)據(jù)源采集更多的數(shù)據(jù)B、 復(fù)制原有數(shù)據(jù)并添加隨機噪聲C、 復(fù)制多份一樣的數(shù)據(jù)放在一起D、 根據(jù)現(xiàn)有樣本估計樣本的分布,然后按照此分布再產(chǎn)生一些樣本正確答案:ABDCNN網(wǎng)絡(luò)中可能包含—層。入、輸入層B、 卷積層C、 池化層D、 全連接層正確答案:ABCDCNN網(wǎng)絡(luò)中,卷積核大小一般常采用—。A、 3*3B、 5*5C、 100*100D、 1024*1024正確答案:AB深度學(xué)習(xí)對—的數(shù)據(jù)集沒有明顯優(yōu)勢。A、 數(shù)據(jù)集小B、 數(shù)據(jù)集大C、 沒有局部相關(guān)性D、 有局部相關(guān)性正確答案:AC在訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)的過程中,如果泛化能力太差,則可—。A、 調(diào)整網(wǎng)絡(luò)結(jié)構(gòu)B、 調(diào)整樣本C、 調(diào)整學(xué)習(xí)率D、 調(diào)整優(yōu)化器正確答案:ABDKeras的圖片生成器的主要作用是—。A、隨機動態(tài)生成圖像日、自動批量加載磁盤圖像C、 實現(xiàn)數(shù)據(jù)的轉(zhuǎn)換D、 生成圖像并保存到磁盤正確答案:BC對圖片數(shù)據(jù)進行數(shù)據(jù)增強可以采用—方法。A、 旋轉(zhuǎn)圖像B、 隨機裁剪C、 增加噪聲D、 數(shù)據(jù)集中兩個圖像疊加正確答案:ABC在微調(diào)預(yù)訓(xùn)練模型時,—情況下,凍結(jié)層數(shù)越少。A、 數(shù)據(jù)集越大B、 數(shù)據(jù)集越小C、 數(shù)據(jù)集與原始數(shù)據(jù)集相似性越大D、 數(shù)據(jù)集與原始數(shù)據(jù)集相似性越小正確答案:AD判斷題CNN網(wǎng)絡(luò)的每個卷積層之后都有池化層。正確答案:xCNN中,卷積核的各元素值是神經(jīng)網(wǎng)絡(luò)在訓(xùn)練過程中自己學(xué)習(xí)得到。正確答案:x卷積神經(jīng)網(wǎng)絡(luò)卷積核的深度和下層輸入數(shù)據(jù)通道數(shù)相同。正確答案:xCNN網(wǎng)絡(luò)的一個卷積核只能提取一種模式。正確答案:V卷積神經(jīng)網(wǎng)絡(luò)的參數(shù)量要遠遠小于同樣規(guī)模的全連接神經(jīng)網(wǎng)絡(luò)的參數(shù)量。正確答案:V卷積神經(jīng)網(wǎng)絡(luò)可以對一個輸入完成旋轉(zhuǎn)、錯切等變換。正確答案:x增大卷積核的大小必然會提高卷積神經(jīng)網(wǎng)絡(luò)的性能。正確答案:x12_循環(huán)神經(jīng)網(wǎng)絡(luò)自然語言處理基礎(chǔ)一.單選題聲音是一種時序數(shù)據(jù),是對連續(xù)聲音信號的—進行采樣獲得。A、 頻率B、 振幅C、 周期D、 長度正確答案:B在使用深度學(xué)習(xí)進行文本處理時,一個文本句子要被理解,首先需要做的是_A、 分詞B、 詞性標(biāo)注C、 命名實體識別D、 生成詞嵌入正確答案:A如果要采用神經(jīng)網(wǎng)絡(luò)來對文本進行建模,必須先將文本向量化,這一過程是才指A、 將文本分詞B、 獲得文本類別標(biāo)簽C、 將文本壓縮D、 將文本轉(zhuǎn)換為數(shù)值張量正確答案:D在經(jīng)過學(xué)

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論