人工智能深度學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷16)_第1頁
人工智能深度學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷16)_第2頁
人工智能深度學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷16)_第3頁
人工智能深度學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷16)_第4頁
人工智能深度學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷16)_第5頁
已閱讀5頁,還剩18頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

試卷科目:人工智能深度學(xué)習(xí)技術(shù)練習(xí)人工智能深度學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷16)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages人工智能深度學(xué)習(xí)技術(shù)練習(xí)第1部分:單項選擇題,共47題,每題只有一個正確答案,多選或少選均不得分。[單選題]1.生成隨機整數(shù)命令是()。A)importB)random.random(C)random.randint(D)import答案:C解析:難易程度:易題型:[單選題]2.在下列哪些應(yīng)用中,我們可以使用深度學(xué)習(xí)來解決問題?DA)蛋白質(zhì)結(jié)構(gòu)預(yù)測B)預(yù)測C)來粒子的檢測D)所有這些答案:D解析:[單選題]3.在keras的自帶模型中,XceptionV1模型的默認輸入尺寸是()A)229x229B)299x299C)224x224D)244x244答案:B解析:[單選題]4.在繪圖時?m?表示那種顏色()。A)紅色B)藍色C)青色D)以上都不是答案:D解析:難易程度:易題型:[單選題]5.DataLoader中batch_size的作用是A)批次大小B)是否亂序C)使用多進程讀取數(shù)據(jù),設(shè)置的進程數(shù)。D)是否丟棄最后一個樣本數(shù)量不足batch_size批次數(shù)據(jù)。答案:A解析:[單選題]6.在函數(shù)的上升速度來看,最慢的是A)線性函數(shù)B)指數(shù)函數(shù)C)冪函數(shù)D)對數(shù)函數(shù)答案:D解析:[單選題]7.一個32X32大小的圖像,通過步長為2,尺寸為2X2的池化運算后,尺寸變?yōu)锳)14X14B)2X2C)28X28D)16X16答案:D解析:[單選題]8.Tf.add(a,b)函數(shù)的作用是?A)除法B)加法操作C)減法操作D)乘法操作答案:B解析:[單選題]9.從sigmoid函數(shù)的圖像中可以看到,如果x稍微大點的話,其值接近為1,則在進行反向傳播算法的過程中對其求導(dǎo)的導(dǎo)數(shù)非常的接近0,因此會導(dǎo)致梯度為0的()的現(xiàn)象A)梯度消失B)梯度上升C)梯度下降D)梯度發(fā)散答案:A解析:[單選題]10.深度學(xué)習(xí)模型訓(xùn)練,一個訓(xùn)練過程的完成可以不包含()A)數(shù)據(jù)集加載B)優(yōu)化器設(shè)置C)網(wǎng)絡(luò)搭建D)學(xué)習(xí)率調(diào)整答案:D解析:進行深度學(xué)習(xí)模型訓(xùn)練,一個訓(xùn)練過程的完成包含以下幾點:1.數(shù)據(jù)集加載2.網(wǎng)絡(luò)搭建3.優(yōu)化器設(shè)置4.學(xué)習(xí)率調(diào)整(可選)[單選題]11.實現(xiàn)矩陣與標(biāo)量乘法的命令是()。A)np.doc()B)np.matmul()C)np.dot()D)以上都不是答案:D解析:難易程度:易題型:[單選題]12.LSTM中,哪個門的作用是?決定我們會從細胞狀態(tài)中丟棄什么信息??A)輸入門B)遺忘門C)輸出門D)更新門答案:B解析:[單選題]13.數(shù)據(jù)歸一化處理是指將每個特征的取值縮放到()。A)-1B)-1C)0D)1答案:C解析:難易程度:易題型:[單選題]14.神經(jīng)風(fēng)格遷移是指將()圖像的風(fēng)格應(yīng)用于目標(biāo)圖像,同時保留目標(biāo)圖像的內(nèi)容。A)參考B)卷積C)池化D)腐蝕答案:A解析:[單選題]15.以下不是RNN的特點有:A)當(dāng)前輸入值是上一次輸出值B)使用tanh激活C)使用時間步作為計算數(shù)據(jù)D)每個處理的時間步對應(yīng)的權(quán)重不同答案:D解析:[單選題]16.下列哪個神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)會發(fā)生權(quán)重共享A)卷積神經(jīng)網(wǎng)絡(luò)B)遞歸神經(jīng)網(wǎng)絡(luò)C)全連接神經(jīng)網(wǎng)絡(luò)D)無正確選項答案:A解析:[單選題]17.正太分布的生成語句是()。A)np.random.normal()B)np.standard_normal()C)np.random.standard_normal()D)np.random.standarb_normal()答案:C解析:難易程度:易題型:[單選題]18.在概率空間中,樣本點的概率必須是:A)相等B)可以不等C)可以為0D)可以為1答案:A解析:[單選題]19.torch.nn.Conv2d中控制卷積尺寸的參數(shù)為A)strideB)kerner_sizeC)in_channelsD)out_channels答案:B解析:[單選題]20.以下選項中,Pyhon使用矩陣運算是調(diào)用的第三方庫是()。A)turtleB)matplotlibC)numpyD)time答案:C解析:難易程度:易題型:[單選題]21.Adam算法的tensorflow代碼是:A)tf.example.AdamOptimizerB)tf.train.AdamOptimizerC)tf.nn.AdamOptimizerD)tf.AdamOptimizer答案:B解析:[單選題]22.通常對一個事物下定義,首先要將它放入(),然后再通過層層限定,收縮該事物的外延。A)包含該事物的的集合。B)邊緣事物的集合C)它包含的更小的集合D)直接陳列它的屬性A答案:A解析:[單選題]23.當(dāng)使用predict()方法進行預(yù)測時,返回值是數(shù)值,表示樣本()A)屬于的類別B)類別大小C)屬于每一個類別的概率D)預(yù)測準確率答案:C解析:[單選題]24.根據(jù)實際問題來建立(),然后對它來進行求解A)架構(gòu)B)數(shù)學(xué)模型C)流程圖D)數(shù)據(jù)集答案:B解析:[單選題]25.以下屬于回歸分析的損失函數(shù)的是()A)交叉熵B)均方誤差C)絕對值差D)求和答案:B解析:[單選題]26.下圖中的數(shù)據(jù)是線性可分的么?A)是B)否C)圖片有誤D)可能可以答案:A解析:[單選題]27.灰度圖像與黑白圖像不同,在計算機圖像領(lǐng)域中黑白圖像只有黑白兩種顏色,灰度圖像在黑色與白色之間還有許多級的顏色()。A)亮度B)深度C)廣度D)色度答案:B解析:灰度圖像與黑白圖像不同,在計算機圖像領(lǐng)域中黑白圖像只有黑白兩種顏色,灰度圖像在黑色與白色之間還有許多級的顏色深度。[單選題]28.下列描述有誤的是()。A)基本流程:創(chuàng)建畫布,繪制圖形,保存展示圖形B)必須先保存圖形才能展示圖形C)添加圖例必須在繪制圖形之后D)創(chuàng)建子圖時,默認會根據(jù)畫布的大小平均分配答案:B解析:難易程度:中題型:[單選題]29.下列哪些項目是在圖像識別任務(wù)中使用的數(shù)據(jù)擴增技術(shù)(dataaugmentationtechnique)?1水平翻轉(zhuǎn)(Horizontalflipping)2隨機裁剪(Randomcropping)3隨機放縮(Randomscaling)4顏色抖動(Colorjittering)5隨機平移(Randomtranslation)6隨機剪切(Randomshearing)DA)1,3,5,6B)1,2,4C)2,3,4,5,6D)所有項目答案:D解析:[單選題]30.一個數(shù)據(jù)集中,沒有哪一種類型的數(shù)據(jù)集:A)測試集B)確認集C)驗證集D)訓(xùn)練集答案:B解析:[單選題]31.通過pandas中的()調(diào)用混淆矩陣,來查看哪些結(jié)果最容易混淆,對角線部分,為正確預(yù)測的部分,其它部分則是預(yù)測錯誤的部分。A)crosstabB)crossroadC)crosstroyD)crosslab答案:A解析:[單選題]32.下面哪項操作能實現(xiàn)跟神經(jīng)網(wǎng)絡(luò)中Dropout的類似效果?A)BoostingB)BaggingC)StackingD)Mapping答案:B解析:[單選題]33.優(yōu)化算法計算用到了:A)標(biāo)準差加權(quán)平均B)方差加權(quán)平均C)對數(shù)加權(quán)平均D)指數(shù)加權(quán)平均答案:D解析:[單選題]34.歐幾里得空間標(biāo)準內(nèi)積的另外一種表述是()?A)平方差B)和差化積C)內(nèi)積D)點積答案:D解析:[單選題]35.a=tf.constant([1,2,3,4])b=a.transpose(2,3,1,0)的結(jié)果是A)[1,2,3,4B)[4,3,2,1]C)[3,2,4,1]D)[3,4,2,1]答案:D解析:[單選題]36.A=10?121032?1,B=?210031002,求A?B=()。A)21B)22C)23D)24答案:D解析:難易程度:難題型:[單選題]37.在深度神經(jīng)網(wǎng)絡(luò)中,全連接層的作用是A)濾波B)One-hot處理C)用于特征提取D)用于分類答案:D解析:[單選題]38.keras中模型編譯的函數(shù)是A)optimizerB)addC)compileD)predict答案:C解析:[單選題]39.依據(jù)函數(shù)的曲線分布而命名的()激活函數(shù)中,就是指Sigmoid函數(shù)A)U型B)M型C)X型D)S型答案:D解析:[單選題]40.從上升速度來看所有的函數(shù)的,上升最慢的是A)線性函數(shù)B)指數(shù)函數(shù)C)冪函數(shù)D)對數(shù)函數(shù)答案:D解析:[單選題]41.不是LSTM的作用的是A)解決梯度消失B)解決梯度爆炸C)使用后面的時間步,預(yù)測前面時間步的結(jié)果D)關(guān)聯(lián)很久以前的時間步答案:C解析:[單選題]42.考慮某個具體問題時,你可能只有少量數(shù)據(jù)來解決這個問題。不過幸運的是你有一個類似問題已經(jīng)預(yù)先訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)??梢杂孟旅婺姆N方法來利用這個預(yù)先訓(xùn)練好的網(wǎng)絡(luò)?A)把除了最后一層外所有的層都凍結(jié),重新訓(xùn)練最后一層B)對新數(shù)據(jù)重新訓(xùn)練整個模型C)對每-層模型進行評估,選擇其中的少數(shù)來用D)只對最后幾層進行調(diào)參(finetune)答案:D解析:[單選題]43.深度學(xué)習(xí)的概念源于人工神經(jīng)網(wǎng)絡(luò)的研究,含多個()的多層感知器就是一種深度學(xué)習(xí)結(jié)構(gòu)。A)輸入層B)特征層C)隱藏層D)輸出層答案:C解析:深度學(xué)習(xí)的概念源于人工神經(jīng)網(wǎng)絡(luò)的研究,含多個隱藏層的多層感知器就是一種深度學(xué)習(xí)結(jié)構(gòu)。[單選題]44.sigmoid函數(shù)描述錯誤的是A)輸出結(jié)果是-1~+1B)0.5是分類的閾值C)輸出的結(jié)果為正類別概率D)導(dǎo)數(shù)范圍為0~0.25答案:A解析:[單選題]45.卷積核的大小對于改進卷積神經(jīng)網(wǎng)絡(luò)的效果是必要的嗎?CA)聽說過B)是C)否D)知道答案:C解析:[單選題]46.常用的非監(jiān)督學(xué)習(xí)算法有A)聚類B)K-近鄰算法C)回歸算法D)決策樹答案:A解析:[單選題]47.表示數(shù)組維度的元組命令是()。A)ndarray.ndimB)ndarray.shapeC)ndarray..sizeD)ndarray.dtype答案:B解析:難易程度:易題型:第2部分:多項選擇題,共15題,每題至少兩個正確答案,多選或少選均不得分。[多選題]48.TensorFlow軟件庫可以輕松地將計算工作部署到多種平臺()A)CPUB)GPUC)TPUD)SDK答案:ABC解析:[多選題]49.tensorflow2.0求最小值可以使用A)梯度詞袋B)優(yōu)化器C)梯度下降D)正規(guī)方程解答案:ABCD解析:[多選題]50.inception同一層可以同時使用()尺寸的卷積核A)1*1B)3*3C)5*5D)11*11答案:ABC解析:[多選題]51.dropout描述正確的是A)將部分數(shù)據(jù)永久失活B)訓(xùn)練時數(shù)據(jù)失活,測試時數(shù)據(jù)激活C)每次運算失活的神經(jīng)元不同D)屬于正則化處理方式答案:BCD解析:[多選題]52.零填充描述正確的是A)可以給圖像周邊填充0B)保證卷積后的結(jié)果大小不變C)將卷積數(shù)據(jù)歸零D)卷積池化中都可以使用答案:ABD解析:[多選題]53.深度學(xué)習(xí)中通過動物來形容訓(xùn)練模型有A)熊貓法B)魚子醬法C)貓狗法D)大魚法答案:AB解析:[多選題]54.深度學(xué)習(xí)的興起主要得益于三個方面的原因A)新方法的出現(xiàn),為神經(jīng)網(wǎng)絡(luò)深度的拓展解決了梯度彌散的問題;B)大量已標(biāo)注數(shù)據(jù)的出現(xiàn),為神經(jīng)網(wǎng)絡(luò)的訓(xùn)練做好了數(shù)據(jù)準備;C)GPU(圖形處理器)的使用,為卷積計算提供了高速解決方案D)深度學(xué)習(xí)等于人工智能答案:ABC解析:[多選題]55.pytorch在gpu上跑數(shù)據(jù)時,需要將()移動到gpu上A)模型B)數(shù)據(jù)C)tensorboardD)評估指標(biāo)答案:AB解析:[多選題]56.CNN處理圖像的三大優(yōu)勢是:A)圖像不變性B)局部感知C)參數(shù)共享D)模型替換答案:ABC解析:[多選題]57.如果一個時間步很重要,但是要在很多個時間步后有效,可以使用什么模型進行處理A)RNNB)LSTMC)GRUD)BRNN答案:BC解析:[多選題]58.具有激活功能的函數(shù)有A)reluB)softmaxC)sigmoidD)tanh答案:ABCD解析:[多選題]59.tensorflow2.0中常見的兩種數(shù)據(jù)為A)變量B)常量C)占位符D)全是答案:AB解析:[多選題]60.在深度學(xué)習(xí)中,模型出現(xiàn)過擬合的現(xiàn)象可能是()A)訓(xùn)練集的數(shù)量級和模型的復(fù)雜度不匹配。訓(xùn)練集的數(shù)量級要小于模型的復(fù)雜度;B)訓(xùn)練集和測試集特征分布不一致;C)樣本里的噪音數(shù)據(jù)干擾過大,大到模型過分記住了噪音特征,反而忽略了真實的輸入輸出間的關(guān)系D)權(quán)值學(xué)習(xí)迭代次數(shù)足夠多(Overtraining),擬合了訓(xùn)練數(shù)據(jù)中的噪聲和訓(xùn)練樣例中沒有代表性的特征答案:ABCD解析:[多選題]61.在關(guān)于解決棋類問題的方法中A)深藍屬于符號主義B)阿爾法go是連接主義C)深藍是連接主義D)阿爾法go是行為主義答案:AB解析:[多選題]62.以下說法,關(guān)于tensorflow描述正確的是A)集成了主流的機器學(xué)習(xí)算法B)支持分布式部署C)支持Python語言開發(fā)D)不支持深度學(xué)習(xí)答案:ABC解析:第3部分:判斷題,共22題,請判斷題目是否正確。[判斷題]63.人工智能(ArtificialIntelligence,縮寫為AI)亦稱機器智能,指由人制造出來的機器所表現(xiàn)出來的智能。A)正確B)錯誤答案:對解析:人工智能(ArtificialIntelligence,縮寫為AI)亦稱機器智能,指由人制造出來的機器所表現(xiàn)出來的智能。[判斷題]64.卷積神經(jīng)網(wǎng)絡(luò)的前幾層檢查提取例如邊緣這樣的簡單特征A)正確B)錯誤答案:對解析:[判斷題]65.RMSprop算法是將指數(shù)加權(quán)平均數(shù)先平方再開方A)正確B)錯誤答案:對解析:[判斷題]66.人工智能是研究、開發(fā)用于模擬、延伸、擴展人的智能理論、方法、技術(shù)及應(yīng)用系統(tǒng)的一門新的技術(shù)學(xué)科。人工智能是計算機科學(xué)的一個分支。A)正確B)錯誤答案:對解析:[判斷題]67.對于順序結(jié)構(gòu)的模型,優(yōu)先使用Sequential方法構(gòu)建。A)正確B)錯誤答案:對解析:[判斷題]68.為節(jié)省神經(jīng)網(wǎng)絡(luò)模型的訓(xùn)練時間,神經(jīng)網(wǎng)絡(luò)模型的權(quán)重和偏移參數(shù)一般初始化為0A)正確B)錯誤答案:錯解析:[判斷題]69.RMSprop優(yōu)化器很好的解決了Adagrad優(yōu)化器過早結(jié)束的問題,很合適處理非平穩(wěn)目標(biāo),對于RNN網(wǎng)絡(luò)效果很好。A)正確B)錯誤答案:對解析:[判斷題]70.PyTorch是亞馬遜公司的深度學(xué)習(xí)平臺。A)正確B)錯誤答案:錯解析:[判斷題]71.深度學(xué)習(xí)在不同的領(lǐng)域超參數(shù)的設(shè)定不能通用A)正確B)錯誤答案:錯解析:[判斷題]72.所謂積分運算,就是求和的極限A)正確B)錯誤答案:對解析:[判斷題]73.CBOW(連續(xù)詞袋)模型的特點是輸入已知上下文,輸出對當(dāng)前單詞的預(yù)測A)正確B)錯誤答案:對解析:[判斷題]74.SOFTMAX函數(shù),是用來將全數(shù)域函數(shù)結(jié)果映射到概率空間。A)正確B)錯誤答案:對解析:[判斷題]75.開發(fā)軟件Anaconda不可以在Win10平臺安裝A)正確B)錯誤答案:錯解析:[判斷題]76.梯度消失可以通過更好的激活函數(shù)來解決A)正確B)錯誤答案:對解析:[判斷題]77.卷積不可以處理序列模型A)正確B)錯誤答案:錯解析:[判斷題]78.梯度下降是訓(xùn)練機器學(xué)習(xí)算法中常用的優(yōu)化技術(shù)。A)正確B)錯誤答案:對解析:[判斷題]79.兩個信號序列形狀相似,其相關(guān)系數(shù)也大。A)正確B)錯誤答案:對解析:[判斷題]80.LSTM(Longshort-termmemory),主要由四個Component組成:InputGate,OutputGate,MemoryCell以及ForgetGateA)正確B)錯誤答案:對解析:[判斷題]81.Keras是一個單獨的框架A)正確B)錯誤答案:對解析:第4部分:問答題,共16題,請在空白處填寫正確答案。[問答題]82.計算圖可以通過_______高效計算導(dǎo)數(shù)答案:反向傳播解析:[問答題]83.Sigmoid激活函數(shù)將輸入的數(shù)值映射到______區(qū)間內(nèi)。答案:[0,1];解析:[問答題]84.GAN算法用于圖像_______答案:生成解析:[問答題]85.importtensorflowastfA=tf.Variable(3,name='l')B=tf.Variable(4,name='l2')a.assign_add(1)C=a+bInit=tf.global_variables_initializer()#替換成這樣就好Sess=tf.Session()Sess.run(init)Sess.run(c)該程序輸出結(jié)果為______。答案:8;解析:[問答題]86.編程:給定神經(jīng)網(wǎng)絡(luò)的輸入,神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)以及邊上權(quán)重,就可以通過前向傳播算法來計算出神經(jīng)網(wǎng)絡(luò)的輸出。答案:ImporttensorflowastfX=tf.constant([[0.7,0.9]])W1=tf.Variable(tf.random_normal([2,3],stddev=1,seed=1))W2=tf.Variable(tf.random_normal([3,1],stddev=1,seed=1))A=tf.matmul(x,w1)Y=tf.matmul(a,w2)withtf.Session()assess:init_op=tf.global_variables_initializer()sess.run(init_op)print(sess.run(y))解析:[問答題]87.state=tf.Variable(0,name='counter')New_value=tf.add(state,1)Update=tf.assign(state,new_value)Init=tf.global_variables_initializer()Withtf.Session()assess:sess.run(init)print(sess.run(state))for_inrange(5)sess.run(update)print(sess.run(state))該程序輸出結(jié)果為_______。答案:0,1,2,3,4,5;解析:[問答題]88.訓(xùn)練過程中,若一個模型不收斂,那么是否說明這個模型無效?導(dǎo)致模型不收斂的原因有哪些?答案:并不能說明這個模型無效,導(dǎo)致模型不收斂的原因可能有數(shù)據(jù)分類的標(biāo)注不準確,樣本的信息量太大導(dǎo)致模型不足以fit整個樣本空間。學(xué)習(xí)率設(shè)置的太大容易產(chǎn)生震蕩,太小會導(dǎo)致不收斂??赡軓?fù)雜的分類任務(wù)用了簡單的模型。數(shù)據(jù)沒有進行歸一化的操作。解析:[問答題]89.按照學(xué)習(xí)方式分類,機器學(xué)習(xí)可以分為哪四種?答案:監(jiān)督式學(xué)習(xí),非監(jiān)督學(xué)習(xí),半監(jiān)督學(xué)習(xí),強化學(xué)習(xí)解析:[問答題]90.簡述卷積神經(jīng)網(wǎng)絡(luò)卷積層的結(jié)構(gòu)特點。答案:卷積層主要用來進行特征提取,常用的方式是進行卷積操作,在圖片上采用合適大小的卷積核在每一個通道上進行掃描,卷積得到圖像的鄰域特征。解析:[問答題]91.假設(shè)你創(chuàng)建了一個包含變量w的圖,然后在兩個線程中分別啟動一個會話,兩個線程都使用了圖g,每個會話會有自己對w變量的拷貝,還是會共享變量?答案:在本地TensorFlow中,會話用來管理變量的值,如果你創(chuàng)建了一個包含變量w的圖g,然后啟動兩個線程,并在每個線程中打開一個本地的會話,這兩個線程使用同一個圖g,那么每個會話會擁有自己的w的拷貝。如果在分布式的TensorFlow中,變量的值則存儲在由集群管理的容器中,如果兩個會話連接了同一個集群,并使用同一個容器,那么它們會共享變量w。解析:[問答題]92.編程:用tensorflow實現(xiàn)線性模型。答案:Importtensorflowastf#創(chuàng)建變量W和b節(jié)點,并設(shè)置初始值W=tf.Variable([.1],dtype=tf.float32)B=tf.Variable([-.1],dtype=tf.float32)#創(chuàng)建x節(jié)點,用來輸入實驗中的輸入數(shù)據(jù)X=tf.placeholder(tf.float32)#創(chuàng)建線性模型Linear_model=W*x+b#創(chuàng)建y節(jié)點,用來輸入實驗中得到的輸出數(shù)據(jù),用于損失模型計算Y=tf.placeholder(tf.float32)#創(chuàng)建損失模型Loss=tf.red

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論