機(jī)器學(xué)習(xí)理論與方法智慧樹知到期末考試答案2024年_第1頁
機(jī)器學(xué)習(xí)理論與方法智慧樹知到期末考試答案2024年_第2頁
機(jī)器學(xué)習(xí)理論與方法智慧樹知到期末考試答案2024年_第3頁
機(jī)器學(xué)習(xí)理論與方法智慧樹知到期末考試答案2024年_第4頁
機(jī)器學(xué)習(xí)理論與方法智慧樹知到期末考試答案2024年_第5頁
已閱讀5頁,還剩3頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

機(jī)器學(xué)習(xí)理論與方法智慧樹知到期末考試答案2024年機(jī)器學(xué)習(xí)理論與方法已知在所有男子中有5%是色盲,在所有女子中有0.25%是色盲,隨機(jī)抽一個(gè)人人發(fā)現(xiàn)患色盲癥,問其是男子的概率是多少()。

A:0.25%B:5%C:50%D:95%答案:95%協(xié)同過濾算法的特點(diǎn)是其特征量和數(shù)據(jù)比較多。()

A:錯(cuò)誤B:正確答案:正確我們應(yīng)該選擇熵減最小的屬性作為目前節(jié)點(diǎn)的劃分屬性。()

A:錯(cuò)誤B:正確答案:錯(cuò)誤最近鄰算法中,只能用歐氏距離來計(jì)算樣本之間的距離。()

A:錯(cuò)B:對(duì)答案:錯(cuò)沒辦法使用精確度來衡量聚類分析的好壞。()

A:錯(cuò)誤B:正確答案:正確半監(jiān)督學(xué)習(xí)可以借助于無標(biāo)簽數(shù)據(jù)進(jìn)行學(xué)習(xí)。()

A:錯(cuò)誤B:正確答案:正確熵是一種用來描述物體混亂程度和不確定性的度量,可以用來量化屬性的純度。()

A:正確B:錯(cuò)誤答案:正確最近鄰算法的核心思想是“如果兩個(gè)樣本靠的近,那么它們的標(biāo)簽也相同”。()

A:錯(cuò)誤B:正確答案:正確基于內(nèi)容的推薦系統(tǒng)中,如果我們既沒有電影的特征,也沒有用戶的特征,可以通過協(xié)同過濾的方法同時(shí)學(xué)習(xí)這兩者。()

A:正確B:錯(cuò)誤答案:正確如果所選變量間具備較強(qiáng)相關(guān)性,那么不適合進(jìn)行因子分析。()

A:錯(cuò)誤B:正確答案:錯(cuò)誤最近鄰算法也需要訓(xùn)練過程。()

A:正確B:錯(cuò)誤答案:錯(cuò)誤核函數(shù)是一個(gè)相似度函數(shù)。()

A:錯(cuò)誤B:正確答案:正確同等情況下,大模型一定要比小模型效果更好。()

A:正確B:錯(cuò)誤答案:錯(cuò)誤Boosting集成傾向于減少偏差。()

A:正確B:錯(cuò)誤答案:正確決策樹是基于規(guī)則的樹狀結(jié)構(gòu)的算法,可解釋性較強(qiáng)。()

A:錯(cuò)誤B:正確答案:正確最近鄰算法的一個(gè)重要問題是k值如何選擇。()

A:正確B:錯(cuò)誤答案:正確決策樹模型是利用層級(jí)節(jié)點(diǎn)對(duì)數(shù)據(jù)進(jìn)行分類的模型。()

A:正確B:錯(cuò)誤答案:正確基于CharRNN的生成,本質(zhì)上也是一種預(yù)測(cè)任務(wù)。()

A:錯(cuò)誤B:正確答案:正確線性分子表示方式,如SMILES,包含了分子的全部信息,并能直觀地展示出分子的結(jié)構(gòu)。()

A:錯(cuò)誤B:正確答案:錯(cuò)誤偏差-方差分解可以用來判斷模型是否過擬合。()

A:正確B:錯(cuò)誤答案:正確single-cellRNA-seq數(shù)據(jù)具有高通量的特點(diǎn),對(duì)計(jì)算復(fù)雜度高的算法是一個(gè)巨大的挑戰(zhàn)。()

A:錯(cuò)誤B:正確答案:正確邏輯回歸主要用來解決分類問題。()

A:錯(cuò)誤B:正確答案:正確樸素貝葉斯有超參數(shù)可以調(diào)節(jié),方便提高準(zhǔn)確度。()

A:正確B:錯(cuò)誤答案:錯(cuò)誤線性SVM模型不需要交叉驗(yàn)證進(jìn)行參數(shù)的最優(yōu)選擇。()

A:錯(cuò)誤B:正確答案:錯(cuò)誤在異常值檢測(cè)中,對(duì)于不符合高斯分布的特征,我們需要將其轉(zhuǎn)化為高斯分布。()

A:錯(cuò)誤B:正確答案:正確基于內(nèi)容的推薦系統(tǒng)的目標(biāo)是,找到一個(gè)參數(shù),使得收益函數(shù)的收益總和達(dá)到最大。()

A:正確B:錯(cuò)誤答案:正確一個(gè)硬幣,投擲10次,7次正面,3次反面,則最大似然估計(jì)此硬幣扔一次,正面的概率是多少()。

A:0.5B:無法計(jì)算C:0.7D:0.3答案:AI參考:正確答案是C:0.7。\n根據(jù)題意,硬幣正面出現(xiàn)的概率大于反面出現(xiàn)的概率,因此最大似然估計(jì)此硬幣扔一次,正面的概率是7/10=0.7。因此,選項(xiàng)C是正確答案。選項(xiàng)A和D都與題意不符,選項(xiàng)B則無法計(jì)算。'假設(shè)有一個(gè)二分類問題,數(shù)據(jù)量比每一個(gè)樣本的特征要少,則以下哪一個(gè)核函數(shù)更加適用SVM()。

A:高次多項(xiàng)式核函數(shù)B:二次核函數(shù)C:線性核函數(shù)D:徑向基核函數(shù)答案:AI參考:正確選項(xiàng)是【D:徑向基核函數(shù)】。\n\n在二分類問題中,如果數(shù)據(jù)量比每一個(gè)樣本的特征要少,那么需要選擇一個(gè)能夠更好地利用樣本間信息的核函數(shù)。徑向基核函數(shù)是一種常用的核函數(shù),它能夠?qū)颖居成涞礁呔S空間,并利用樣本間的距離來計(jì)算相似度,從而更好地發(fā)現(xiàn)樣本間的關(guān)系。因此,在數(shù)據(jù)量比特征量少的情況下,徑向基核函數(shù)更加適用SVM。其他選項(xiàng)中,高次多項(xiàng)式核函數(shù)和二次核函數(shù)通常需要更多的特征量才能更好地利用樣本間的信息,而線性核函數(shù)則過于簡(jiǎn)單,無法充分利用樣本間的信息。'以下哪種任務(wù)最適合于深度學(xué)習(xí)()。

A:根據(jù)今年某地醫(yī)院的流行病報(bào)告對(duì)未來一年的流行病進(jìn)行預(yù)測(cè)B:根據(jù)病人的家族病史預(yù)測(cè)病人患某遺傳病的概率C:根據(jù)病人的身高、體重、體脂含量等指標(biāo)評(píng)估病人的健康程度D:根據(jù)病理切片數(shù)據(jù)判斷病人是否患有某種疾病答案:AI參考:正確答案是D:根據(jù)病理切片數(shù)據(jù)判斷病人是否患有某種疾病。\n\n深度學(xué)習(xí)是一種機(jī)器學(xué)習(xí)技術(shù),主要用于處理和識(shí)別大量的、復(fù)雜的、非線性的數(shù)據(jù)。病理切片數(shù)據(jù)是一種非線性的、高維度的數(shù)據(jù),非常適合于深度學(xué)習(xí)技術(shù)進(jìn)行處理和識(shí)別。因此,選項(xiàng)D是最適合于深度學(xué)習(xí)的任務(wù)。選項(xiàng)A、B、C雖然也涉及到數(shù)據(jù)分析和預(yù)測(cè),但它們的數(shù)據(jù)相對(duì)簡(jiǎn)單,不適合深度學(xué)習(xí)技術(shù)。'如何提高模型復(fù)雜度()。

A:減少神經(jīng)元個(gè)數(shù)B:增大學(xué)習(xí)率C:減少數(shù)據(jù)量D:增加網(wǎng)絡(luò)層數(shù)答案:AI參考:正確答案是【D:增加網(wǎng)絡(luò)層數(shù)】。\n\n提高模型復(fù)雜度,就是使模型結(jié)構(gòu)變得更復(fù)雜??梢酝ㄟ^增加神經(jīng)網(wǎng)絡(luò)層的數(shù)量來提高模型復(fù)雜度。同時(shí)需要注意,增加網(wǎng)絡(luò)層數(shù)可能會(huì)帶來過擬合的風(fēng)險(xiǎn),因此需要結(jié)合其他優(yōu)化方法如正則化等來防止過擬合。而減少神經(jīng)元個(gè)數(shù)、增大學(xué)習(xí)率和減少數(shù)據(jù)量都會(huì)使模型變得簡(jiǎn)單,不符合提高模型復(fù)雜度的目的。因此,選項(xiàng)D“增加網(wǎng)絡(luò)層數(shù)”是正確的答案。'假設(shè)把癌癥病人判為正常人的誤判損失是100,把正常人判為癌癥病人的誤判損失是10,把感冒病人判為癌癥的誤判損失是8,即L(正常|癌癥)=100,L(癌癥|正常)=10,L(癌癥|感冒)=8,現(xiàn)在,我們經(jīng)過計(jì)算知道有一個(gè)來體檢的員工的后驗(yàn)概率分別為:p(正常|各項(xiàng)指標(biāo))=0.2,p(感冒|各項(xiàng)指標(biāo))=0.4,p(癌癥|各項(xiàng)指標(biāo))=0.4。將這個(gè)員工判為癌癥的條件風(fēng)險(xiǎn)為()。

A:24B:3.2C:5.2D:27.2答案:AI參考:根據(jù)題目所給的信息,我們可以使用貝葉斯公式來計(jì)算將這個(gè)員工判為癌癥的條件風(fēng)險(xiǎn)。已知p(正常|各項(xiàng)指標(biāo))=0.2,p(感冒|各項(xiàng)指標(biāo))=0.4,p(癌癥|各項(xiàng)指標(biāo))=0.4。那么,將這個(gè)員工判為癌癥的條件風(fēng)險(xiǎn)為:\r\n\r\nL(癌癥|各項(xiàng)指標(biāo))=L(癌癥|正常)×p(正常|各項(xiàng)指標(biāo))+L(癌癥|感冒)×p(感冒|各項(xiàng)指標(biāo))\r\n\r\n=10×0.2+8×0.4=3.2\r\n\r\n因此,答案為B,即3.2。'召回率(Recall)如何計(jì)算()

A:2*TP?(2*TP+FP+FN)B:TP?(FP+FN)C:TP?(TP+FN)D:TP?(TP+FP)答案:AI參考:正確答案是【B:TP?(FP+FN)】。\n\n召回率(Recall)是用來衡量系統(tǒng)識(shí)別準(zhǔn)確性的指標(biāo),計(jì)算公式為:召回率=TP/(TP+FP+FN),其中TP表示正類中被正確識(shí)別的樣本數(shù),F(xiàn)P表示負(fù)類中被誤判為正類的樣本數(shù),F(xiàn)N表示負(fù)類中被正確忽略的樣本數(shù)。選項(xiàng)B就是正確的計(jì)算公式。選項(xiàng)A和D沒有考慮漏檢的樣本,選項(xiàng)C中TP被錯(cuò)誤放在分母,故錯(cuò)誤。'某人向靶心重復(fù)獨(dú)立的射擊了4次,每次命中目標(biāo)的概率為0.7,則此人能命中兩次的概率()

A:0.21B:0.09C:0.49D:0.2646答案:AI參考:答案:B\n推理過程:某人向靶心重復(fù)獨(dú)立的射擊了4次,每次命中目標(biāo)的概率為0.7,即此人不中靶的概率都是0.3,此題所求的概率等于在四次不中靶的條件下能命中兩次的概率,故其概率為1減去四次都中靶的概,即(1-0.7)的4次方乘以兩次命中目標(biāo)的概率等于(0.3)的4次方乘以(0.7)的兩次方,即(0.3)的4次方乘以(0.7)的兩次方等于0.09。因此,正確答案為B。'聚類分析算法在什么時(shí)候停止?()

A:重復(fù)十次迭代以后B:使得組間距離達(dá)到最大的時(shí)候C:中心點(diǎn)不再變多的時(shí)候D:組內(nèi)距離最小的時(shí)候答案:AI參考:正確選項(xiàng)是D:組內(nèi)距離最小的時(shí)候。\n\n聚類分析的目標(biāo)是將數(shù)據(jù)劃分為幾個(gè)不同的群體,使得同一群體內(nèi)的數(shù)據(jù)點(diǎn)盡可能接近,而不同群體之間的數(shù)據(jù)點(diǎn)盡可能遠(yuǎn)離。因此,當(dāng)聚類算法將數(shù)據(jù)點(diǎn)劃分到不同的群體中,并且每個(gè)群體內(nèi)部的距離最小,即達(dá)到了聚類的目標(biāo)。此時(shí),聚類算法可以停止運(yùn)行。因此,選項(xiàng)D“組內(nèi)距離最小的時(shí)候”是正確的停止聚類分析算法的時(shí)機(jī)。選項(xiàng)A、B、C都不是正確的停止時(shí)機(jī),因?yàn)樗鼈儧]有考慮到聚類分析的目標(biāo)和原則。'模型蒸餾中,訓(xùn)練student模型的數(shù)據(jù),其label來源于()。

A:經(jīng)過歸一化的真實(shí)數(shù)據(jù)labelB:真實(shí)數(shù)據(jù)的label+teacher模型的輸出C:真實(shí)數(shù)據(jù)的labelD:teacher模型的輸出答案:AI參考:正確選項(xiàng)是C:真實(shí)數(shù)據(jù)的label。\n\n在模型蒸餾中,訓(xùn)練student模型的數(shù)據(jù)的label應(yīng)該是真實(shí)數(shù)據(jù)的label,因?yàn)檎麴s模型的目標(biāo)是復(fù)制原始模型的性能,而原始模型的label是真實(shí)數(shù)據(jù)的label。經(jīng)過歸一化的真實(shí)數(shù)據(jù)label或真實(shí)數(shù)據(jù)的label+teacher模型的輸出可能影響原始數(shù)據(jù)的分布,從而導(dǎo)致模型性能下降。teacher模型的輸出通常是用于優(yōu)化和調(diào)整學(xué)生模型的參數(shù)。因此,答案為C。'Inception中的1*1卷積的作用是()。

A:使模型更“寬”B:有效提高模型性能C:對(duì)齊尺寸D:降維,降低模型參數(shù)量答案:AI參考:在Inception中的1*1卷積主要作用是降維,降低模型參數(shù)量。這種卷積核的特殊之處在于它只對(duì)輸入圖像的一部分進(jìn)行卷積,從而減少了參數(shù)的數(shù)量,同時(shí)保留了重要的特征信息。這種設(shè)計(jì)使得模型在保持高性能的同時(shí),參數(shù)量大大減少,從而提高了模型的效率和可擴(kuò)展性。因此,正確答案是D:降維,降低模型參數(shù)量。'假設(shè)從醫(yī)院中采集了100個(gè)病人的轉(zhuǎn)錄組測(cè)序數(shù)據(jù),其中轉(zhuǎn)錄組測(cè)序數(shù)據(jù)測(cè)量了1000個(gè)重要基因的表達(dá)量,模型用上述數(shù)據(jù)學(xué)習(xí)對(duì)病人的類型進(jìn)行劃分,則以下哪些描述是錯(cuò)誤的?()

A:該問題屬于無監(jiān)督問題B:該問題中特征的維度為1000C:該問題中特征的維度為100D:該問題中一共有100個(gè)樣本E:該問題屬于自監(jiān)督問題F:該問題中一共有1000個(gè)樣本答案:AI參考:正確選項(xiàng)為:E\n\n該問題屬于無監(jiān)督問題,特征的維度為1000,樣本的數(shù)量為100個(gè),樣本中包含基因表達(dá)量數(shù)據(jù)。該問題屬于基因表達(dá)量數(shù)據(jù)特征的學(xué)習(xí)問題,即根據(jù)基因表達(dá)量的數(shù)據(jù)對(duì)病人類型進(jìn)行劃分,屬于無監(jiān)督學(xué)習(xí)問題。特征的維度是指模型需要學(xué)習(xí)分析的數(shù)據(jù)特征的數(shù)量,在這個(gè)問題中,特征的維度為1000,因?yàn)檗D(zhuǎn)錄組測(cè)序數(shù)據(jù)測(cè)量了1000個(gè)重要基因的表達(dá)量。樣本的數(shù)量為100個(gè),因?yàn)閺尼t(yī)院中采集了100個(gè)病人的轉(zhuǎn)錄組測(cè)序數(shù)據(jù)。因此,選項(xiàng)E是錯(cuò)誤的,其他選項(xiàng)都是正確的。'下面哪些關(guān)于K-means和GMM兩種聚類算法的說法是正確的?()

A:K-means屬于無監(jiān)督學(xué)習(xí),GMM屬于半監(jiān)督學(xué)習(xí)。B:K-means屬于hardClustering,GMM屬于softClusteringC:K-means每個(gè)點(diǎn)只分配到一個(gè)類,而GMM可以分配到多個(gè)類中。D:由于協(xié)方差為單位矩陣,故K-means聚類的形狀是圓形的,而GMM是橢圓型的。答案:AI參考:正確選項(xiàng)為:\n\nB:K-means屬于hardClustering,GMM屬于softClustering\nC:K-means每個(gè)點(diǎn)只分配到一個(gè)類,而GMM可以分配到多個(gè)類中。\n\n解釋如下:\n\nA選項(xiàng)中,K-means和GMM都屬于無監(jiān)督學(xué)習(xí),不屬于半監(jiān)督學(xué)習(xí)。\n\nD選項(xiàng)中,K-means和GMM聚類的形狀與協(xié)方差矩陣沒有直接關(guān)系,聚類的形狀主要取決于數(shù)據(jù)本身的分布和聚類算法的參數(shù)設(shè)置。\n\nK-means是一種硬聚類算法,每個(gè)數(shù)據(jù)點(diǎn)只屬于一個(gè)類別;而GMM是一種軟聚類算法,允許數(shù)據(jù)點(diǎn)屬于多個(gè)類別。'如何保證集成學(xué)習(xí)的異質(zhì)性()。

A:不同的模型算法B:不同的損失函數(shù)C:從訓(xùn)練數(shù)據(jù)中采樣不同的子集進(jìn)行訓(xùn)練D:不同的學(xué)習(xí)率答案:AI參考:正確選項(xiàng)是【ABCD】:\n\n要保證集成學(xué)習(xí)的異質(zhì)性,需要從以下四個(gè)方面入手:\n\n1.不同的模型算法:集成學(xué)習(xí)通常使用不同的模型算法來構(gòu)建集成模型,這樣可以增加模型的多樣性,提高模型的魯棒性和泛化能力。\n\n2.不同的損失函數(shù):在訓(xùn)練集成模型時(shí),可以使用不同的損失函數(shù)來優(yōu)化不同的模型參數(shù),這樣可以增加模型的多樣性,提高模型的性能。\n\n3.從訓(xùn)練數(shù)據(jù)中采樣不同的子集進(jìn)行訓(xùn)練:這樣可以保證每個(gè)模型都有不同的訓(xùn)練數(shù)據(jù),從而增加模型的多樣性。\n\n4.不同的學(xué)習(xí)率:學(xué)習(xí)率是優(yōu)化算法中的一個(gè)重要參數(shù),不同的學(xué)習(xí)率可能會(huì)影響模型的訓(xùn)練過程和最終性能。在集成學(xué)習(xí)中,可以使用不同的學(xué)習(xí)率來訓(xùn)練不同的模型,從而增加模型的多樣性。\n\n因此,正確答案是ABCD,這四個(gè)因素都需要考慮到,才能保證集成學(xué)習(xí)的異質(zhì)性。'以下哪些是SVM的應(yīng)用()。

A:圖像分類B:癌癥預(yù)后預(yù)測(cè)C:文本與超文本分類答案:AI參考:正確選項(xiàng)為:A:圖像分類,C:文本與超文本分類。\n\nSVM是一種支持向量機(jī)分類器,主要用于分類任務(wù),特別是對(duì)于小樣本數(shù)據(jù)和二分類問題效果較好。SVM可以應(yīng)用于圖像分類、文本分類等任務(wù)。因此,選項(xiàng)A和C都是SVM的應(yīng)用場(chǎng)景。而選項(xiàng)B癌癥預(yù)后預(yù)測(cè)是一個(gè)醫(yī)學(xué)應(yīng)用場(chǎng)景,需要更復(fù)雜的算法和技術(shù)支持,SVM可能不是最佳選擇。'以下哪些方法可以降低過擬合()

A:正則化B:減少模型復(fù)雜度C:增加特征數(shù)量D:增加訓(xùn)練數(shù)據(jù)量答案:AI參考:正確選項(xiàng)為:A:正則化B:減少模型復(fù)雜度\n\n減少模型復(fù)雜度和正則化是常用的方法來降低過擬合。而增加特征數(shù)量、增加訓(xùn)練數(shù)據(jù)量則可能導(dǎo)致欠擬合或過擬合。\n\n正則化方法可以控制模型復(fù)雜度,通過添加L1、L2等懲罰項(xiàng)來控制模型的復(fù)雜度,避免過擬合。而減少模型復(fù)雜度可以通過簡(jiǎn)化模型結(jié)構(gòu),如減少層數(shù)、減少節(jié)點(diǎn)數(shù)等方式來實(shí)現(xiàn)。這兩種方法都能有效地降低過擬合風(fēng)險(xiǎn)。\n\n特征數(shù)量和訓(xùn)練數(shù)據(jù)量對(duì)過擬合的影響是相對(duì)的。增加特征數(shù)量可能會(huì)增加模型的復(fù)雜性,進(jìn)而增加過擬合的風(fēng)險(xiǎn);而增加訓(xùn)練數(shù)據(jù)量可以提供更多的信息,有助于減少過擬合,但也需要考慮數(shù)據(jù)的質(zhì)量和多樣性。因此,選項(xiàng)C和D在某些情況下可能會(huì)適得其反。'以下對(duì)于最近鄰算法描述正確的有()。

A:能很好的處理樣本標(biāo)簽不平衡問題B:預(yù)測(cè)過程復(fù)雜度低C:核心思想非常直觀,可解釋性好D:不需要訓(xùn)練過程答案:AI參考:以下對(duì)于最近鄰算法描述正確的有:A、C\n\n最近鄰算法是一種基于距離的分類算法,它的核心思想是:如果一個(gè)樣本在特征空間中的某一點(diǎn)附近,那么它也應(yīng)該是某個(gè)類的樣本。該算法根據(jù)數(shù)據(jù)在特征空間中的分布,為每個(gè)類別找出最近鄰樣本,從而對(duì)新樣本進(jìn)行分類。最近鄰算法的特點(diǎn)是:對(duì)于每個(gè)類別只找最近鄰,而不是所有的樣本,因此其預(yù)測(cè)過程復(fù)雜度較低。同時(shí),由于該算法是基于距離的,因此對(duì)于樣本標(biāo)簽不平衡問題也能很好的處理。\n\n然而,最近鄰算法需要手動(dòng)選擇最近鄰的標(biāo)準(zhǔn),這可能會(huì)影響算法的準(zhǔn)確性和效率。此外,由于該算法是基于距離的,因

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論