人工智能自然語(yǔ)言技術(shù)練習(xí)(習(xí)題卷4)_第1頁(yè)
人工智能自然語(yǔ)言技術(shù)練習(xí)(習(xí)題卷4)_第2頁(yè)
人工智能自然語(yǔ)言技術(shù)練習(xí)(習(xí)題卷4)_第3頁(yè)
人工智能自然語(yǔ)言技術(shù)練習(xí)(習(xí)題卷4)_第4頁(yè)
人工智能自然語(yǔ)言技術(shù)練習(xí)(習(xí)題卷4)_第5頁(yè)
已閱讀5頁(yè),還剩16頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

試卷科目:人工智能自然語(yǔ)言技術(shù)練習(xí)人工智能自然語(yǔ)言技術(shù)練習(xí)(習(xí)題卷4)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages人工智能自然語(yǔ)言技術(shù)練習(xí)第1部分:?jiǎn)雾?xiàng)選擇題,共45題,每題只有一個(gè)正確答案,多選或少選均不得分。[單選題]1.不同標(biāo)注集的根本差別在于()A)如何對(duì)某些詞進(jìn)行分類B)如何排布詞語(yǔ)C)如何對(duì)某種字符進(jìn)行分類D)如何排布字符答案:A解析:[單選題]2.TextRank是由以下哪個(gè)算法改進(jìn)來的A)TextRnnB)TextCNNC)FasttextD)PageRank答案:D解析:[單選題]3.在tf中常用的reshape函數(shù)它的用途是做什么?A)維度轉(zhuǎn)化B)相加C)相乘D)相減答案:A解析:[單選題]4.在TensorFlow框架中,如何正確的調(diào)用Adam優(yōu)化器?A)tf.example.AdamOptimizerB)tf.train.AdamOptimizerC)tf.nn.AdamOptimizerD)tf.AdamOptimizer答案:B解析:[單選題]5.()根據(jù)文本的不同特征劃分為不同的類A)文本概括B)文本分類C)文本聚類D)都可以答案:C解析:[單選題]6.RMSprop相比較與算法Momentum,建議可以采取更大的()A)學(xué)習(xí)率B)樣本集C)損失函數(shù)D)激活函數(shù)答案:A解析:[單選題]7.在編寫模型或者訓(xùn)練模型的時(shí)候,如果模型過于復(fù)雜的話,會(huì)出現(xiàn)什么情況A)正常擬合B)過擬合C)欠擬合D)不確定答案:B解析:[單選題]8.LSTM的輸出有兩個(gè):當(dāng)前時(shí)刻LSTM輸出值、和()A)輸入門B)遺忘門C)當(dāng)前時(shí)刻的單元狀態(tài)D)更新門答案:C解析:[單選題]9.以下四個(gè)算法中,哪個(gè)體現(xiàn)了XGBoost的本質(zhì)A)隨機(jī)森林B)GBDTC)線性回歸D)邏輯回歸答案:B解析:[單選題]10.詞袋模型是最早的以詞語(yǔ)為基本處理單元的文本向量化方法.以下哪個(gè)選項(xiàng)不是詞袋模型的A)基于分布假設(shè)B)存在語(yǔ)義鴻溝C)維度災(zāi)難D)無法保留次序信息答案:C解析:[單選題]11.基于統(tǒng)計(jì)的分詞方法為()A)正向最大匹配法B)逆向最大匹配法C)最少切分D)條件隨機(jī)場(chǎng)答案:D解析:[單選題]12.人工智能中關(guān)于距離空間處理的分類情況,一般:A)需要權(quán)重訓(xùn)練B)不需要權(quán)值訓(xùn)練C)不能分類D)需要選定特殊距離空間答案:B解析:[單選題]13.所有的預(yù)測(cè)正確(正類負(fù)類)的占總的比重,這種計(jì)算方法可以計(jì)算?A)召回率B)準(zhǔn)確率C)精準(zhǔn)率D)F1值答案:B解析:[單選題]14.關(guān)于TF-IDF,以下哪種說法是正確的A)詞的重要度和詞類內(nèi)頻成正比和所有類別詞頻成反比B)詞的重要度和詞類內(nèi)頻成正比和所有類別詞頻成正比C)詞的重要度和詞類內(nèi)頻成正比和所有類別詞頻成反比D)以上都不是答案:B解析:[單選題]15.移進(jìn)-歸約算法中操作有()(1)移進(jìn)(2)歸約(3)接收(4)拒絕A)(1)(2)B)(1)(2)(3)C)(3)(4)D)(1)(2)(3)(4)答案:D解析:[單選題]16.()是統(tǒng)計(jì)一個(gè)詞出現(xiàn)在文檔集中文檔頻次的統(tǒng)計(jì)量。A)逆文檔頻率B)詞頻C)詞頻-逆文檔頻率D)以上都不對(duì)答案:A解析:[單選題]17.貝葉斯可以用什么圖去進(jìn)行表示A)無向圖B)有無向圖C)有向圖D)不確定答案:C解析:[單選題]18.CRF模型思想主要來源于()。A)無向圖模型B)最大熵模型C)馬爾可夫隨機(jī)場(chǎng)D)統(tǒng)計(jì)方法答案:B解析:[單選題]19.句法分析主要是()A)解析句子中各個(gè)成分的依賴關(guān)系B)從文本中識(shí)別具有特定類標(biāo)的實(shí)體C)抽取目標(biāo)文本中的主要信息D)對(duì)大規(guī)模的文檔進(jìn)行索引答案:A解析:[單選題]20.人工智能起源于哪個(gè)年代?A)20世紀(jì)50年代B)20世紀(jì)60年代C)20世紀(jì)70年代D)20世紀(jì)80年代答案:A解析:[單選題]21.以下幾個(gè)選項(xiàng)中,哪個(gè)用來處理多分類任務(wù)A)tanhB)softmaxC)sigmoidD)relu答案:B解析:[單選題]22.下列哪個(gè)說法是正確的?A)神經(jīng)網(wǎng)絡(luò)的更深層通常比前面層計(jì)算更復(fù)雜的輸入特征。B)神經(jīng)網(wǎng)絡(luò)的前面層通常比更深層計(jì)算更復(fù)雜的輸入特性。C)神經(jīng)網(wǎng)絡(luò)由輸入和隱藏層構(gòu)成D)神經(jīng)網(wǎng)絡(luò)的隱藏層只能是一層答案:A解析:[單選題]23.一個(gè)家用電器制造商雇傭你幫助其分析社交媒體數(shù)據(jù)來決定它們的哪個(gè)冰箱質(zhì)量是最可靠的。你會(huì)用以下哪一個(gè)工具來分析?()A)文本挖掘工具B)情感分析軟件C)網(wǎng)頁(yè)挖掘技術(shù)D)數(shù)據(jù)挖掘軟件答案:B解析:[單選題]24.下列不是知識(shí)表示法的是()。A)計(jì)算機(jī)表示法B)謂詞表示法C)框架表示法D)產(chǎn)生式規(guī)則表示法答案:A解析:[單選題]25.LDA模型是應(yīng)用比較廣泛的一種主題模型,包含詞、()和文檔3層結(jié)構(gòu)。A)主題B)詞頻C)權(quán)重D)詞性答案:A解析:[單選題]26.關(guān)于NLP中常用的Glove說法錯(cuò)誤的是A)可以學(xué)習(xí)的到詞向量B)學(xué)習(xí)得到的詞向量可以區(qū)分一詞多意C)通過局部數(shù)據(jù)來訓(xùn)練計(jì)算的D)通過全局?jǐn)?shù)據(jù)來統(tǒng)計(jì)共現(xiàn)概率答案:C解析:[單選題]27.以下__模型是基于上下文的EmbeddingA)one-hotB)bagofwordsC)ELMOD)word2vec答案:C解析:[單選題]28.CNN中卷積層的作用是什么?A)特征縮放B)特征提取C)數(shù)據(jù)清洗D)數(shù)據(jù)提取答案:B解析:[單選題]29.K-Means中的K應(yīng)該如何去選擇A)貪心法則B)馬爾科夫C)肘部法則D)概率圖答案:C解析:[單選題]30.以下四個(gè)選項(xiàng)中代表的隨機(jī)森林縮寫的是哪個(gè)?A)RFB)GBDTC)XGBoostD)LightGBM答案:A解析:[單選題]31.SVM算法的性能取決于:A)核函數(shù)的選擇B)核函數(shù)的參數(shù)C)軟間隔參數(shù)CD)以上所有答案:D解析:[單選題]32.在神經(jīng)網(wǎng)絡(luò)中常使用到的非線性激活函數(shù)sigmoid,該函數(shù)的模型曲線是()?A)X型B)S型C)L型D)U型答案:B解析:[單選題]33.關(guān)于機(jī)器學(xué)習(xí)的聚類中的肘部法則是指()A)就是從K值和代價(jià)函數(shù)J的二維圖中找出J下降變平滑的拐點(diǎn)對(duì)應(yīng)的K值。B)最大K值C)最小K值D)隨機(jī)K值答案:A解析:[單選題]34.tf.add函數(shù)是對(duì)兩個(gè)tensor做什么運(yùn)算?A)維度轉(zhuǎn)化B)相加C)相減D)相乘答案:B解析:[單選題]35.下列正確的是A)句法是指描述詞語(yǔ)排列的方法B)句法結(jié)構(gòu)一般用樹狀數(shù)據(jù)結(jié)構(gòu)表示C)句法分析,是指對(duì)輸入的單詞序列判斷其構(gòu)成是否合乎給定的語(yǔ)法,分析出合乎語(yǔ)法的句子的句法結(jié)構(gòu)。D)其它3項(xiàng)都對(duì)答案:D解析:[單選題]36.實(shí)驗(yàn)測(cè)得四組(x,y)的值為(1,2),(2,3),(3,4),(4,5),則y與x之間的回歸直線方程為A)y=x+1B)y=x+2C)y=x-1D)y=2x+1答案:A解析:[單選題]37.關(guān)于常用的交叉熵函數(shù),說法正確的是__?A)在二分類中交叉熵函數(shù)和最大似然函數(shù)表達(dá)式相同B)交叉熵函數(shù)是從信息論角度得到的C)交叉熵函數(shù)是從概率角度得到的D)最大似然函數(shù)是從概率角度的到的答案:C解析:[單選題]38.以下幾種說法當(dāng)中,關(guān)于隨機(jī)森林的說法錯(cuò)誤的是A)隨機(jī)森林的結(jié)果是多數(shù)表決表決的B)隨機(jī)森林對(duì)異常值不敏感C)隨機(jī)森林是減少模型的方差D)組成隨機(jī)森林的樹可以串行生成答案:D解析:[單選題]39.假如說特征過少,模型過于簡(jiǎn)單,可能會(huì)發(fā)生什么情況A)正常擬合B)過擬合C)欠擬合D)不確定答案:C解析:[單選題]40.()是1966年由美國(guó)語(yǔ)言學(xué)家菲爾摩提出的一種語(yǔ)言學(xué)理論是語(yǔ)法體系深層結(jié)構(gòu)中的語(yǔ)義概念。A)格語(yǔ)法B)貝葉斯分類器C)限制學(xué)說D)選擇限制學(xué)說答案:A解析:[單選題]41.GBDT使用的是什么思想A)BaggingB)BoostingC)邏輯回歸D)線性回歸答案:B解析:[單選題]42.常用的激活函數(shù)其中包括Tanh,它的導(dǎo)數(shù)的范圍是在哪個(gè)區(qū)間?A)(0,1]B)(0,0.1]C)(0,-1]D)(0,10]答案:A解析:[單選題]43.K-Means想要進(jìn)行并行計(jì)算,可以進(jìn)行以下哪種操作A)Hadoop集群B)增加K的個(gè)數(shù)C)增加樣本的特征D)以上都可以答案:A解析:第2部分:多項(xiàng)選擇題,共21題,每題至少兩個(gè)正確答案,多選或少選均不得分。[多選題]44.詞性標(biāo)注后會(huì)降低()處理的復(fù)雜度。A)詞義標(biāo)注B)信息檢索C)字音轉(zhuǎn)換D)簡(jiǎn)繁轉(zhuǎn)換答案:ABCD解析:[多選題]45.決策樹有著廣泛的應(yīng)用,那么具體它可以做什么任務(wù)A)聚類B)分類C)回歸D)降維答案:BC解析:[多選題]46.EM算法過程中,可以分為哪兩個(gè)步驟A)期望步B)極大步C)不確定D)選擇最優(yōu)K取值答案:AB解析:[多選題]47.對(duì)HMM參數(shù)說法正確的是A)Y:隱狀態(tài)B)A:輸出觀察值概率矩陣C)B:狀態(tài)轉(zhuǎn)移概率矩陣D)Π:初始狀態(tài)概率矩陣答案:AD解析:[多選題]48.判別式Discriminativemodel模型使用的方式有:A)HMMB)SVMC)CRFD)MEMM答案:BCD解析:[多選題]49.AlphaGo中使用了哪些技術(shù)?A)決策神經(jīng)網(wǎng)絡(luò)B)評(píng)估神經(jīng)網(wǎng)絡(luò)C)歷史經(jīng)驗(yàn)D)線性代數(shù)答案:AB解析:[多選題]50.神經(jīng)網(wǎng)絡(luò)在NLP中有哪些常見應(yīng)用領(lǐng)域A)機(jī)器創(chuàng)作B)個(gè)性化推薦C)文本分類D)情感分析答案:ABCD解析:[多選題]51.調(diào)參指的是調(diào)哪些參數(shù)A)學(xué)習(xí)率B)batch_sizeC)模型結(jié)構(gòu)D)以上都正確答案:AB解析:[多選題]52.關(guān)于KNN說法正確的是A)A:當(dāng)樣本不平衡時(shí),如一個(gè)類的樣本容量很大,而其他類樣本容量很小時(shí),有可能導(dǎo)致當(dāng)輸入一個(gè)新樣本時(shí),該樣本的K個(gè)鄰居中大容量類的樣本占多數(shù)。B)B:計(jì)算量較大,因?yàn)閷?duì)每一個(gè)待分類的文本都要計(jì)算它到全體已知樣本的距離,才能求得它的K個(gè)最近鄰點(diǎn)。C)C:使用KDTree可以加快k近鄰的搜索效率D)D:可理解性差,無法給出像決策樹那樣的規(guī)則。答案:ABCD解析:[多選題]53.Jieba.cut方法的3個(gè)參數(shù)分別是?A)cat_allB)HMMC)SepD)sentence答案:ABD解析:[多選題]54.GBDT的原理,下面描述正確的是?A)根據(jù)訓(xùn)練集訓(xùn)練一顆初始決策樹;B)計(jì)算之前所有樹在此數(shù)據(jù)集上預(yù)測(cè)結(jié)果之和與真實(shí)結(jié)果的差值,又叫殘差;C)把殘差作為當(dāng)前樹作為擬合的目標(biāo)在訓(xùn)練集上訓(xùn)練;D)直到達(dá)到設(shè)置的閾值--如樹的個(gè)數(shù),早期停止策略答案:ABCD解析:[多選題]55.傳統(tǒng)文本相似度計(jì)算方式有哪些A)歐幾里得距離B)曼哈頓距離C)SimHashD)余弦相似性答案:ABCD解析:[多選題]56.GateRecurrentUnit的門包括下面哪幾項(xiàng)A)更新門B)遺忘門C)輸入門D)重置門答案:AD解析:[多選題]57.以下選項(xiàng)當(dāng)中,哪些項(xiàng)構(gòu)成了XGBoost的目標(biāo)函數(shù)?A)損失函數(shù)B)正則項(xiàng)C)梯度下降D)以上都正確答案:AB解析:[多選題]58.以下幾種關(guān)于GPT的說法正確的是什么A)使用的是Transformer而不是LSTMB)使用的是LSTM而不是TransformerC)其中Transformer是單向的D)使用了雙向的Transformer答案:AC解析:[多選題]59.下列哪些是對(duì)馬爾科夫模型的正確理解()A)馬爾科夫模型的基本假設(shè)是人事變動(dòng)概率B)用以估計(jì)歷年年平均調(diào)動(dòng)概率的周期越長(zhǎng),根據(jù)過去所推測(cè)未來人員變動(dòng)就越準(zhǔn)確C)采用馬爾科夫模型可以預(yù)測(cè)組織任何時(shí)刻點(diǎn)上的各類人員分布狀況D)模型中的轉(zhuǎn)移率是指組織中人員進(jìn)行水平調(diào)動(dòng)的比率,不包含被提升或降級(jí)的人數(shù)答案:AB解析:[多選題]60.XGBoost和GBDT有很多異同點(diǎn),針對(duì)于他們的不同點(diǎn),下列說法正確的是A)GBDT是機(jī)器學(xué)習(xí)算法,XGBoost是該算法的工程實(shí)現(xiàn)。B)在使用CART作為基分類器時(shí),XGBoost顯式地加入了正則項(xiàng)來控制模型的復(fù)雜度,有利于防止過擬合,從而提高模型的泛化能力。C)GBDT在模型訓(xùn)練時(shí)只使用了代價(jià)函數(shù)的一階導(dǎo)數(shù)信息,XGBoost對(duì)代價(jià)函數(shù)進(jìn)行二階泰勒展開,可以同時(shí)使用一階和二階導(dǎo)數(shù)。D)傳統(tǒng)的GBDT采用CART作為基分類器,XGBoost支持多種類型的基分類器,比如線性分類器。答案:ABCD解析:[多選題]61.所有主題模型都基于以下()基本假設(shè)。A)每個(gè)文檔包含多個(gè)主題B)每個(gè)主題包含多個(gè)詞C)詞由主題構(gòu)成D)主題與詞無關(guān)答案:AB解析:[多選題]62.基于神經(jīng)網(wǎng)絡(luò)的語(yǔ)言模型一般分為哪幾層A)輸入層B)投影層C)隱藏層D)輸出層答案:ABCD解析:[多選題]63.正常情況下,集成學(xué)習(xí)一般有哪些步驟A)不確定B)生產(chǎn)一組?個(gè)體學(xué)習(xí)器C)以上都正確D)用某種策略將他們結(jié)合起來答案:BD解析:[多選題]64.關(guān)鍵詞抽取的算法主要分為哪兩類A)有監(jiān)督B)半監(jiān)督C)無監(jiān)督D)不確定答案:AC解析:第3部分:判斷題,共24題,請(qǐng)判斷題目是否正確。[判斷題]65.RNN可用于判斷輸入句子的情感傾向。對(duì)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]66.線性回歸中的因變量和自變量呈現(xiàn)一次函數(shù)關(guān)系A(chǔ))正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]67.Bagging是bootstrapaggregating。思想就是從總體樣本當(dāng)中隨機(jī)取一部分樣本進(jìn)行訓(xùn)練,通過多次這樣的結(jié)果,進(jìn)行投票獲取平均值作為結(jié)果輸出,這就極大可能的避免了不好的樣本數(shù)據(jù),從而提高準(zhǔn)確度。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]68.字表不可以用數(shù)組來存放。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]69.TextCNN是用于機(jī)器翻譯的算法A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]70.感知器的基本組成單位是神經(jīng)元,每一個(gè)神經(jīng)元是一個(gè)二元線性分類器,對(duì)應(yīng)的線性函數(shù)為g(x)=(w·x)+b。()A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]71.線性可分支持向量機(jī)利用間隔最大化求得最優(yōu)分離超平面,這時(shí),解是唯一的A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]72.DRMM是交互性的深度匹配模型A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]73.seq2seq是經(jīng)典的預(yù)訓(xùn)練語(yǔ)言模型A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]74.在LSTM中sigmoid的激活函數(shù)的作用是作為一個(gè)門A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]75.線性回歸算法只能做回歸,不能做分類A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]76.首先gbdt是通過采用加法模型(即基函數(shù)的線性組合),以及不斷減小訓(xùn)練過程產(chǎn)生的殘差來達(dá)到將數(shù)據(jù)分類或者回歸的算法。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]77.大五碼是中國(guó)臺(tái)灣地區(qū)標(biāo)準(zhǔn)漢字字符集(CNS11643)。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]78.輿情分析可以幫助分析哪些話題是目前的熱點(diǎn),分析傳播路徑以及發(fā)展趨勢(shì),對(duì)于不好的與論導(dǎo)向可以進(jìn)行有效的控制A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]79.用戶自建的圖靈機(jī)器人可以離線進(jìn)行智能問答。()A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]80.NLP的最終目的應(yīng)該是在語(yǔ)法理解的基礎(chǔ)上實(shí)現(xiàn)相應(yīng)的操作。()A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]81.未登錄詞問題是分詞錯(cuò)誤的主要來源A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]82.回退模型是根據(jù)低一階的分布,將從非零計(jì)數(shù)中減去的計(jì)數(shù)量分配給計(jì)數(shù)為零的高元語(yǔ)法。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]83.中文文本分詞最常用的是以基于詞典的分詞方法為主,以統(tǒng)計(jì)分詞方法為輔進(jìn)。對(duì)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]84.深度學(xué)習(xí)中比較擅長(zhǎng)做特征抽取A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]85.淺層句法分析的結(jié)果并不是一顆完整的句法樹,但各個(gè)語(yǔ)塊是完整句法樹的一個(gè)子圖,只要加上語(yǔ)塊之間的依附關(guān)系,就可以構(gòu)成完整的句法樹A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]86.seq2seq不是一種編解碼模型A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論