奧鵬南開20春學(xué)期1709、1803、1809、1903、1909、2003數(shù)據(jù)科學(xué)導(dǎo)論在線作業(yè)隨機(jī)_第1頁(yè)
奧鵬南開20春學(xué)期1709、1803、1809、1903、1909、2003數(shù)據(jù)科學(xué)導(dǎo)論在線作業(yè)隨機(jī)_第2頁(yè)
奧鵬南開20春學(xué)期1709、1803、1809、1903、1909、2003數(shù)據(jù)科學(xué)導(dǎo)論在線作業(yè)隨機(jī)_第3頁(yè)
奧鵬南開20春學(xué)期1709、1803、1809、1903、1909、2003數(shù)據(jù)科學(xué)導(dǎo)論在線作業(yè)隨機(jī)_第4頁(yè)
奧鵬南開20春學(xué)期1709、1803、1809、1903、1909、2003數(shù)據(jù)科學(xué)導(dǎo)論在線作業(yè)隨機(jī)_第5頁(yè)
已閱讀5頁(yè),還剩5頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

1、1. 以下屬于關(guān)聯(lián)分析的是( )A.CPU性能預(yù)測(cè)B.購(gòu)物籃分析C.自動(dòng)判斷鶯尾花類別D.股票趨勢(shì)建?!緟⒖即鸢浮? B2. 哪一項(xiàng)不屬于規(guī)范化的方法()A.最小-最大規(guī)范化B.零-均值規(guī)范化C.小數(shù)定標(biāo)規(guī)范化D.中位數(shù)規(guī)范化【參考答案】: D3. 實(shí)體識(shí)別屬于以下哪個(gè)過(guò)程()A.數(shù)據(jù)清洗B.數(shù)據(jù)集成C.數(shù)據(jù)規(guī)約D.數(shù)據(jù)變換【參考答案】: B4. 具有偏差和至少() 個(gè) S 型隱含層加上一個(gè)() 輸出層的網(wǎng)絡(luò)能夠逼近任何有理數(shù)。A.1, 線性B.2, 線性C.1, 非線性D.2, 非線性【參考答案】: A5. 某超市研究銷售紀(jì)錄數(shù)據(jù)后發(fā)現(xiàn), 買啤酒的人很大概率也會(huì)購(gòu)買尿布這種屬于數(shù)據(jù)挖掘的哪類

2、問(wèn)題?()A.關(guān)聯(lián)規(guī)則發(fā)現(xiàn)B.聚類 C.分類 D.自然語(yǔ)言處理【參考答案】: A6. 層次聚類適合規(guī)模較() 的數(shù)據(jù)集A.大 B.中 C.小 D.所有7. 下面不是分類的常用方法的有()A.K近鄰法B.樸素貝葉斯C.決策樹 D.條件隨機(jī)場(chǎng)【參考答案】: D8. BFR聚類用于在()歐氏空間中對(duì)數(shù)據(jù)進(jìn)行聚類A.高維 B.中維 C.低維 D.中高維【參考答案】: A9. 只有非零值才重要的二元屬性被稱作:( ), 其中購(gòu)物籃數(shù)據(jù)就屬于這種屬性。A.計(jì)數(shù)屬性B.離散屬性C.非對(duì)稱的二元屬性#對(duì)稱屬性【參考答案】: C10. 為了解決任何復(fù)雜的分類問(wèn)題, 使用的感知機(jī)結(jié)構(gòu)應(yīng)至少包含() 個(gè)隱含層。A.

3、1B.2C.3D.4【參考答案】: B11. 在回歸分析中, 自變量為(), 因變量為() 。A.離散型變量,離散型變量B.連續(xù)型變量,離散型變量C.離散型變量,連續(xù)型變量D.連續(xù)型變量,連續(xù)型變量【參考答案】: D12. 維克托?邁爾-舍恩伯格在大數(shù)據(jù)時(shí)代: 生活、 工作與思維的大變革一書中 , 持續(xù)強(qiáng)調(diào)了一個(gè)觀點(diǎn): 大數(shù)據(jù)時(shí)代的到來(lái), 使我們無(wú)法人為地去發(fā)現(xiàn)數(shù)據(jù)中的奧妙, 與此同時(shí), 我們更應(yīng)該注重?cái)?shù)據(jù)中的相關(guān)關(guān)系, 而不是因果關(guān)系。其中, 數(shù)據(jù)之間的相關(guān)關(guān)系可以通過(guò)以下哪個(gè)算法直接挖掘 ( )A.K-means B.Bayes Network C.C4.5 D.Apriori【參考答案】

4、: D13. 一元線性回歸中, 真實(shí)值與預(yù)測(cè)值的差稱為樣本的() 。A.誤差 B.方差 C.測(cè)差 D.殘差【參考答案】: D14. 以下哪個(gè)不是處理缺失值的方法()A.刪除記錄B.按照一定原則補(bǔ)充C.不處理D.隨意填寫【參考答案】: D15. 數(shù)據(jù)庫(kù)中相關(guān)聯(lián)的兩張表都存儲(chǔ)了用戶的個(gè)人信息, 但在用戶的個(gè)人信息發(fā)生改變時(shí)只更新了一張表中的數(shù)據(jù), 這時(shí)兩張表中就有了不一致的數(shù)據(jù), 這屬于 ()A.異常值B.缺失值C.不一致的值D.重復(fù)值【參考答案】: C16. 根據(jù)映射關(guān)系的不同可以分為線性回歸和() 。B.非線性回歸C.邏輯回歸 D.多元回歸A. 對(duì)數(shù)回歸17. 在 k 近鄰法中, 選擇較小的k

5、 值時(shí) , 學(xué)習(xí)的 “近似誤差”會(huì) (), “估計(jì)誤差”會(huì) () 。A.減小,減小 B.減小,增大 C.增大,減小 D.增大,增大【參考答案】: B18. 考慮下面的頻繁3- 項(xiàng)集的集 合 :1,2,3,1,2,4,1,2,5,1,3,4,1,3,5,2,3,4,2,3,5,3,4,5 假定數(shù)據(jù)集中只有5 個(gè)項(xiàng) , 采用 合并策略, 由候選產(chǎn)生過(guò)程得到4- 項(xiàng)集不包含()A.1,2,3,4B.1,2,3,5C.1,2,4,5D.1,3,4,5【參考答案】: C19. 單層感知機(jī)模型屬于() 模型。A.二分類的線性分類模型B.二分類的非線性分類模型C.多分類的線性分類模型D. 多分類的非線性分類

6、模型【參考答案】: A20. 特征選擇的四個(gè)步驟中不包括()A.子集產(chǎn)生B.子集評(píng)估C.子集搜索D.子集驗(yàn)證【參考答案】: C21. 對(duì)于多層感知機(jī),() 層擁有激活函數(shù)的功能神經(jīng)元。A.輸入層B.隱含層C.輸出層【參考答案】: BC22. Apriori 算法的計(jì)算復(fù)雜度受() 影響。A.支持度閾值B.項(xiàng)數(shù) C.事務(wù)數(shù) D.事務(wù)平均寬度【參考答案】: ABCD23. 一元回歸參數(shù)估計(jì)的參數(shù)求解方法有() 。A.最大似然法B.距估計(jì)法C.最小二乘法D.歐式距離法【參考答案】: ABC24. 層次聚類的方法是()A.聚合方法B.分拆方法C.組合方法D.比較方法【參考答案】: AB25. 相關(guān)性的

7、分類, 按照相關(guān)的方向可以分為() 。A.正相關(guān)B.負(fù)相關(guān)C.左相關(guān) D.右相關(guān)【參考答案】: AB26. 數(shù)據(jù)科學(xué)具有哪些性質(zhì)()A.有效性B.可用性C.未預(yù)料 D.可理解【參考答案】: ABCD27. k 近鄰法的基本要素包括() 。A.距離度量 B.k值的選擇C.樣本大小D.分類決策規(guī)則【參考答案】: ABD28. 下列選項(xiàng)是BFR的對(duì)象是()A.廢棄集B.臨時(shí)集C.壓縮集 D.留存集【參考答案】: ACD29. 什么情況下結(jié)點(diǎn)不用劃分()A.當(dāng)前結(jié)點(diǎn)所包含的樣本全屬于同一類別B.當(dāng)前屬性集為空,或是所有樣本在所有屬性上取值相同C.當(dāng)前結(jié)點(diǎn)包含的樣本集為空D.還有子集不能被基本正確分類【

8、參考答案】: ABC30. 系統(tǒng)日志收集的基本特征有()A.高可用性B.高可靠性C.可擴(kuò)展性 D.高效率【參考答案】: ABC31. 在一元線性回歸中, 輸入只包含一個(gè)單獨(dú)的特征。T. 對(duì) F. 錯(cuò)【參考答案】: T32.sigmoid 函數(shù)屬于階躍函數(shù), 是神經(jīng)網(wǎng)絡(luò)中常見的激活函數(shù)。T. 對(duì) F. 錯(cuò)【參考答案】: F33. 多層感知機(jī)的學(xué)習(xí)能力有限, 只能處理線性可分的二分類問(wèn)題。T. 對(duì) F. 錯(cuò)【參考答案】: F34.BFR聚類簇的坐標(biāo)可以與空間的坐標(biāo)保持一致。T. 對(duì) F. 錯(cuò)【參考答案】: F35 . 支持度是衡量關(guān)聯(lián)規(guī)則重要性的一個(gè)指標(biāo)。T. 對(duì) F. 錯(cuò)【參考答案】: T36

9、.利用K近鄰法進(jìn)行分類時(shí),使用不同的距離度量所確定的最近鄰點(diǎn) 都是相同的。T. 對(duì) F. 錯(cuò)【參考答案】: F37. 信息熵越小, 樣本結(jié)合的純度越低T. 對(duì) F. 錯(cuò)【參考答案】: F38. 在數(shù)據(jù)預(yù)處理時(shí), 無(wú)論什么情況, 都可以直接將異常值刪除T. 對(duì) F. 錯(cuò)【參考答案】: F39. 決策樹的輸入為訓(xùn)練集, 輸出為以node 為根結(jié)點(diǎn)的一棵決策樹T. 對(duì) F. 錯(cuò)【參考答案】: T40. 單層感知機(jī)對(duì)于線性不可分的數(shù)據(jù), 學(xué)習(xí)過(guò)程也可以收斂。T. 對(duì) F. 錯(cuò)【參考答案】: F41. 樸素貝葉斯分類器有簡(jiǎn)單、高效、 健壯的特點(diǎn), 但某些屬性可能會(huì)降低分類器的性能T. 對(duì) F. 錯(cuò)【參考

10、答案】: T42. 隨著特征維數(shù)的增加, 樣本間區(qū)分度提高。T. 對(duì) F. 錯(cuò)【參考答案】: F43. 選擇較小的k 值 , 相當(dāng)于用較小的鄰域中的訓(xùn)練實(shí)例進(jìn)行預(yù)測(cè), 學(xué)習(xí)的“近似誤差”會(huì)減小 , “估計(jì)誤差”會(huì)增大 , 預(yù)測(cè)結(jié)果會(huì)對(duì)近鄰的點(diǎn)實(shí)例點(diǎn)非常敏感。T. 對(duì) F. 錯(cuò)【參考答案】: T44. 一般而言, 信息增益越大, 則意味著使用屬性a 來(lái)進(jìn)行劃分所獲得的“純度提升越大”, 因此我們可用信息增益來(lái)進(jìn)行決策樹的最優(yōu)特征選擇。T. 對(duì) F. 錯(cuò)【參考答案】: T45. 決策樹內(nèi)部結(jié)點(diǎn)表示一個(gè)類, 葉結(jié)點(diǎn)表示一個(gè)特征或?qū)傩訲. 對(duì) F. 錯(cuò)【參考答案】: F46. 為了更加準(zhǔn)確地描述變量之間的線性相關(guān)程度, 可以通過(guò)計(jì)算相關(guān)系數(shù)來(lái)進(jìn)行相關(guān)分析。T. 對(duì) F. 錯(cuò)【參考答案】: T47. K均值(K-Means)算法是密度聚類。T. 對(duì) F. 錯(cuò)【參考答案】: F48.

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論