




版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)
文檔簡介
1、阿里巴巴1、異常值是指什么?請列舉1種識別連續(xù)型變量異常值的方法? 異常值(Outlier) 是指樣本中的個別值,其數(shù)值明顯偏離所屬樣本的其余觀測值。在數(shù)理統(tǒng)計里一般是指一組觀測值中與平均值的偏差超過兩倍標(biāo)準(zhǔn)差的測定值.常見的異常值檢驗方法如下:l 基于統(tǒng)計的方法l 基于距離的方法l 基于密度的方法l 基于聚類的方法l 基于偏差的方法l 基于深度的方法t檢驗:按照t分布的實際誤差分布范圍來判別異常值,首先剔除一個可疑值,然后按t分布來檢驗剔除的值是否為異常值。狄克遜檢驗法:假設(shè)一組數(shù)據(jù)有序x1<x2<<xn,且服從正態(tài)分布,則異常值最有可能出現(xiàn)在兩端x1和xn。格拉布斯檢驗法
2、:與狄克遜檢驗法思想一樣,其檢驗公式為:指數(shù)分布檢驗:SPSS和R語言中通過繪制箱圖可以找到異常值,分布在箱邊框外部;2、什么是聚類分析?聚類算法有哪幾種?請選擇一種詳細(xì)描述其計算原理和步驟。 聚類分析(cluster analysis)是一組將研究對象分為相對同質(zhì)的群組(clusters)的統(tǒng)計分析技術(shù)。聚類分析也叫分類分析(classification analysis)或數(shù)值分類(numerical taxonomy)。聚類與分類的不同在于,聚類所要求劃分的類是未知的。 聚類分析計算方法主要有:層次的方法(hierarchical method)、劃分方法(partition
3、ing method)、基于密度的方法(density-based method)、基于網(wǎng)格的方法(grid-based method)、基于模型的方法(model-based method)等。其中,前兩種算法是利用統(tǒng)計學(xué)定義的距離進(jìn)行度量。 常見的聚類方法有:K-pototypes算法,K-Means算法,CLARANS算法(劃分方法),BIRCH算法(層次方法),CURE算法(層次方法),DBSCAN算法(基于密度的方法),CLIQUE算法(綜合了基于密度和基于網(wǎng)格的算法);k-means 算法的工作過程說明如下:首先從n個數(shù)據(jù)對象任意選擇 k 個對象作為初始聚類中心;而對于所剩下其它對
4、象,則根據(jù)它們與這些聚類中心的相似度(距離),分別將它們分配給與其最相似的(聚類中心所代表的)聚類;然后再計算每個所獲新聚類的聚類中心(該聚類中所有對象的均值);不斷重復(fù)這一過程直到標(biāo)準(zhǔn)測度函數(shù)開始收斂為止。一般都采用均方差作為標(biāo)準(zhǔn)測度函數(shù). k個聚類具有以下特點:各聚類本身盡可能的緊湊,而各聚類之間盡可能的分開。 其流程如下: (1)從 n個數(shù)據(jù)對象任意選擇 k 個對象作為初始聚類中心; (2)根據(jù)每個聚類對象的均值(中心對象),計算每個對象與這些中心對象的距離;并根據(jù)最小距離重新對相應(yīng)對象進(jìn)行劃分; (3)重新計算每個(有變化)聚類的均值(中心對象); (4)循環(huán)(2)、(3)
5、直到每個聚類不再發(fā)生變化為止(標(biāo)準(zhǔn)測量函數(shù)收斂)。 優(yōu)點:本算法確定的K 個劃分到達(dá)平方誤差最小。當(dāng)聚類是密集的,且類與類之間區(qū)別明顯時,效果較好。對于處理大數(shù)據(jù)集,這個算法是相對可伸縮和高效的,計算的復(fù)雜度為 O(NKt),其中N是數(shù)據(jù)對象的數(shù)目,K是聚類中心,t是迭代的次數(shù)。缺點:1. K 是事先給定的,但非常難以選定;2. 初始聚類中心的選擇對聚類結(jié)果有較大的影響。 3.數(shù)據(jù)標(biāo)準(zhǔn)化技術(shù)是將數(shù)據(jù)按比例縮放,使之落入一個小的特定區(qū)間。去除數(shù)據(jù)的單位限制,將其轉(zhuǎn)化為無量綱的純數(shù)值,便于不同單位或量級的指標(biāo)能夠進(jìn)行比較和加權(quán)。常用的方法有:(1)總和標(biāo)準(zhǔn)化。分別求出各要素所對應(yīng)的數(shù)據(jù)的總和,以各
6、要素的數(shù)據(jù)除以該要素的數(shù)據(jù)的總和,即 4.缺失值處理方法1) 直接丟棄含缺失數(shù)據(jù)的記錄如:個案剔除法,這種方法卻有很大的局限性。它是以減少樣本量來換取信息的完備,會造成資源的大量浪費,丟棄了大量隱藏在這些對象中的信息。當(dāng)缺失數(shù)據(jù)所占比例較大,特別是當(dāng)缺數(shù)據(jù)非隨機(jī)分布時,這種方法可能導(dǎo)致數(shù)據(jù)發(fā)生偏離,從而得出錯誤的結(jié)論。2)補(bǔ)缺A. 用平均值來代替所有缺失數(shù)據(jù):均值替換法,均值替換法也是一種簡便、快速的缺失數(shù)據(jù)處理方法。使用均值替換法插補(bǔ)缺失數(shù)據(jù),對該變量的均值估計不會產(chǎn)生影響。但這種方法是建立在完全隨機(jī)缺失(MCAR)的假設(shè)之上的,而且會造成變量的方差和標(biāo)準(zhǔn)差變小。B. K -最近距離鄰居法:
7、先根據(jù)歐式距離或相關(guān)分析來確定距離具有缺失數(shù)據(jù)樣本最近的K個樣本,將這K個值加權(quán)平均來估計該樣本的缺失數(shù)據(jù)。C.用預(yù)測模型來預(yù)測每一個缺失數(shù)據(jù):該方法最大限度地利用已知的相關(guān)數(shù)據(jù),是比較流行的缺失數(shù)據(jù)處理技術(shù)。如:回歸替換法,該方法也有諸多弊端,第一,容易忽視隨機(jī)誤差,低估標(biāo)準(zhǔn)差和其他未知性質(zhì)的測量值,而且這一問題會隨著缺失信息的增多而變得更加嚴(yán)重。第二,研究者必須假設(shè)存在缺失值所在的變量與其他變量存在線性關(guān)系,很多時候這種關(guān)系是不存在的。 5.Apriori算法和信息熵信息熵是數(shù)學(xué)中一個抽象的概念,他表示了信息源的不確定度,這里不妨把信息熵理解成某種特定信息的出現(xiàn)概率,當(dāng)一種信息出現(xiàn)概率更高
8、的時候,表明它被傳播得更廣泛,或者說,被引用的程度更高。我們可以認(rèn)為,從信息傳播的角度來看,信息熵可以表示信息的價值。支持度:Support(A->B)=P(A U B)。支持度揭示了A與B同時出現(xiàn)的概率。如果A與B同時出現(xiàn)的概率小,說明A與B的關(guān)系不大;如果A與B同時出現(xiàn)的非常頻繁,則說明A與B總是相關(guān)的。置信度(Confidence)的公式式:Confidence(A->B)=P(A | B)。置信度揭示了A出現(xiàn)時,B是否也會出現(xiàn)或有多大概率出現(xiàn)。如果置信度度為100%,則A和B可以捆綁銷售了。如果置信度太低,則說明A的出現(xiàn)與B是否出現(xiàn)關(guān)系不大。H(x) = EI(xi) =
9、E log(2,1/p(xi) = -p(xi)log(2,p(xi) (i=1,2,.n),單位是bit.其中,x表示隨機(jī)變量,與之相對應(yīng)的是所有可能輸出的集合,定義為符號集,隨機(jī)變量的輸出用x表示。P(x)表示輸出概率函數(shù)。變量的不確定性越大,熵也就越大,把它搞清楚所需要的信息量也就越大.以頻繁項集I1,I2,I3為例產(chǎn)生強(qiáng)關(guān)聯(lián)規(guī)則,最小置信度為40%(1) 頻繁項集I1,I2,I3的非空子集有I1,I2,I1,I3,I2,I3,I1,I2,I3(2) 產(chǎn)生強(qiáng)關(guān)聯(lián)規(guī)則I1,I2=>I3 confidence=support(I1,I2,I3)/support(I1,I2)=2/4=0
10、.5I1,I3=>I2 confidence=support(I1,I2,I3)/support(I1,I3)=2/4=0.5I2,I3=>I1 confidence=support(I1,I2,I3)/support(I2,I3)=2/4=0.5I1=>I2,I3 confidence=support(I1,I2,I3)/support(I1)=2/6=0.33I2=>I1,I3 confidence=support(I1,I2,I3)/support(I2)=2/7=0.29I3=>I1,I2 confidence=support(I1,I2,I3)/supp
11、ort(I3)=2/6=0.33則強(qiáng)關(guān)聯(lián)規(guī)則為:I1,I2=>I3;I1,I3;I2,I3=>I13、根據(jù)要求寫出SQL (沒有學(xué)習(xí)過,之后的學(xué)習(xí)中需要補(bǔ))表A結(jié)構(gòu)如下: Member_ID (用戶的ID,字符型) Log_time (用戶訪問頁面時間,日期型(只有一天的數(shù)據(jù)) URL (訪問的頁面地址,字符型) 要求:提取出每個用戶訪問的第一個URL(按時間最早),形成一個新表(新表名為B,表結(jié)構(gòu)和表A一致) 參考答案: create table B as select Member_ID, min(Log_time), URL from A group by Member_ID
12、 ; 5、用戶調(diào)研 某公司針對A、B、C三類客戶,提出了一種統(tǒng)一的改進(jìn)計劃,用于提升客戶的周消費次數(shù),需要你來制定一個事前試驗方案,來支持決策,請你思考下列問題: a) 試驗需要為決策提供什么樣的信息? c) 按照上述目的,請寫出你的數(shù)據(jù)抽樣方法、需要采集的數(shù)據(jù)指標(biāo)項,以及你選擇的統(tǒng)計方法。 a) 試驗要能證明該改進(jìn)計劃能顯著提升A、B、C三類客戶的周消費次數(shù)。 b) 根據(jù)三類客戶的數(shù)量,采用分層比例抽樣; 需要采集的數(shù)據(jù)指標(biāo)項有:客戶類別,改進(jìn)計劃前周消費次數(shù),改進(jìn)計劃后周消費次數(shù); 選用統(tǒng)計方法為:分別針對A、B、C三類客戶,進(jìn)行改進(jìn)前和后的周消費次數(shù)的,兩獨立樣本T-檢驗6.常見的抽樣方
13、法有哪些?常用的有以下六種類型:簡單抽樣(Simple sampling)即簡單隨機(jī)抽樣,指保證大小為n的每個可能的樣本都有相同的被抽中的概率。例如:按照“抽簽法”、“隨機(jī)表”法抽取訪問對象,從單位人名目錄中抽取對象。優(yōu)點:隨機(jī)度高,在特質(zhì)較均一的總體中,具有很高的總體代表度;是最簡單的抽樣技術(shù),有標(biāo)準(zhǔn)而且簡單的統(tǒng)計公式。缺點:未使用可能有用的抽樣框輔助信息抽取樣本,可能導(dǎo)致統(tǒng)計效率低;有可能抽到一個“差”的樣本,使抽出的樣本分布不好,不能很好地代表總體。系統(tǒng)抽樣(Systematic random sampling)將總體中的各單元先按一定順序排列,并編號,然后按照不一定的規(guī)則抽樣。其中最常
14、采用的是等距離抽樣,即根據(jù)總體單位數(shù)和樣本單位計算出抽樣距離(即相同的間隔),然后按相同的距離或間隔抽選樣本單位。例如:從1000個電話號碼中抽取10個訪問號碼,間距為100,確定起點(起點間距)后每100號碼抽一訪問號碼。優(yōu)點:兼具操作的簡便性和統(tǒng)計推斷功能,是目前最為廣泛運(yùn)用的一種抽樣方法。如果起點是隨機(jī)確定的,總體中單元排列是隨機(jī)的,等距抽樣的效果近似簡單抽樣;與簡單抽樣相比,在一定條件下,樣本的分布較好。缺點:抽樣間隔可能遇到總體中某種未知的周期性,導(dǎo)致“差”的樣本;未使用可能有用的抽樣框輔助信息抽取樣本,可能導(dǎo)致統(tǒng)計效率低。分層抽樣(Stratified random samplin
15、g)是把調(diào)查總體分為同質(zhì)的、互不交叉的層(或類型),然后在各層(或類型)中獨立抽取樣本。例如:調(diào)查零售店時,按照其規(guī)模大小或庫存額大小分層,然后在每層中按簡單隨機(jī)方法抽取大型零售店若干、中型若干、小型若干;調(diào)查城市時,按城市總?cè)丝诨蚬I(yè)生產(chǎn)額分出超大型城市、中型城市、小型城市等,再抽出具體的各類型城市若干。優(yōu)點:適用于層間有較大的異質(zhì)性,而每層內(nèi)的個體具有同質(zhì)性的總體,能提高總體估計的精確度,在樣本量相同的情況下,其精度高于簡單抽樣和系統(tǒng)抽樣;能保證“層”的代表性,避免抽到“差”的樣本;同時,不同層可以依據(jù)情況采用不同的抽樣框和抽樣方法。缺點:要求有高質(zhì)量的、能用于分層的輔助信息;由于需要輔助
16、信息,抽樣框的創(chuàng)建需要更多的費用,更為復(fù)雜;抽樣誤差估計比簡單抽樣和系統(tǒng)抽樣更復(fù)雜。整群抽樣(Cluster sampling)(層層深入抽樣,不斷縮小抽樣的范圍)是先將調(diào)查總體分為群,然后從中抽取群,對被抽中群的全部單元進(jìn)行調(diào)查。例如:入戶調(diào)查,按地塊或居委會抽樣,以地塊或居委會等有地域邊界的群體為第一抽樣單位,在選出的地塊或居委會實施逐戶抽樣;市場調(diào)查中,最后一級抽樣時,從居委會中抽取若干戶,然后調(diào)查抽中戶家中所有18歲以上成年人。優(yōu)點:適用于群間差異小、群內(nèi)各個體差異大、可以依據(jù)外觀的或地域的差異來劃分的群體。缺點:群內(nèi)單位有趨同性,其精度比簡單抽樣為低。前面談到抽樣方法的一些基本分類和
17、各自特點,需要注意的是,在實際的運(yùn)用中,一個調(diào)查方案 常常不是只局限于使用某一種抽樣方式,而根據(jù)研究時段的不同采用多種抽樣方法的組鴿為實現(xiàn)不同的研究目的,有時甚至在同一時段綜合運(yùn)用幾種抽樣方法。例如,設(shè)計一個全國城市的入戶項目,在抽樣上可以分為幾個不同的步驟,包括:1)在項目正式開始前,可以采用判斷抽樣法選出某一城市先作試點,在問卷設(shè)計初期可以采用任意抽樣法選出部分人群進(jìn)行問卷試訪。2)采用分層隨機(jī)抽樣法,確定全國要分別在多少個超大型市、多少個中型市、多少個小型市實施(先分出城市的幾個層次,再依據(jù)研究需要在各層用PPS法選取具體城市)3)采用簡單抽樣法或PPS抽樣法,確定抽出城市中應(yīng)抽的地塊或
18、居委會;4)采用整群抽樣法,確定抽出地塊或居委會應(yīng)訪問的家庭戶;5)在項目后期,可以采用判斷抽樣法選取某城市進(jìn)行深入研究。8.置信度與置信區(qū)間P(x1<x<x2)=1-a,稱1-a為置信度,x1,x2為置信區(qū)間置信度越大,置信區(qū)間越寬;置信區(qū)間越寬,置信度越大;置信度越小,置信區(qū)間越窄9.ROC曲線及含義ROC曲線指受試者工作特征曲線(receiver operating characteristic curve), 是反映敏感性和特異性連續(xù)變量的綜合指標(biāo),是用構(gòu)圖法揭示敏感性和特異性的相互關(guān)系,它通過將連續(xù)變量設(shè)定出多個不同的臨界值,從而計算出一系列敏感性和特異性,再以敏感性為縱
19、坐標(biāo)、(1-特異性)為橫坐標(biāo)繪制成曲線,曲線下面積越大,診斷準(zhǔn)確性越高。在ROC曲線上,最靠近坐標(biāo)圖左上方的點為敏感性和特異性均較高的臨界值。10.數(shù)據(jù)挖掘步驟 理解數(shù)據(jù)和數(shù)據(jù)的來源(understanding)。 獲取相關(guān)知識與技術(shù)(acquisition)。 整合與檢查數(shù)據(jù)(integration and checking)。 去除錯誤或不一致的數(shù)據(jù)(data cleaning)。 建立模型和假設(shè)(model and hypothesis development)。 實際數(shù)據(jù)挖掘工作(data mining)。 測試和驗證挖掘結(jié)果(testing and verfication)。 解釋和
20、應(yīng)用(interpretation and use)。11.如何評估促銷活動?11. Bayes公式(全概率公式)探索在已知結(jié)果的情況下,是由哪種原因引起的概率;12. 邏輯回歸(分類問題)邏輯回歸適合求解哪些問題:邏輯回歸本質(zhì)上解決的是分類問題,Logistic回歸的主要用途:· 尋找危險因素:尋找某一疾病的危險因素等;· 預(yù)測:根據(jù)模型,預(yù)測在不同的自變量情況下,發(fā)生某病或某種情況的概率有多大;· 判別:實際上跟預(yù)測有些類似,也是根據(jù)模型,判斷某人屬于某病或?qū)儆谀撤N情況的概率有多大,也就是看一下這個人有多大的可能性是屬于某病。11. 線性回歸線性回歸(一元和多
21、元)中對誤差的假設(shè)都是假定服從均值為0方差為定值的正態(tài)分布,擬合系數(shù)的求解方法可以有最小二乘法梯度下降法等。關(guān)于殘差的假設(shè)為:零均值,同方差,正態(tài)性,不相關(guān),樣本隨機(jī)?;貧w分析的自變量為連續(xù)性變量,而方差分析的自變量為離散型分類變量;廣義線性回歸于線性回歸的最大區(qū)別是隨機(jī)誤差的分布不一定是正態(tài)分布,與非線性模型的最大區(qū)別是非線性回歸無明確的隨機(jī)誤差分布假定。12. 過擬合現(xiàn)象以及避免的方法所謂過擬合問題:過擬合反映的是在學(xué)習(xí)訓(xùn)練中,模型對訓(xùn)練樣本達(dá)到非常高的逼近精度, 為了能夠?qū)颖就耆_的分類,使得它的構(gòu)造如此精細(xì)復(fù)雜,規(guī)則如此嚴(yán)格,以至于任何與樣本數(shù)據(jù)稍有不同的文檔它全都認(rèn)為不屬于這個類
22、別,在測試數(shù)據(jù)上往往顯示出很差的效果.產(chǎn)生過擬合是因為:1.由于對樣本數(shù)據(jù),可能存在隱單元的表示不唯一,即產(chǎn)生的分類的決策面不唯一.2.權(quán)值學(xué)習(xí)迭代次數(shù)足夠多(Overtraining),擬合了訓(xùn)練數(shù)據(jù)中的噪聲和訓(xùn)練樣例中沒有代表性的特征.過度擬合解決方法:1.權(quán)值衰減. 它在每次迭代過程中以某個小因子降低每個權(quán)值 ,此方法的動機(jī)是保持權(quán)值較小,避免weight decay,從而使學(xué)習(xí)過程向著復(fù)雜決策面的反方向偏。2. 減少特征的數(shù)量,有人工選擇,或者采用模型選擇算法3.驗證數(shù)據(jù) 一個最成功的方法是在訓(xùn)練數(shù)據(jù)外再為算法提供一套驗證數(shù)據(jù)
23、,應(yīng)該使用在驗證集合上產(chǎn)生最小誤差的迭代次數(shù),不是總能明顯地確定驗證集合何時達(dá)到最小誤差.4.Cross-validation with some patterns 交叉驗證方法在可獲得額外的數(shù)據(jù)提供驗證集合時工作得很好,但是小訓(xùn)練集合的過度擬合問題更為嚴(yán)重. k-fold交叉方法: 把訓(xùn)練樣例分成k份,然后進(jìn)行k次交叉驗證過程,每次使用不同的一份作為驗證集合,其余k-1份合并作為訓(xùn)練集合.每個樣例會在一次實驗中被用作驗證樣例,在k-1次實驗中被用作訓(xùn)練樣例;5.正則化方法正則化是結(jié)構(gòu)風(fēng)險最小化策略的實現(xiàn),是在經(jīng)驗風(fēng)險上加一個正則化項或懲罰項。正則化項一般是模型復(fù)雜度的單調(diào)遞增函數(shù),模型越復(fù)雜,正則化項就越大,正則化方法的作用是:保留所有特征但減小參數(shù)的取值。13. 監(jiān)督學(xué)習(xí)與非監(jiān)督學(xué)習(xí)有監(jiān)督學(xué)習(xí):對具有概念標(biāo)記(分
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 石砌體臺階施工方案
- 管涵橋施工方案
- 2025年度智能家居產(chǎn)品傭金支付及智能家居服務(wù)合同
- 二零二五年度事業(yè)單位聘用合同:事業(yè)單位物業(yè)管理人員崗位服務(wù)合同
- 二零二五年度文化旅游產(chǎn)業(yè)合作終止合同
- 二零二五年度公司股東內(nèi)部關(guān)于戰(zhàn)略合作的框架協(xié)議
- 2025年度服裝廠員工保密與競業(yè)禁止合同
- 2025年度洗浴場所員工激勵機(jī)制與雇傭協(xié)議
- 二零二五年度物聯(lián)網(wǎng)設(shè)備技術(shù)顧問服務(wù)協(xié)議
- 二零二五年度耕作地清理與農(nóng)業(yè)標(biāo)準(zhǔn)化生產(chǎn)合同
- GB/T 2572-2005纖維增強(qiáng)塑料平均線膨脹系數(shù)試驗方法
- 2023年江蘇省中學(xué)生生物奧林匹克競賽試題及答案
- 領(lǐng)導(dǎo)干部應(yīng)對新媒體時代
- 維修質(zhì)量檢驗制度
- 食管支架植入術(shù)后護(hù)理課件
- 品質(zhì)控制計劃(QC工程圖)
- 海外派遣人員管理辦法
- 混凝土灌注樁質(zhì)量平行檢查記錄(鋼筋籠)
- 汽車營銷學(xué)(全套課件)
- 現(xiàn)澆墩臺身軸線偏位、全高豎直度檢測記錄表
- 激光共聚焦顯微鏡校準(zhǔn)規(guī)范編制說明
評論
0/150
提交評論