版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領
文檔簡介
第9章機器學習入門《Python數(shù)據(jù)分析與應用:從數(shù)據(jù)獲取到可視化(第2版)》學習目標/Target
了解機器學習,能夠說出什么是機器學習
熟悉機器學習的基本概念,能夠歸納機器學習涉及的基本概念
了解機器學習算法的分類,能夠區(qū)分監(jiān)督學習、無監(jiān)督學習和強化學習學習目標/Target
了解機器學習解決問題的流程,能夠說出機器學習解決問題的流程
熟悉機器學習庫scikit-learn,能夠列舉至少3個scikit-learn模塊和數(shù)據(jù)集
掌握KNN算法,能夠使用scikit-learn的API實現(xiàn)KNN算法章節(jié)概述/Summary在這個數(shù)據(jù)為王的時代,海量數(shù)據(jù)已經遠遠超出了直接計算的可能性,我們若想要從海量的數(shù)據(jù)中高效地提取有價值的信息,需要用到專門的學習算法,這就是機器學習的作用所在。本章為大家介紹機器學習的相關內容,相信你們會驚嘆機器學習的神奇并為之著迷的。目錄/Contents01機器學習簡介02KNN算法03案例:預測簽到位置機器學習簡介9.19.1.1
什么是機器學習了解機器學習,能夠說出什么是機器學習學習目標9.1.1
什么是機器學習機器學習(MachineLearning,簡稱ML),從字面意思來看,就是讓機器(包括計算機、電子計算機、中子計算機、光子計算機、神經計算機等)具備和人類一樣的學習能力,包括決策、推理、認知、識別等智能行為。概念9.1.1
什么是機器學習所謂的“學習”是什么意思呢?學習的定義9.1.1
什么是機器學習湯姆·米切爾(TomMichaelMitchell)于1997年提供了一個簡潔的定義:對于某類任務T和性能度量P,一個計算機程序被認為可以從經驗E中學習,通過經驗E改進后,它在任務T上由性能度量衡量的性能有所提升。學習的定義9.1.1
什么是機器學習學習的3個要素湯姆·米切爾(TomMichaelMitchell)定義“學習”時,提到三個概念,分別是任務T、訓練經驗E和性能目標P,這三個概念是構建機器學習算法的核心要素。概念中國象棋程序任務T人機對弈性能目標P比賽中擊敗對手的概率訓練經驗E和機器對弈9.1.2
機器學習的基本概念熟悉機器學習的基本概念,能夠歸納機器學習涉及的基本概念學習目標9.1.2
機器學習的基本概念鳶尾花數(shù)據(jù)集在機器學習領域有一個著名的鳶尾花數(shù)據(jù)集,該數(shù)據(jù)集記錄了三類鳶尾花,分別是變色鳶尾花(IrisVersicolour)、山鳶尾花(IrisSetosa)和維吉尼亞鳶尾花(IrisVirginica)。9.1.2
機器學習的基本概念鳶尾花數(shù)據(jù)集在鳶尾花數(shù)據(jù)中,每一類鳶尾花收集了50條記錄,每條記錄代表的是一朵花的數(shù)據(jù),整個鳶尾花數(shù)據(jù)集共150條記錄。每一條記錄包括4個屬性,分別是萼片長度、萼片寬度、花瓣長度和花瓣寬度。萼片長度(cm)萼片寬度(cm)花瓣長度(cm)花瓣寬度(cm)種類4.931.40.206.13.24.71.415.935.11.820、1、2分別代表山鳶尾花、變色鳶尾花和維吉尼亞鳶尾花。9.1.2
機器學習的基本概念基本概念簡單來說,就是數(shù)據(jù)的集合。例如,鳶尾花數(shù)據(jù)集就是150個鳶尾花卉植物不同部分測量結果的集合。大部分機器學習算法的經驗就是從數(shù)據(jù)集上獲取的。1.
數(shù)據(jù)集(dataset)數(shù)據(jù)集的每一行數(shù)據(jù)稱為一個樣本,數(shù)據(jù)集有多少行,就代表有多少個樣本。2.
樣本(sample)9.1.2
機器學習的基本概念基本概念
3.
特征(feature)9.1.2
機器學習的基本概念基本概念
4.
標簽(label)9.1.2
機器學習的基本概念基本概念分別以每個特征作為一個坐標軸,所有特征所在坐標軸組成的一個用于描述不同樣本的空間,稱為特征空間。5.
特征空間(featurespace)9.1.2
機器學習的基本概念基本概念在特征空間中,每個樣本對應空間中的一個點,也稱為樣本點,每個樣本點對應特征空間的一個向量,稱為特征向量。通常情況下,特征向量是一個列向量。6.
特征向量9.1.3
機器學習算法的分類了解機器學習算法的分類,能夠區(qū)分監(jiān)督學習、無監(jiān)督學習和強化學習學習目標9.1.3
機器學習算法的分類3個分類根據(jù)數(shù)據(jù)集組成不同,可以把機器學習的算法主要分為監(jiān)督學習、無監(jiān)督學習和強化學習。9.1.3
機器學習算法的分類監(jiān)督學習監(jiān)督學習指的是利用一組已知類別的樣本作為訓練集,調整分類器的參數(shù),使其達到所要求性能的過程,也稱為監(jiān)督訓練。9.1.3
機器學習算法的分類監(jiān)督學習在監(jiān)督學習中,每個實例都是由一個輸入對象和一個期望的輸出值組成的,它是通過分析訓練數(shù)據(jù),從而產生一個推斷功能,其可以用于映射出新的實例。監(jiān)督學習根據(jù)輸出值的不同主要分為回歸和分類兩類問題,若輸出值是一個連續(xù)值,則屬于回歸問題;若輸出值是一個離散值,則屬于分類問題。9.1.3
機器學習算法的分類無監(jiān)督學習現(xiàn)實生活中常常有這樣的問題,缺乏足夠的先驗知識,難以人工標注類別或者進行人工類別標注的成本太高,很自然的,我們希望計算機能代我們完成這些工作,或者至少提供一些幫助。根據(jù)類別未知的訓練樣本解決模式識別中的各類問題,稱為無監(jiān)督學習。9.1.3
機器學習算法的分類無監(jiān)督學習21聚類針對數(shù)據(jù)的相似性和差異性將一組數(shù)據(jù)分為幾個類別,屬于同一個類別的數(shù)據(jù)間的相似性很大,但不類別之間數(shù)據(jù)的相似性很小,跨類的數(shù)據(jù)關聯(lián)性很低。聚類問題關聯(lián)規(guī)則則是隱藏在數(shù)據(jù)項之間的關聯(lián)或者相互關系,我們可以通過一個數(shù)據(jù)項的出現(xiàn)推導出其他數(shù)據(jù)項的出現(xiàn)。關聯(lián)規(guī)則問題9.1.3
機器學習算法的分類強化學習強化學習又稱再勵學習、評價學習,是一種重要的機器學習方法,它是從動物學習、參數(shù)擾動自適應控制等理論發(fā)展而來。9.1.3
機器學習算法的分類強化學習圖中涉及五個元素,分別是Agent、環(huán)境、狀態(tài)、動作、獎賞,其中Agent選擇一個動作用于環(huán)境,環(huán)境接收該動作后狀態(tài)發(fā)生變化,同時產生一個強化信號反饋給Agnet,Agent根據(jù)強化信號和環(huán)境當前的狀態(tài)再選擇下一個動作,選擇的原則是使受到獎勵的概率增大。強化學習的基本原理9.1.3
機器學習算法的分類強化學習Agent環(huán)境獎勵9.1.4
機器學習解決問題的流程了解機器學習解決問題的流程,能夠說出機器學習解決問題的流程學習目標9.1.4
機器學習解決問題的流程隨著大數(shù)據(jù)時代的到來,機器學習成為解決問題的一種重要而且關鍵的工具。對于任何一個打算由機器學習來解決的問題,都存在一種“套路”,只要我們按照這種“套路”執(zhí)行,必然會得到一個結果。9.1.4
機器學習解決問題的流程工作流程數(shù)據(jù)搜集的數(shù)量越多,后期所做出的預測或者判斷會更精準9.1.4
機器學習解決問題的流程工作流程這個過程包括特征選擇、特征構建、特征提取和特征選擇等模塊。9.1.4
機器學習解決問題的流程工作流程“模型”可以簡單理解為函數(shù)9.1.4
機器學習解決問題的流程注意事項我們搜集的原始數(shù)據(jù)最好分為兩部分,其中80%的數(shù)據(jù)作為訓練數(shù)據(jù),保留20%的數(shù)據(jù)作為驗證數(shù)據(jù)。9.1.4
機器學習解決問題的流程多學一招:過擬合和欠擬合當模型設計過于復雜時,由于擬合過程中過度考慮數(shù)據(jù)中的細節(jié),甚至使用了許多噪聲,使得模型過分依賴訓練數(shù)據(jù),導致模型在新數(shù)據(jù)集上的表現(xiàn)很差,這種情況稱為過擬合的現(xiàn)象。9.1.4
機器學習解決問題的流程多學一招:過擬合和欠擬合當模型設計過于簡單時,由于沒有充分考慮數(shù)據(jù)集中的特征,使得模型的擬合能力不強,導致模型在訓練數(shù)據(jù)集和測試數(shù)據(jù)集上表現(xiàn)都很差,這種情況稱為欠擬合的現(xiàn)象。9.1.5
認識機器學習庫scikit-learn熟悉機器學習庫scikit-learn,能夠列舉至少3個scikit-learn的模塊和數(shù)據(jù)集學習目標9.1.5
認識機器學習庫scikit-learnscikit-learn(也稱為sklearn)是機器學習領域中非常熱門的基于Python語言的開源庫,它依賴于NumPy、pandas、sciPy、matplotlib等一些擴展庫,不僅涵蓋了一些有助于初學者學習機器學習的經典樣例數(shù)據(jù)集,而且擁有很多用于回歸、分類、聚類等問題的高效算法,包括支持向量機、隨機森林、梯度提升、k均值和DBSCAN等,同時還提供了預處理、模型擬合、模型評估等一些功能,功能十分強大。概念9.1.5
認識機器學習庫scikit-learn常用模塊模塊名說明base包含所有估計器的基類和常用函數(shù)calibration包含一些用于預測概率校準的類和函數(shù)cluster包含常用的無監(jiān)督聚類算法實現(xiàn)covariance包含用于估計給定點集協(xié)方差的算法實現(xiàn)cross_decomposition主要包含偏最小二乘法和經典相關分析算法的實現(xiàn)datasets包含加載常用參考數(shù)據(jù)集和生成模擬數(shù)據(jù)的工具decomposition包含矩陣分解算法的實現(xiàn),比如主成分分析(PCA)、非負矩陣分解(NMF)、獨立成分分析(ICA)等discriminant_analysis主要包含線型判別分析(LDA)和二次判別分析(QDA)算法dummy包含使用簡單規(guī)則的分類器和回歸器,可以作為比較其他真實分類器和回歸器好壞的基線,不直接用于實際問題ensemble包含用于分類、回歸和異常檢測的集成方法9.1.5
認識機器學習庫scikit-learn常用模塊模塊名說明feature_selection包含特征選擇算法的實現(xiàn),目前有單變量過濾選擇方法和遞歸特征消除算法kernel_approximation實現(xiàn)了幾個基于傅里葉變換的近似核特征映射kernel_ridge實現(xiàn)了核嶺回歸(KRR)metrics包含評分函數(shù)、性能度量、成對度量和距離計算model_selection實現(xiàn)了多個交叉驗證器類,以及用于學習曲線、數(shù)據(jù)集分割的函數(shù)naive_bayes實現(xiàn)了樸素貝葉斯算法neighbors
實現(xiàn)了K近鄰算法inspection包含用于模型檢測的工具svm實現(xiàn)了支持向量機算法utils包含一些常用工具,比如查找所有正數(shù)中最小值的函數(shù)、計算稀疏向量密度的函數(shù)9.1.5
認識機器學習庫scikit-learn常用數(shù)據(jù)集數(shù)據(jù)集說明load_breast_cancer腫瘤數(shù)據(jù)集,特征為連續(xù)值變量,標簽為0或1的二分類任務load_iris鳶尾花數(shù)據(jù)集,特征為連續(xù)值變量,標簽為0、1、2的三分類任務,且各類樣本數(shù)量均衡,均為50個load_wine紅酒數(shù)據(jù)集,與鳶尾花數(shù)據(jù)集的特點類似,也適用于連續(xù)特征的3分類任務,不同之處在于各類樣本數(shù)量輕微不均衡load_digits小型手寫數(shù)字數(shù)據(jù)集,特征是離散值變量,包含0~9共10種標簽,各類樣本數(shù)量均衡load_boston波士頓房價數(shù)據(jù)集,連續(xù)特征擬合房價,適用于回歸任務KNN算法9.29.2.1
KNN算法的思想掌握KNN算法的思想,能夠復述出KNN算法的實現(xiàn)思想學習目標9.2.1
KNN算法的思想KNN(K-NearestNeighbor)算法又稱為K近鄰算法,它思想簡單、應用數(shù)學知識少,非常適合作為初學者接觸機器學習的入門算法,通常被應用在分類或回歸的場景中。概念如果一個樣本在特征空間中的K個最相鄰的樣本中,大多數(shù)屬于某個類別,則該樣本屬于該類別。思想9.2.1
KNN算法的思想診斷腫瘤的場景假設有一個描述腫瘤類型的特征空間,該特征空間共有9個腫瘤樣本。9.2.1
KNN算法的思想診斷腫瘤的場景?如果此時有一個未知樣本,該如何判斷這個樣本表示的腫瘤是良性還是惡性呢?9.2.1
KNN算法的思想診斷腫瘤的場景先取一個K值,假設K=3,意味著要尋找距離未知樣本最近的3個樣本。9.2.1
KNN算法的思想診斷腫瘤的場景由于距離未知樣本最近的3個樣本都是惡性腫瘤,所以KNN算法會將未知樣本劃分為惡性腫瘤。9.2.1
KNN算法的思想診斷腫瘤的場景如果再次出現(xiàn)了一個未知樣本,這個樣本表示的腫瘤是良性還是惡性呢??9.2.1
KNN算法的思想診斷腫瘤的場景?K=3同樣使K=3,離未知樣本最近的有2個良性腫瘤和1個惡性腫瘤,KNN算法會將未知樣本劃分為良性腫瘤。9.2.2
使用sklearn實現(xiàn)KNN算法掌握KNeighborsClassifier類的功能,能夠通過KNeighborsClassifier類的功能實現(xiàn)KNN算法學習目標9.2.2
使用sklearn實現(xiàn)KNN算法語法格式sklearn.neighbors模塊中主要提供了KNeighborsClassifier類,該類封裝了KNN算法的相關功能。__init__(self,n_neighbors=5,weights='uniform',algorithm='auto',leaf_size=30,p=2,metric='minkowski',metric_params=None,n_jobs=1,**kwargs)n_neighbors:用于指定K值,表示選擇多少個距離最小的樣本,默認值是5。weights:表示距離權重,可能的取值有'Uniform'和'Distance','Uniform'是默認值,表示每個領域內的所有樣本點具有相同的權重;'Distance'使用距離的倒數(shù)作為權重,距離越小,權重越大。除此之外,weights參數(shù)的值還可以是自定義可調用對象,接收包含距離的數(shù)組,返回包含權重的同樣形狀的數(shù)組。9.2.2
使用sklearn實現(xiàn)KNN算法語法格式sklearn.neighbors模塊中主要提供了KNeighborsClassifier類,該類封裝了KNN算法的相關功能。__init__(self,n_neighbors=5,weights='uniform',algorithm='auto',leaf_size=30,p=2,metric='minkowski',metric_params=None,n_jobs=1,**kwargs)algorithm:計算最近鄰使用的算法,可能的取值有'brute'、'ball_tree'、'kd_tree'和'auto',其中'brute'表示計算未知樣本與所有樣本的距離;'ball_tree'表示通過構建球樹加速尋找最近鄰樣本的過程;'kd_tree'表示通過構建KD樹加速尋找最近鄰樣本的過程;'auto'表示自動選擇最合適的算法。leaf_size:BallTree和KDTree算法中使用的葉子大小,對構造和查詢素材以及存儲樹需要的內存空間有影響。9.2.2
使用sklearn實現(xiàn)KNN算法語法格式sklearn.neighbors模塊中主要提供了KNeighborsClassifier類,該類封裝了KNN算法的相關功能。__init__(self,n_neighbors=5,weights='uniform',algorithm='auto',leaf_size=30,p=2,metric='minkowski',metric_params=None,n_jobs=1,**kwargs)metric:距離計算公式,默認使用閔可夫斯基距離。p:對應于閔可夫斯基距離計算公式中的p,若p=1表示曼哈頓距離,若p=2時表示歐幾里得距離。9.2.3
超參數(shù)掌握KNN算法超參數(shù)的調優(yōu)方式,能夠尋找比較好的超參數(shù)K、weights以及p學習目標9.2.3
超參數(shù)大多數(shù)機器學習算法都有超參數(shù)(Hyperparameters),簡單來說,超參數(shù)指的是在模型訓練之前要設置的參數(shù),用來控制算法行為。概念在KNN算法中,常用的超參數(shù)有三個,分別是K值、距離權重weights以及閔可夫斯基距離計算公式中的p,這三個參數(shù)都在KNeighborsClassifier類的構造方法中。常用超參數(shù)9.2.3
超參數(shù)準備數(shù)據(jù)集導入腫瘤分類數(shù)據(jù)集,并將數(shù)據(jù)集分割為訓練數(shù)據(jù)集和測試數(shù)據(jù)集。fromsklearn.datasetsimportload_breast_cancerfromsklearn.model_selectionimporttrain_test_splitfromsklearn.neighborsimportKNeighborsClassifierdata=load_breast_cancer()X=data["data"]y=data["target"]X_train,X_test,y_train,y_test=train_test_split(X,y,test_size=0.2,shuffle=False)X_train.shapeX_test.shape9.2.3
超參數(shù)超參數(shù)K先將K設置為3,看一下模型的準確率。model=KNeighborsClassifier(n_neighbors=3)model.fit(X_train,y_train)model.score(X_test,y_test)9.2.3
超參數(shù)超參數(shù)K使用最簡單的循環(huán)方式,計算K值為1、2、3……10時的準確率,從而得到1~10范圍內最好的K值及對應的準確率。best_score=0.0#最高準確率best_k=-1#最好k值forkinrange(1,11):
knn_model=KNeighborsClassifier(n_neighbors=k)knn_model.fit(X_train,y_train)score=knn_model.score(X_test,y_test)ifscore>best_score:best_k=kbest_score=scoreprint("best_k=",best_k)print("best_score=",best_score)9.2.3
超參數(shù)超參數(shù)K當我們搜索最佳參數(shù)時,要考慮邊界值,例如上述計算K值時,選擇的范圍是1~10,由于不排除K取大于10的某個值時,模型準確率會更高,所以在實際操作中,我們會適當擴展K值的范圍進行再次搜索,比如,針對K為8~20的范圍再次搜索,看看有沒有可能得到更好的超參數(shù)K,這個過程就是調參的一個小技巧,大家了解即可。9.2.3
超參數(shù)超參數(shù)weights情況1K值為4的情況下,距離未知樣本最近的惡性腫瘤和良性腫瘤都是2。情況2在K值為3的情況下,距離未知樣本最近的惡性腫瘤是2個,良性腫瘤是1個,但離良性腫瘤更近。9.2.3
超參數(shù)超參數(shù)weights之所以出現(xiàn)上述問題,是因為在分類時忽略了樣本的距離權重。為了解決這種問題,KNN算法引入了考慮距離權重的超參數(shù)weights,它有Uniform和Distance兩個選項,其中Uniform是默認選項,表示所有樣本具有相同的距離權重;Distance使用距離的倒數(shù)作為權重,距離越小,權重越大。9.2.3
超參數(shù)超參數(shù)weights良性腫瘤的距離權重大于惡性腫瘤的距離權重,未知樣本劃分為良性腫瘤9.2.3
超參數(shù)超參數(shù)weights再次使用循環(huán)遍歷的方式尋找合適的超參數(shù)weights。best_score=0.0best_k=-1best_weight=""forwin["uniform","distance"]:forkinrange(1,11):
knn_model=KNeighborsClassifier(n_neighbors=k,weights=w)knn_model.fit(X_train,y_train)score=knn_model.score(X_test,y_test)ifscore>best_score:best_k=kbest_score=scorebest_weight=w9.2.3
超參數(shù)超參數(shù)p歐幾里得距離的公式曼哈頓距離的公式閔可夫斯基距離的公式超參數(shù)p可以改變我們計算距離的方式,當p的值設置為1時,表示曼哈頓距離;當p的值設置為2時,表示歐幾里得距離。9.2.3
超參數(shù)超參數(shù)pbest_score=0.0best_k=-1best_p=-1forkinrange(1,11):forpinrange(1,6):knn_model=KNeighborsClassifier(n_neighbors=k,
weights="distance",p=p)knn_model.fit(X_train,y_train)score=knn_model.score(X_test,y_test)ifscore>best_score:best_k=kbest_score=scorebest_p=p使用循環(huán)遍歷的方式繼續(xù)尋找合適的超參數(shù)p。9.2.4
網格搜索與交叉驗證掌握網格搜索的方式,能夠通過GridSearchCV類的功能實現(xiàn)網格搜索學習目標9.2.4
網格搜索與交叉驗證KNN在機器學習中是相對比較簡單算法,但是KNN的超參數(shù)并不少。如果我們使用循環(huán)遍歷的方式嘗試尋找所有超參數(shù)的最佳值,每多一個參數(shù),就要多一層循環(huán),越多的循環(huán)語句只會讓程序的執(zhí)行效率更慢。幸好sklearn幫我們準備好了對應的措施,也就是網格搜索。9.2.4
網格搜索與交叉驗證網格搜索(GridSearch)是一種窮舉搜索方法,它通過遍歷給定的參數(shù)組合來優(yōu)化模型,其原理類似在數(shù)組里面找最大值的過程。網格搜索概念9.2.4
網格搜索與交叉驗證網格搜索調參方式每一個格子就是一個網格,網格搜索就是在每個網格里面遍歷搜索,嘗試了所有參數(shù)組合后,返回一個合適的調參器,自動將參數(shù)調整至最佳參數(shù)組合。9.2.4
網格搜索與交叉驗證語法格式sklearn提供了一個網格搜索工具類GridSearchCV,它可以自動調參,只要把所有的參數(shù)可能性輸入,就會得到一個合適的調參器以及合適參數(shù)。GridSearchCV(estimator,param_grid,*,scoring=None,n_jobs=None,refit=True,cv=None,verbose=0,pre_dispatch='2*n_jobs',error_score=nan,return_train_score=False)estimator:表示使用的分類器。param_grid:表示需要優(yōu)化的參數(shù)取值,值為字典或者列表。scoring:模型評價標準,默認是none,這時需要使用score函數(shù)。如果為none,則使用estimator的誤差估計函數(shù)。n_jobs:表示并行數(shù),默認為1,當n_jobs=-1時,表示使用所有處理器。9.2.4
網格搜索與交叉驗證語法格式sklearn提供了一個網格搜索工具類GridSearchCV,它可以自動調參,只要把所有的參數(shù)可能性輸入,就會得到一個合適的調參器以及合適參數(shù)。GridSearchCV(estimator,param_grid,*,scoring=None,n_jobs=None,refit=True,cv=None,verbose=0,pre_dispatch='2*n_jobs',error_score=nan,return_train_score=False)refit:默認為true,程序將會使用交叉驗證訓練集得到最佳參數(shù),重新對所有可能的訓練集與測試集進行,做完最終用于性能評估的最佳模型參數(shù),即在搜索參數(shù)結束后,用最佳參數(shù)結果再次fit一遍全部數(shù)據(jù)集。cv:表示交叉驗證參數(shù),默認是None,使用五折交叉驗證。9.2.4
網格搜索與交叉驗證交叉驗證概念交叉驗證(CrossValidation)是機器學習建立模型和驗證模型參數(shù)常用的一種方法,常見的是K折交叉驗證,其做法就是把樣本數(shù)據(jù)分成K份,不重復地取其中1份做測試集,用其余k-1份作為訓練集訓練模型,之后計算該模型在測試集的得分,將K次得分的平均分作為訓練模型的最終得分。9.2.4
網格搜索與交叉驗證K折交叉驗證9.2.5
歸一化掌握歸一化的分類,能夠區(qū)分最值歸一化和均值方差歸一化的特點學習目標9.2.5
歸一化由于樣本的不同特征具有不同的量綱和量綱單位,這樣的情況會影響最終評價結果,所以,為了消除評價指標之間的量綱影響,需要對數(shù)據(jù)進行歸一化處理,以解決數(shù)據(jù)指標之間的可比性。9.2.5
歸一化樣本腫瘤大?。ɡ迕祝┌l(fā)現(xiàn)時間(天)樣本12200樣本210100樣本31300量綱影響舉例
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
- 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
- 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
- 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 《壽司店策劃》課件
- 《種苗檔案建設》課件
- 二次函數(shù)復習課件
- 2024-2025學年廣東省清遠市四校聯(lián)考高一上學期11月期中聯(lián)考物理試題(解析版)
- 單位管理制度集粹匯編職員管理十篇
- 《危險管理與保險》課件
- 單位管理制度匯編大合集職工管理十篇
- 三年級數(shù)學欣賞與設計課件
- 單位管理制度分享大全【人事管理篇】十篇
- 《孔徑孔容計算》課件
- 2023-2024學年廣東省深圳市福田區(qū)七年級(上)期末英語試卷
- 雙碳全景系列培訓第一章碳達峰、碳中和
- 變電檢修班組規(guī)范化建設實施細則
- GB/T 44311-2024適老環(huán)境評估導則
- 計算機組成原理習題答案解析(蔣本珊)
- 板材加工轉讓協(xié)議書模板
- 咖啡粉代加工協(xié)議書范本
- 2024年北京石景山初三九年級上學期期末數(shù)學試題和答案
- 智慧管網建設整體解決方案
- 【長安的荔枝中李善德的人物形象分析7800字(論文)】
- 生物安全風險評估報告
評論
0/150
提交評論