財經大數(shù)據(jù)分析-以Python為工具 課件 ch11-建立上市公司價值分類判斷指標體系-應用機器學習_第1頁
財經大數(shù)據(jù)分析-以Python為工具 課件 ch11-建立上市公司價值分類判斷指標體系-應用機器學習_第2頁
財經大數(shù)據(jù)分析-以Python為工具 課件 ch11-建立上市公司價值分類判斷指標體系-應用機器學習_第3頁
財經大數(shù)據(jù)分析-以Python為工具 課件 ch11-建立上市公司價值分類判斷指標體系-應用機器學習_第4頁
財經大數(shù)據(jù)分析-以Python為工具 課件 ch11-建立上市公司價值分類判斷指標體系-應用機器學習_第5頁
已閱讀5頁,還剩60頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

Python與財經大數(shù)據(jù)分析基礎第11章——建立上市公司價值分類判斷指標體系——應用機器學習

王彥超教授博士生導師中央財經大學會計學院CONTENTS目錄11.1Sklearn概述和安裝11.2K-最近鄰算法11.3K-均值算法11.4降維算法11.5線性回歸11.6邏輯回歸11.7樸素貝葉斯11.8決策樹11.9隨機森林11.10支持向量機11.11Adaboost算法11.12應用實踐11.13實操練習題

應用場景分析:機器學習是一門多領域交叉學科,涉及概率論、統(tǒng)計學等學科。機器學習這一術語看似高深,其實在生活的方方面面,如人臉識別、手機相冊依據(jù)人物自動分類功能等均運用了機器學習的思想和方法。機器學習是計算機模擬人類學習和決策行為的科學,選擇合適的算法模型訓練數(shù)據(jù),實現(xiàn)預測功能。Sklearn是Python中傳統(tǒng)機器學習的首選庫,本章重點介紹sklearn庫的算法邏輯及應用。通過本章的學習,將掌握基本的機器學習方法,構造機器學習模型流程和評估模型效果。機器學習之SklearnSklearn概述和安裝K-最近鄰算法K-均值算法降維算法線性回歸邏輯回歸樸素貝葉斯決策樹隨機森林支持向量機Adaboost算法案例應用:建立科技上市公司價值分類判斷指標體系11.1Sklearn概述和安裝11.1Sklearn概述和安裝Sklearn,全稱scikit-learn,是Python中機器學習的庫,建立在Numpy、Scipy、Matplotlib等庫基礎之上,涵蓋了機器學習樣例數(shù)據(jù)、數(shù)據(jù)預處理、模型驗證、特征選擇、分類、回歸、聚類、降維等幾乎所有環(huán)節(jié),功能十分強大。Sklearn的建模和優(yōu)化有統(tǒng)一的形式,分類和回歸算法都是類似的思想,邏輯大致如圖11-1所示:首先導入數(shù)據(jù),選擇合適的算法將數(shù)據(jù)進行擬合訓練,得到一個模型;接著把需要預測的數(shù)據(jù)輸入該模型中,進行預測;最后輸出結果。11.1Sklearn概述和安裝安裝Scikit-learn需要:Python(≥2.7或≥3.4)、NumPy(≥1.8.2)、SciPy(≥0.13.3)。注意:Scikit-learn0.20是支持Python2.7和Python3.4的最后一個版本。Scikit-learn0.21將需要Python3.5或更高版本。需要先安裝Scikit-learn庫。如果已經安裝Scikit-learn庫,請輸入以下代碼,驗證是否安裝成功。如果沒有報錯,則為成功安裝。In[1]:importsklearn本教材使用的Scikit-learn版本為1.0.2。不同版本在代碼編寫上略有差異,建議讀者在學習時安裝相同的版本。11.2K-最近鄰算法11.2K-最近鄰算法(K-NearestNeighbor)(1)原理KNN算法的核心思想是用距離最近的k個樣本數(shù)據(jù)來代表目標數(shù)據(jù)的分類??梢宰龀鲱惐龋号袛嘁粋€人消費水平,可以通過其身邊朋友來判斷。具體而言,如果一個樣本在特征空間中的k個最相鄰樣本的大多數(shù)屬于一個類別,則該樣本也屬于這個類別,并具有這個類別的樣本特征。該方法在確定分類決策上,只依據(jù)最近鄰的一個或幾個樣本類別決定待分樣本的所屬類別。11.2K-最近鄰算法(K-NearestNeighbor)(1)原理如圖所示,已知存在兩個類別,一類為“正方形”,另一類為“三角形”,若判斷新加入的藍色屬于什么類別,當k=3時,則離藍色最近的3個“鄰居”是a、b和c,多數(shù)屬于“三角形”,所以藍色被劃分為“三角形”;而當k=5時,則離藍色最近的5個“鄰居”是a、b、c、d和e,多數(shù)屬于“正方形”,所以藍色被劃分為“正方形”。11.2K-最近鄰算法(K-NearestNeighbor)(2)KNN算法代碼實現(xiàn)Python中的Sklearn模塊提供了KNN算法實現(xiàn)分類和預測的功能,該功能存在于子模塊neighbors中。其中,KNeighborClassifier類可以解決分類問題,而KNeighborsRegressor類可以解決預測問題。neighbors.KNeighborsClassifier()、neighbors.KNeighborsRegressor()基本語法:neighbors.KNeighborsClassifier(n_neighbors=5,weights=’uniform’,algorithm=’auto’,leaf_size=30,p=2,metric=’minkowski’,metric_params=None,n_jobs=1)neighbors.KNeighborsRegressor(n_neighbors=5,weights=’uniform’,algorithm=’auto’,leaf_size=30,p=2,metric=’minkowski’,metric_params=None,n_jobs=1)11.2K-最近鄰算法(K-NearestNeighbor)(2)KNN算法代碼實現(xiàn)參數(shù)說明:n_neighbors:用于指定近鄰樣本個數(shù)k,默認為5。weights:用于指定近鄰樣本的投票權重,默認為’uniform’,表示所有近鄰樣本的投票權重一樣;如果為’distance’,則表示投票權重與距離成反比,即近鄰樣本與未知類別的樣本點距離越遠,權重越小,反之,權值越大。algorithm:用于指定近鄰樣本的搜尋算法,如果為’ball_tree’,表示使用球樹搜尋法尋找近鄰樣本;如果為’kd_tree’,表示使用KD樹搜尋法尋找近鄰樣本;如果為’brute’,表示使用暴力搜尋法尋找近鄰樣本。默認為’auto’,表示KNN算法會根據(jù)數(shù)據(jù)特征自動選擇最佳的搜尋算法。11.2K-最近鄰算法(K-NearestNeighbor)(2)KNN算法代碼實現(xiàn)參數(shù)說明:leaf_size:用于指定球樹或kd樹葉子節(jié)點所包含的最小樣本量,用于控制樹的生長條件,會影響樹的查詢速度,默認為30。metric:用于指定距離的度量指標,默認為閔可夫斯基距離。p:當參數(shù)metric為閔可夫斯基距離時,p=1,表示計算點之間的曼哈頓距離;p=2,表示計算點之間的歐氏距離;該參數(shù)的默認值為2。metric_params:為metric參數(shù)所對應的距離指標添加關鍵字參數(shù)。n_jobs:用于設置KNN算法并行計算所需的CPU數(shù)量,默認為1,表示僅使用1個CPU運行算法,即不使用并行運算功能。11.3K-均值算法11.3K-均值算法(K-Means)(1)原理K-Means聚類算法是一種迭代求解的聚類分析算法。算法思想是:隨機選擇k個對象作為初始聚類中心,計算每個對象和各個聚類中心之間的距離,將其分配給距離最近的聚類中心。聚類中心及分配給它們的對象就代表著一個聚類。每分配一個樣本,聚類的中心會根據(jù)聚類中現(xiàn)有的對象被重新計算。此過程將不斷重復,直至滿足設置的終止條件。其具體的算法步驟如下:11.3K-均值算法(K-Means)(1)原理首先明確k值(隨機),即希望數(shù)據(jù)經過聚類得到k個聚類;在數(shù)據(jù)集中隨機選擇k個樣本作為質心;分別計算每個樣本到k個質心的距離,樣本屬于距離最小的質心所屬的聚類;第一輪將所有的樣本聚類后得到k個聚類,然后按均值重新計算每個聚類的質心;如果新計算出來的質心和原來的質心之間的距離小于某一個設置的臨界值,表示重新計算的質心位置變化不大,數(shù)據(jù)整體趨于穩(wěn)定,或表示數(shù)據(jù)已經收斂,聚類已經達到期望結果,算法可終止;反之,如果新質心和原來質心的距離變化很大,需要重復迭代3-5步驟,直至位置變化不大,達到收斂狀態(tài)。11.3K-均值算法(K-Means)(2)圖解K-Means算法的原理①首先給定需要進行聚類劃分的樣本集。11.3K-均值算法(K-Means)(2)圖解K-Means算法的原理②假設將樣本分為2類,則隨機選擇2個聚類中心(k=2)。11.3K-均值算法(K-Means)(2)圖解K-Means算法的原理③遍歷每一個綠點,計算每個樣本點到質心的距離,并將數(shù)據(jù)點劃分到離它最近的質心的類中。11.3K-均值算法(K-Means)(2)圖解K-Means算法的原理④計算2個數(shù)據(jù)集的各自的質心(紅點、藍點的均值),將聚類中心移動到均值處,變成新的聚類中心。11.3K-均值算法(K-Means)(2)圖解K-Means算法的原理⑤計算出目前紅點的均值和藍點的均值,找到新的聚類中心。11.3K-均值算法(K-Means)(2)圖解K-Means算法的原理⑥重復上述③④⑤步驟(計算質心-分配-重新計算),不斷迭代,直至新的聚類中心位置不再改變以及各個數(shù)據(jù)點的位置也不再發(fā)生改變,如圖14-7所示。11.3K-均值算法(K-Means)(3)K-Means算法代碼實現(xiàn)Python的Sklearn模塊提供了有關K-Means算法分類的功能,該功能存在于子模塊cluster中,利用sklearn.cluster.k_means()函數(shù)可以建立K-Means模型。sklearn.cluster.k_means()基本語法:sklearn.cluster.k_means(X,n_clusters,init='k-means++',precompute_distances='deprecated',n_init=10,max_iter=300,random_state=None,copy_x=True)11.3K-均值算法(K-Means)(3)K-Means算法代碼實現(xiàn)sklearn.cluster.k_means()參數(shù)說明:n_clusters:用于指定生成的聚類數(shù),即產生的質心數(shù)。init:有三個可選值:’k-means++’,‘random’,或者傳遞一個ndarray向量。此參數(shù)指定初始化方法,默認值為‘k-means++’。‘k-means++’用一種特殊的方法選定初始質心從而能加速迭代過程的收斂;‘random’隨機從訓練數(shù)據(jù)中選取初始質心;如果傳遞的是一個ndarray,則應該形如(n_clusters,n_features)并給出初始質心。precompute_distances:三個可選值,‘auto’,True或者False。預計算距離,計算速度更快但占用更多內存?!產uto’:如果樣本數(shù)乘以聚類數(shù)大于14million的話則不予計算距離;True:總是預先計算距離;False:永遠不預先計算距離。11.3K-均值算法(K-Means)(3)K-Means算法代碼實現(xiàn)sklearn.cluster.k_means()參數(shù)說明:n_init:用不同的質心初始化值運行算法的次數(shù),最終解是在inertia意義下選出的最優(yōu)結果。max_iter:用于指定執(zhí)行一次k_means算法所進行的最大迭代數(shù)。random_state:可選用于初始化質心的生成器(generator)。如果值為一個整數(shù),則確定一個seed。默認值為numpy的隨機數(shù)生成器。copy_x:布爾型,默認值=True。當precomputingdistances時,將數(shù)據(jù)中心化會得到更準確的結果。如果把此參數(shù)值設為True,原始數(shù)據(jù)不會被改變。如果是False,則會直接在原始數(shù)據(jù)上做修改,并在函數(shù)返回時將其還原。11.4降維算法(PCA)11.4降維算法(PCA)(1)原理主成分分析(PrincipalComponentAnalysis,PCA)是一種無監(jiān)督的多元統(tǒng)計分析方法?;舅枷胧窃诒M量保證數(shù)據(jù)信息的前提下,將高維數(shù)據(jù)簡化為低維數(shù)據(jù),即通過獲取數(shù)據(jù)的主要投影方向,實現(xiàn)數(shù)據(jù)向主要特征方向上的映射,最終達到數(shù)據(jù)降維、去噪的效果。11.4降維算法(PCA)(2)圖解原理如圖所示,給出一個投影方向,坐標系中的點投影到這一條直線上,每個“紅點”就是點在投影方向的投影,PCA算法使得這些“紅點”到原點的方差最大。按照右圖給出的投影方向,投出來的點到原點的平方和遠遠小于左圖中的方差和,所以我們會選擇左圖的投影方式。11.4降維算法(PCA)(2)PCA算法步驟對所有的樣本數(shù)據(jù)進行中心化,也稱為數(shù)據(jù)中心平移到坐標原點。求取樣本的協(xié)方差矩陣。對協(xié)方差矩陣進行特征值分解。取出最大的n個特征值對應的特征向量,將所有特征向量標準化后,組成特征向量矩陣W。對樣本集中的每一個樣本,轉化為新的樣本,得到輸出樣本集。11.5線性回歸11.5

線性回歸(1)線性回歸介紹線性回歸模型是機器學習模型中應用最廣泛的模型之一,這是因為線性模型的形式非常簡潔,同時在應對實際問題時容易建模。雖然線性模型結構較為簡單,但其中蘊含重要的機器學習基本思想,非線性模型也是通過線性基礎引入層次結構或者高維映射形成。下面簡要介紹一下線性回歸模型的分析原理。11.5

線性回歸(2)算法簡要流程機器學習模型以數(shù)據(jù)集為基礎,第一步需要確定解決問題所需要的數(shù)據(jù)集,第二步需要實現(xiàn)線性模型算法,Sklearn庫提供了相應的函數(shù),只需要提前聲明之后引用該函數(shù),即可使用線性模型。第三步,模型在數(shù)據(jù)集上訓練,調整模型的相關參數(shù),使模型在數(shù)據(jù)集上的預測效果達到最優(yōu)。11.6邏輯回歸11.6邏輯回歸(1)邏輯回歸介紹邏輯回歸雖然被稱為回歸,但實際上是分類模型,且在二分類的問題上有較好分類效果,其簡單、可并行、可解釋性強的特點使其深受科研人員、業(yè)界研發(fā)人員的喜愛。邏輯回歸的本質即為:假設數(shù)據(jù)服從這個分布,使用極大似然估計做參數(shù)的估計。邏輯回歸的分布實質上是連續(xù)型的概率分布,其分布函數(shù)與密度函數(shù)分別如下所示,其中μ表示位置參數(shù),γ>0表示形狀參數(shù)。11.6邏輯回歸(2)邏輯回歸的優(yōu)劣勢邏輯回歸模型的優(yōu)點非常明顯:模型清晰,背后模型計算的概率值經得起推敲;輸出值落在0至1之間,具有概率意義;建模簡單,運算過程也非常高效;可以使用L1、L2正則化的方法解決過擬合的問題;可以使用L2正則化的方法解決多重共線性的問題。邏輯回歸模型也存在一些缺點:不能夠很好地處理特征間關系,實際上是由邏輯回歸的計算形式決定;當特征維度上升時,模型運算性能不夠好;邏輯回歸模型容易出現(xiàn)欠擬合現(xiàn)象,精準度常常不夠高。11.7樸素貝葉斯11.7樸素貝葉斯(1)樸素貝葉斯介紹

樸素貝葉斯(NaiveBayes)是一個非常簡單,但是實用性很強的分類模型,與基于線性假設的模型(線性分類器和支持向量機分類器)不同,樸素貝葉斯分類器的構造基礎是貝葉斯理論。樸素貝葉斯法是典型的生成學習方法,實際上學習到生成數(shù)據(jù)的機制,屬于生成模型。11.7樸素貝葉斯(2)樸素貝葉斯的優(yōu)缺點

樸素貝葉斯模型的優(yōu)點:第一,對大數(shù)據(jù)集訓練速度快、支持增量式運算;第二,實時對新增樣本進行訓練、結果可解釋性強、對小規(guī)模的數(shù)據(jù)表現(xiàn)很好;第三,能處理多分類任務,適合增量式訓練,尤其是數(shù)據(jù)量超出內存時,可以一批批進行增量訓練。樸素貝葉斯模型的缺點:第一,給定輸出類別的情況下,假設屬性之間相互獨立,樸素貝葉斯方法就擁有最小的誤差率,但實際應用中很難成立;第二,需要知道先驗概率,且先驗概率很多時候取決于假設,假設的模型很多,有時由于假設的先驗模型導致預測效果佳。第三,通過先驗和數(shù)據(jù)決定后驗概率,進而決定分類,分類決策存在錯誤率。第四,輸入數(shù)據(jù)的表達形式很敏感。11.8決策樹11.8

決策樹(1)決策樹介紹決策樹的思想,基于常用的“ifelse”思想進行拓展,不過,決策樹算法會更為復雜一些。11.8

決策樹(2)決策樹含義決策樹的結構為樹形,下面對其進行解釋。根節(jié)點:最頂部節(jié)點。葉子節(jié)點:每條路徑最末尾的節(jié)點,也就是最外層節(jié)點。非葉子節(jié)點:一些條件節(jié)點,會有更多分支,也叫做分支節(jié)點。分支:分叉。11.8

決策樹(3)決策樹優(yōu)缺點決策樹優(yōu)點:第一,能夠同時處理數(shù)值型和連續(xù)型的數(shù)據(jù)。其他技術通常只支持一種數(shù)據(jù)類型,可以查看算法文章以獲得更多的信息。第二,能夠簡單地解釋和理解其原理,且能夠以可視化的方式來顯示決策樹。第三,數(shù)據(jù)準備工作較少。其他技術通常需要正則化后的數(shù)據(jù),處理缺失數(shù)據(jù)。但需注意該模塊目前不支持缺失數(shù)據(jù)的處理。第四,可處理帶有多輸出的問題。11.8

決策樹(3)決策樹優(yōu)缺點決策樹優(yōu)點:第五,該算法為白盒模型,如果在模型中可以觀察到特定情況,則可以通過簡單的布爾邏輯條件來表達這一情況。相比之下,黑盒模型(例如人造神經網(wǎng)絡)的結果可能不太容易表現(xiàn)出來。第六,可以使用統(tǒng)計測試來驗證模型,這使得模型可靠性更強。第七,能夠良好地辨別“人造數(shù)據(jù)”。11.8

決策樹(3)決策樹優(yōu)缺點決策樹缺點:第一,決策樹學習器能夠為當前問題創(chuàng)建出超復雜的樹,但是這個樹的泛化能力較差,這種低效現(xiàn)象稱為“過擬合”??梢酝ㄟ^對葉子節(jié)點設置最小值或給樹的深度設置最大值等“修剪機制”來避免過擬合現(xiàn)象。第二,文本決策樹穩(wěn)定性較弱,可能會因為細微的改變而產生一個完全不同的樹。這個問題可以通過樹的整體方法來緩解。11.9隨機森林11.9隨機森林(1)隨機森林介紹隨機森林是一種以決策樹為基礎的更高級算法。與決策樹一樣,隨機森林可以用于回歸和分類。顧名思義,隨機森林是用隨機的方式構建出一個森林,這一森林由很多相互不關聯(lián)的決策樹組成。理論上,隨機森林的表現(xiàn)一般要優(yōu)于單一的決策樹,因為隨機森林是基于多個決策樹投票的結果。簡單來說,在隨機森林中,每個決策樹都有自己的結果,通過統(tǒng)計每個決策樹的結果,選擇投票數(shù)最多的結果作為其最終結果。11.9隨機森林(2)構建隨機森林的四個步驟①一個樣本容量為N的樣本,有放回的抽取N次,每次抽取1個,最終形成了N個樣本。這選擇好了的N個樣本用來訓練一個決策樹,作為決策樹根節(jié)點處的樣本。②當每個樣本有M個屬性時,在決策樹的每個節(jié)點需要分裂時,隨機從這M個屬性中選取出m個屬性,滿足條件m<<M。然后從這m個屬性中采用某種策略(比如說信息增益)來選擇1個屬性作為該節(jié)點的分裂屬性。③決策樹形成過程中每個節(jié)點都要按照步驟2來分裂。④按照步驟1~3建立大量的決策樹,這樣就構成了隨機森林了。11.9隨機森林(3)隨機森林的優(yōu)缺點隨機森林的優(yōu)點:第一,可以出來很高維度(特征多)的數(shù)據(jù),不用降維,無需做特征選擇。第二,可以判斷特征的重要程度。第三,可以判斷不同特征之間的相互影響。第四,訓練速度比較快,容易做成并行方法。第五,對于不平衡的數(shù)據(jù)集來說,可以平衡誤差。第六,如果有很大一部分的特征遺失,仍可以維持準確度。隨機森林的缺點:第一,對于有不同取值屬性的數(shù)據(jù),取值劃分較多的屬性會對隨機森林產生更大的影響,在這種數(shù)據(jù)上產出的屬性權值是不可信的。第二,已經被證明,隨機森林在某些噪音較大的分類或回歸問題上會過擬合。11.10支持向量機11.10

支持向量機(1)支持向量機介紹支持向量機模型是英文直譯過來的名稱,英文為supportvectormachines,簡稱SVM,是一種二分類模型,其基本模型是定義在特征空間上的間隔最大的線性分類器;SVM還包括核技巧,這使其成為實質上的非線性分類器。SVM的學習策略就是間隔最大化,可形式化為一個求解凸二次規(guī)劃的問題,也等價于正則化的合頁損失函數(shù)的最小化問題。SVM的學習算法就是求解凸二次規(guī)劃的最優(yōu)化算法。11.10

支持向量機(1)支持向量機介紹支持向量機學習的基本想法,是求解能夠正確劃分訓練數(shù)據(jù)集并且?guī)缀伍g隔最大的分離超平面。如圖所示,即為分離超平面,對于線性可分的數(shù)據(jù)集來說,這樣的超平面有無窮多個(即感知機),但是幾何間隔最大的分離超平面卻是唯一的。11.10

支持向量機(2)支持向量機優(yōu)缺點支持向量機優(yōu)點:支持向量機是一種有堅實理論基礎的適用小樣本的機器學習方法,基本上不涉及概率測度及大數(shù)定律等,也簡化了通常的分類和回歸等問題;計算的復雜性取決于支持向量的數(shù)目,而不是樣本空間的維數(shù),因此在處理維度較多的現(xiàn)實問題時擁有更高的效率;少數(shù)支持向量決定了最終結果,因此對異常值不敏感,這可以抓住關鍵樣本、剔除大量冗余樣本,屏蔽異常樣本對模型的影響,具有較好的魯棒性;支持向量機模型的泛化能力較強,解決實際問題的能力較為出色。11.10

支持向量機(2)支持向量機優(yōu)缺點支持向量機缺點:支持向量機模型也存在一定缺點:不能夠很好地處理大樣本數(shù)據(jù)集,巨大的數(shù)據(jù)量將會導致訓練模型的時間變長;解決多分類問題較為困難,傳統(tǒng)的支持向量機模型能夠解決二分類問題,但對于多分類問題則需要構建多個二分類的支持向量機模型組合來解決;支持向量機模型對于參數(shù)與核函數(shù)的選擇較為敏感,當參數(shù)或者核函數(shù)發(fā)生變化時,模型效果有明顯變化。11.11Adaboost算法11.11Adaboost算法(1)Adaboost算法介紹

Adaboost算法是一種集成學習算法,集成學習按照個體學習器之間是否存在依賴關系可以分為兩類:一類是個體學習器之間存在強依賴關系,另一類是

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論