




版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
摘要隨著時(shí)代的發(fā)展,大數(shù)據(jù)已經(jīng)慢慢的成為互聯(lián)網(wǎng)時(shí)代的主流,以及機(jī)器學(xué)習(xí)、人工智能、計(jì)算機(jī)視覺(jué)逐漸廣布在大眾生活中,單一的人臉識(shí)別技術(shù)已經(jīng)比較成熟的應(yīng)用在軍事、醫(yī)療、公共社會(huì)等場(chǎng)所中,進(jìn)而將人臉表情識(shí)別推向更高度的熱潮。每個(gè)人的人臉都是獨(dú)一無(wú)二的,人臉表情是當(dāng)人們面對(duì)面交流時(shí)很難被察覺(jué)的、帶有隱藏的情緒意義的人體情緒,經(jīng)常標(biāo)明人們極力壓制和暗藏的情緒情感,所以通過(guò)機(jī)器與軟件的結(jié)合進(jìn)行表情識(shí)別可以清楚的得知該人的情緒。人臉表情辨別的研究還有很長(zhǎng)的路要走,將以變化多端的模式不斷持續(xù)的影響我們的日常。本文題目為基于tensorflow的人臉表情識(shí)別算法的研究。科研學(xué)家把面部表情識(shí)別主要將表情劃分為七個(gè)種類(lèi),整個(gè)人臉表情識(shí)別研究將會(huì)劃分為四個(gè)過(guò)程:數(shù)據(jù)預(yù)處理、卷積神經(jīng)網(wǎng)絡(luò)的搭建、模型的訓(xùn)練與人臉表情的識(shí)別界面的設(shè)計(jì),第一部分包括對(duì)數(shù)據(jù)集的預(yù)處理和利用卷積網(wǎng)絡(luò)搭建的神經(jīng)網(wǎng)絡(luò)與訓(xùn)練模型,第二部分為加載模型進(jìn)行人臉表情識(shí)別測(cè)試,其中創(chuàng)新點(diǎn)就是使用pyqt5進(jìn)行GUI界面設(shè)計(jì)封裝,增加系統(tǒng)的界面簡(jiǎn)潔性與用戶(hù)體驗(yàn)感。其中最大的難點(diǎn)就是搭建卷積神經(jīng)網(wǎng)絡(luò)與訓(xùn)練的過(guò)程花費(fèi)的時(shí)間。關(guān)鍵詞:人臉表情識(shí)別深度學(xué)習(xí)人工智能AbstractWiththedevelopmentofthetimes,bigdatahasgraduallybecomethemainstreamoftheInternetera,aswellasmachinelearning,artificialintelligence,computervisiongraduallyspreadinpubliclife,asinglefacerecognitiontechnologyhasbeenmorematureinmilitary,medical,publicsocietyandotherplaces,andthenfaceexpressionrecognitiontoahigherupsurge.Everyone'sfaceisunique.Microexpressionisakindofsubtleexpressionwithcertainemotionalmeaningthatisdifficulttobedetectedfacetoface.Itoftenexpressesthedepressedandhiddenemotionalfeelings.Therefore,throughthecombinationofmachineandsoftwaretorecognizetheexpression,theemotionofthepersoncanbeclearlyknown.Facialexpressionrecognitiontechnologywillcontinuetoaffectourlivesinmanyways.Thisquestionistheresearchoffacialexpressionrecognitionalgorithmbasedontensorflow.Facialexpressionrecognitionmainlydividesexpressionintosevencategories,andthewholefacialexpressionrecognitionresearchismainlydividedintotwoprocesses:thetrainingofconvolutionalneuralnetworkmodelandtherecognitiontestoffacialexpression.Thefirstpartincludesthepreprocessingofdatasetandtheneuralnetworkandtrainingmodelbuiltbyconvolutionalnetwork.Thesecondpartistheloadingmodelforfacialexpressionrecognitiontest,inwhichinnovationPointistousepyqt5forGUIinterfacedesignandencapsulation,toincreasethesystem'sinterfacesimplicityanduserexperience.Thebiggestdifficultyistoprocessandanalyzethenumericalvalueoffaceimage.Keywords:facialexpressionrecognitiondeeplearningartificialintelligence第三章基于Tensorflow人臉表情識(shí)別3.1數(shù)據(jù)集與預(yù)處理3.1.1數(shù)據(jù)集的選擇本研究在數(shù)據(jù)集的選擇中,最終抉擇使用kaggle上被公開(kāi)的數(shù)據(jù)集,這樣的選擇不但可以節(jié)省數(shù)據(jù)采集花費(fèi)過(guò)多的時(shí)間,而且可以更加準(zhǔn)確、統(tǒng)一地評(píng)估同一個(gè)數(shù)據(jù)集以及人臉表情分類(lèi)器通過(guò)不同方式測(cè)出的性能,即而采用人臉表情庫(kù)FER2013作為表情識(shí)別的數(shù)據(jù)集。這個(gè)數(shù)據(jù)集一共包含35887張不同人不同表情的圖片,并且標(biāo)注usage劃分為3個(gè)部分為測(cè)試部分(Training)共有28709條數(shù)據(jù),共同驗(yàn)證部分和私自驗(yàn)證部分一共由7178條數(shù)據(jù)組成,每條數(shù)據(jù)都是由48X48像素的灰色圖像轉(zhuǎn)化為不同數(shù)據(jù)點(diǎn)組成的,并且標(biāo)注emotion劃分為7種表情,用數(shù)字0-6標(biāo)簽分別對(duì)具體表情標(biāo)注中英文如下:0=生氣(angry),1=厭惡(disgust),2=恐懼(fear),3=快樂(lè)(happy),4=悲傷(sad),5=驚喜(surprised),6=正常(netrual)。所選擇的人臉表情庫(kù)(fer2013)是將表情圖片的數(shù)據(jù)與用途全部以數(shù)組的形式存放如fer2013.csv文件中而不是以圖片的形式保存的,fer2013.csv數(shù)據(jù)集的組成為由首行為表頭說(shuō)明三列數(shù)據(jù)的具體含義與命名,首列為心情標(biāo)簽(即表明表情種類(lèi));第二列為圖片轉(zhuǎn)化成的所有數(shù)據(jù)(即像素值)以數(shù)組格式儲(chǔ)存;尾列為三類(lèi)數(shù)據(jù)用途的標(biāo)注(即為訓(xùn)練集或測(cè)試集或驗(yàn)證集)組成如圖3-1-1所示圖3-1-1fer2013.csv內(nèi)容圖3.1.2數(shù)據(jù)集的預(yù)處理若通過(guò)尋常的處理數(shù)據(jù)集的方法,若選擇直接將從網(wǎng)上收集到的圖片數(shù)據(jù)集全部載入內(nèi)存,再進(jìn)行預(yù)處理將會(huì)花費(fèi)許多時(shí)間,也沒(méi)有必要將csv文件數(shù)據(jù)集再轉(zhuǎn)為圖片集多此一舉的方法會(huì)使得每次訓(xùn)練全部數(shù)據(jù)載入的過(guò)程緩慢,耗時(shí)長(zhǎng),而且必然會(huì)造成內(nèi)存巨大的開(kāi)銷(xiāo)。所以決定選擇將數(shù)據(jù)集(csv文件)直接轉(zhuǎn)化為T(mén)FRECORD的格式而不是圖片從而節(jié)省內(nèi)存與方便調(diào)用。選擇的TFRECORD格式是由Tensorflow提供的以一種獨(dú)特的格式將數(shù)據(jù)存儲(chǔ)起來(lái)。TFRECORD的格式結(jié)構(gòu)比較難理解作為一種二進(jìn)制文件,沒(méi)法直接查看。但是它可以合理調(diào)配及運(yùn)用內(nèi)存,便利于海量數(shù)據(jù)的讀取與運(yùn)用而且不需要獨(dú)自的標(biāo)簽文件,優(yōu)點(diǎn)效率高、跨平臺(tái),有助于降低學(xué)習(xí)成本;TFRECORD格式文件由字段(Features)與協(xié)議內(nèi)存塊(protocolbuffer)組成。并且可以輸入代碼從而獲得所需的數(shù)據(jù),再將數(shù)據(jù)寫(xiě)入Example協(xié)議內(nèi)存塊(PB)中且將協(xié)議內(nèi)存塊序列轉(zhuǎn)化成一個(gè)字符串,并且通過(guò)TFRecordWriter將得到的數(shù)據(jù)寫(xiě)入到TFRECORD格式文件中去。TFRecord只可以支持string,int64,float32三種格式進(jìn)行存儲(chǔ)管理,本文通過(guò)以列表的形式選用Int64格式寫(xiě)入Feature中。信息包含了圖片的標(biāo)簽(label),圖片的高度(height)與寬度(width)還有圖片的數(shù)據(jù)(raw),分別對(duì)應(yīng)了value為label,height,width,raw的feature如下圖3-1-2所示。圖3-1-2csv轉(zhuǎn)TFRecorf主要代碼圖最終將測(cè)試部分(Training)公共驗(yàn)證部分(PublicTest)和私有驗(yàn)證部分(PrivateTest)數(shù)據(jù)分別生成fer2013_train、fer2013_test、fer2013_eavl三個(gè)TFRECORD文件,如下圖3-1-3所示。圖3-1-3劃分?jǐn)?shù)據(jù)集圖3.2搭建卷積神經(jīng)網(wǎng)絡(luò)3.2.1GoogleNet原理Googlenet是于2014年與VGGNet并行被提出的深度卷積網(wǎng)絡(luò),在深度學(xué)習(xí)分類(lèi)與識(shí)別方面的實(shí)驗(yàn)中深受喜愛(ài)且對(duì)識(shí)別分類(lèi)體現(xiàn)效果有著很大的作用,GoogleNet的特點(diǎn)與之前被熟知的網(wǎng)絡(luò)不一樣的是它主要考慮橫向的延伸而不是縱向。Googlenet在深度與寬度的領(lǐng)域中,選擇合并使用1*1與3*3與5*5與pooling層的聚集結(jié)合使用。主要選擇運(yùn)用Inceptionmod來(lái)進(jìn)行對(duì)特征映射厚度的減低作用。最大優(yōu)點(diǎn)是使用小計(jì)算量卻提高一層特征變化與非線(xiàn)性化屬于性?xún)r(jià)比較高的一類(lèi)Inception模型如下圖3-2-1所示。圖3-2-1Inception模型圖3.2.2深度卷積神經(jīng)網(wǎng)絡(luò)模型一個(gè)完整的卷積神經(jīng)網(wǎng)絡(luò)(CNN)包括一個(gè)輸入層(INPUT)、一個(gè)卷積層(CONV)、激活函數(shù)(RELU)、池化層(POOL)、全連接層(FC)和一個(gè)輸出層(OUTPUT),但是在日常實(shí)驗(yàn)中那個(gè)所使用到的卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行特征提取時(shí),將會(huì)使用不限定個(gè)卷積層。相對(duì)于傳統(tǒng)分類(lèi)方法,神經(jīng)網(wǎng)絡(luò)能夠在特征提取和分類(lèi)范疇同時(shí)延伸,改變了傳統(tǒng)手工編碼提取特征的方式,將其優(yōu)化成自動(dòng)化一種端到端(ETE)的學(xué)習(xí)。傳統(tǒng)方法與深度學(xué)習(xí)方法對(duì)比如下圖3-2-2所示:圖3-2-2傳統(tǒng)方法與深度學(xué)習(xí)對(duì)比圖本文所使用Tensorflow的API接口與函數(shù):tf.variable_scope()函數(shù):定義于創(chuàng)立變量層的操作中的上下文管理器。能夠判斷驗(yàn)證values是不是來(lái)自同一圖型,保證圖型是默許的圖型,并推送名稱(chēng)范疇和變量范疇。tf.get_variable()函數(shù)用于截獲一個(gè)已經(jīng)存在的變量或者創(chuàng)立一個(gè)嶄新的變量。tf.nn.relu()函數(shù)Return(返回)Tensor,通常features會(huì)是(卷積核,圖像)的卷積后加上bias。tf.nn.conv2d()函數(shù)filter(conv1_weight)卷積核,要求也是一個(gè)張量。strides是為在卷積時(shí)圖像中的每一維的步長(zhǎng),這是個(gè)一維的向量,[1,strides,strides,1]開(kāi)頭第一位與結(jié)尾一位必需固定為1。padding為string類(lèi)型其值為“same”與“valid”。tf.nn.max_pool()函數(shù)maxpooling是CNN當(dāng)中的最大值池化操作。用法與tf.nn.conv2d()接近。tf.nn.dropout()函數(shù)tensorflow框架中主要為了盡量避免或過(guò)擬合的加重而利用的函數(shù),它普通都是存在于全連接層。tf.reduce_mean()函數(shù):最大作用于作為降維或者計(jì)算tensor(圖像)的平均值。使用到張量tensor沿著指定的數(shù)軸(tensor的某一維度)上的平均數(shù)值的計(jì)算。tf.nn.lrn()函數(shù)與tf.nn.dropout()用法相似,用于數(shù)據(jù)增強(qiáng)并且作為relu激勵(lì)之后的防止數(shù)據(jù)過(guò)擬合而被提出的一類(lèi)解決辦法,被稱(chēng)為localresponsenormalization——局部響應(yīng)標(biāo)準(zhǔn)化。在輸入層后加入一個(gè)1*1的卷積層來(lái)搭建這個(gè)模型,該方法其有既增加非線(xiàn)性表示,加深網(wǎng)絡(luò),提升模型表達(dá)能力且基本不增加原始計(jì)算量的優(yōu)點(diǎn)。本研究將卷積層與輸入層分為兩個(gè)函分別定義,卷積層關(guān)鍵個(gè)別代碼如下圖3-2-4所示,全連接層關(guān)鍵代碼如下圖3-2-5所示:圖3-2-4卷積層主要代碼圖圖3-2-5全連接層主要代碼圖優(yōu)化器選擇AdamOptimize,學(xué)習(xí)率設(shè)為0.001,train_step_=tf.train.AdamOptimizer(self.lr).minimize(loss_,name='train_step')。網(wǎng)絡(luò)的整體架構(gòu)包含輸入層一共11層網(wǎng)絡(luò),分別為:輸入層(input)、卷積層(convolutions,conv1)、卷積層2(conv2)、池化層1(subsampling,pool2)、卷積層3(conv3)、池化層2(pool3)、卷積層4(conv4)、池化層3(pool3)、全連接層1、全連接層2、輸出層(徑向基層)。詳細(xì)內(nèi)容如下表所示:表3-2-1搭建卷積神經(jīng)網(wǎng)絡(luò)種類(lèi)描述核步長(zhǎng)填充輸出丟棄Input48*48*1Conv1卷積層和relu1*1148*48*32Conv2卷積層和relu5*51248*48*32Pool2最大池化3*3223*23*32Conv3卷積層和relu3*31123*23*32Pool3最大池化3*3211*11*32Conv4卷積層和relu5*51211*11*64Pool4最大池化3*325*5*64Local1全連接和relu1*1*204850%Local2全連接和relu1*1*204850%Logits輸出1*1*73.3模型訓(xùn)練與測(cè)試3.3.1模型訓(xùn)練對(duì)于人臉在圖像中的比例、臉部正對(duì)或側(cè)對(duì)、眼睛等物品對(duì)臉部的遮擋、不同濃度的妝容、不同光照等情況,都會(huì)影響識(shí)別效果。通過(guò)編寫(xiě)數(shù)據(jù)增強(qiáng)函數(shù)pre_process_img,使得模型在訓(xùn)練過(guò)程中出現(xiàn)過(guò)多的網(wǎng)絡(luò)過(guò)擬合現(xiàn)象,通過(guò)對(duì)訓(xùn)練集數(shù)據(jù)的變換可以得到泛化能力更強(qiáng)的深度網(wǎng)絡(luò)順應(yīng)于實(shí)際場(chǎng)景。主要通過(guò)tf.image.random_flip_left_right()函數(shù):可以按水平(從左向右)隨機(jī)翻轉(zhuǎn)圖像,tf.image.random_brightness()函數(shù):在[-32/255,32/255]的范圍內(nèi)隨機(jī)調(diào)整圖片的亮度。tf.image.random_contrast()函數(shù):在-[0.8,1.2]的范圍隨機(jī)調(diào)整圖片的對(duì)比度。tf.random_crop()函數(shù):進(jìn)行對(duì)圖像大小的隨機(jī)裁剪。tf.image.resize_images函數(shù):調(diào)整圖像的像素大小至48*48主要代碼如下圖3-3-1所示:圖3-3-1數(shù)據(jù)增強(qiáng)代碼圖編寫(xiě)讀取TFRECORD文件數(shù)據(jù)函數(shù)__parse_function_csv,tf.cast函數(shù):將tensorflow中張量數(shù)據(jù)轉(zhuǎn)換類(lèi)型即將features類(lèi)型由int64變?yōu)閕nt32,tf.multiply函數(shù):將[48,48,1]與1./255中對(duì)應(yīng)元素各自相乘。主要代碼如下圖3-3-2所示:圖3-3-2讀寫(xiě)TFRecord代碼圖正式開(kāi)始訓(xùn)練時(shí),每一步驟(step)訓(xùn)練過(guò)程,都要打開(kāi)tensorflow會(huì)話(huà),使用session的run方法執(zhí)行計(jì)算,進(jìn)行數(shù)據(jù)的讀取,并引用載入所構(gòu)建的卷積神經(jīng)網(wǎng)絡(luò),主要代碼如下圖3-3-3所示:圖3-3-3開(kāi)始訓(xùn)練主要代碼圖將準(zhǔn)確率與缺失值,每一step的數(shù)據(jù)數(shù)據(jù)變化顯示在面板中,可以方便的監(jiān)控整個(gè)訓(xùn)練過(guò)程。因?yàn)閿?shù)據(jù)量的龐大整個(gè)訓(xùn)練過(guò)程非常的長(zhǎng)。當(dāng)訓(xùn)練完成時(shí),當(dāng)準(zhǔn)確率為最大時(shí),保存訓(xùn)練模型與權(quán)重模型,最終成功有約75%的準(zhǔn)確率。主要代碼如下圖3-3-4所示,部分訓(xùn)練數(shù)據(jù)如下圖3-3-5所示:圖3-3-4計(jì)算loss與acc代碼圖圖3-3-5訓(xùn)練過(guò)程數(shù)據(jù)圖3.3.2模型測(cè)試模編寫(xiě)代碼驗(yàn)證模型準(zhǔn)確率,先布置存放表情識(shí)別模型、人臉識(shí)別模型(opencv自帶'haarcascade_frontalface_alt.xml')、需要驗(yàn)證的圖片路徑。新建一個(gè)列表存放7中表情種類(lèi)['angry','disgust','fear','happy','sad','surprise','neutral'],然后使用Session來(lái)激活ckpt文件對(duì)話(huà)。模型測(cè)試主要分為三步:1、建立人臉表情文件夾:收集所需要識(shí)別的人臉圖像存放到一個(gè)文件夾。2、創(chuàng)建函數(shù)對(duì)所需要識(shí)別的圖形進(jìn)行數(shù)據(jù)處理創(chuàng)建函數(shù)advance_image(images_):輸入圖像格式做統(tǒng)一處理。新建列表(rsz_img)用for循環(huán)將一張一張圖像filp水平翻轉(zhuǎn)后的數(shù)組數(shù)據(jù),resize重新規(guī)定為48*48數(shù)組,且np.reshape重新規(guī)定數(shù)組組成為[48,48,1]存入后,在建一個(gè)新列表(rsz_imgs)把(rsz_img)轉(zhuǎn)換為numpy.array格式存入。具體方式如下圖3-3-6所示:圖3-3-6圖像數(shù)據(jù)處理圖創(chuàng)建函數(shù)produce_result(images_):對(duì)處理過(guò)的圖像數(shù)據(jù),進(jìn)行識(shí)別得出結(jié)果,生成tensor。創(chuàng)建函數(shù)produce_confusion_matrix(images_list_,total_num_):產(chǎn)生混淆矩陣代碼實(shí)現(xiàn)將confusion_matrix值設(shè)置為T(mén)rue即生成混淆矩陣False為識(shí)別遍歷指定文件夾內(nèi)所有jpg與png格式的圖片,并計(jì)算7種表情的百分比。創(chuàng)建函數(shù)predict_emotion(image_):調(diào)用produce_result(images_)使用模型進(jìn)行預(yù)測(cè)表情。具體代碼如下圖3-3-7所示:圖3-3-7預(yù)測(cè)表情主要代碼圖創(chuàng)建函數(shù)face_detect():調(diào)用人臉識(shí)別模型進(jìn)行人臉識(shí)別定位。為了加快檢測(cè)速度,過(guò)濾噪點(diǎn)目標(biāo)的目的,選擇使用detectMultiScale函數(shù)中目標(biāo)檢測(cè)對(duì)象的最大與最小兩極尺寸。3、進(jìn)行表情識(shí)別,識(shí)別出的人臉使用cv2.rectangle(img,(x,y),(x+w,y+h),(188,20,125),3)用方框?qū)⑷四樋蜃?,并用cv2.putText(img,emo,a,cv2.FONT_HERSHEY_SCRIPT_COMPLEX,www_s,(255,200,155),thickness=www,lineType=1)函數(shù)將識(shí)別出的表情類(lèi)別寫(xiě)在方框下方,把7種表情的比例用柱狀圖表示出來(lái)。遍歷文件夾所有圖片進(jìn)行識(shí)別。最終效果展示如下圖3-3-8與圖3-3-9:圖3-3-8識(shí)別實(shí)例圖1圖3-3-9識(shí)別實(shí)例圖23.4本章小結(jié)表情識(shí)別的技術(shù)原理與和實(shí)現(xiàn)原理具體流程如下圖3-4-1:圖3-4-1表情識(shí)別具體流程圖經(jīng)過(guò)測(cè)試與諸多fer2013模型的測(cè)試對(duì)比發(fā)現(xiàn),netural表情最多,happy,surprise兩類(lèi)表情識(shí)別準(zhǔn)確率相對(duì)較高,而對(duì)angry,fear,sad類(lèi)表情識(shí)別準(zhǔn)確率較低,因?yàn)樗麄兌际且园櫭?,抿嘴等一系列的?dòng)作來(lái)辨別表情的,不利于相互之間做明顯區(qū)分。如下表3-2所示:表3-2測(cè)試結(jié)果angrydisgustfearhappysadsurpriseneutralangry0.6820.0220.16990.01120.14230.01540.1122disgust0.1170.66920.06910.00250.01440.01890.0087fear0.0870.01970.6520.00340.09820.05840.0031happy0.3050.00250.04650.87660.01550.01560.1579sad0.03150.07090.0520.0260.7120.0220.1561surprise0.02150.0040.06520.00250.00760.78350.0075neutral0.03540.00450.02350.0620.04320.01250.06995由表3-2可以看出開(kāi)心的表情準(zhǔn)確率是最高的,因?yàn)樗麄儽旧淼莫?dú)有特點(diǎn)是比較獨(dú)特與其他表情沒(méi)有太大的相似性。生氣,不安與傷心的準(zhǔn)確率相對(duì)來(lái)說(shuō)比較低都在65%-72%之間,并且相互識(shí)別也達(dá)到了10%的幾率會(huì)識(shí)別錯(cuò)誤為相互的表情,主要原因?yàn)樵谟?xùn)練集中,各類(lèi)表情數(shù)據(jù)量占比不統(tǒng)一,表情特征的相似性,從而導(dǎo)致模型具有傾向性。第四章系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn)4.1系統(tǒng)設(shè)計(jì)4.1.1系統(tǒng)功能需求用戶(hù)可以通過(guò)生成的ui界面進(jìn)行提交圖像、實(shí)時(shí)攝像頭讀取視頻數(shù)據(jù)進(jìn)行分析,然后通過(guò)檢測(cè)得到對(duì)應(yīng)的表情分析結(jié)果。該系統(tǒng)并沒(méi)有制定適用人群,需求分析沒(méi)有較為復(fù)雜繁瑣的功能,普通的使用pyqt5與opencv進(jìn)行實(shí)現(xiàn)圖片識(shí)別與視頻在線(xiàn)人臉表情識(shí)別GUI界面封裝。最主要的工作仍然是放在內(nèi)部各種深度網(wǎng)絡(luò)算法(包括人臉面部表情特征識(shí)別提取、搭建卷積神經(jīng)網(wǎng)絡(luò)等)的優(yōu)化搭建以及實(shí)現(xiàn),并且進(jìn)一步明確各個(gè)功能之間的關(guān)聯(lián)性以及是否達(dá)到目的準(zhǔn)確率。4.1.2系統(tǒng)模塊流程人臉表情識(shí)別系統(tǒng)數(shù)據(jù)處理流程如圖4-1-1所示:圖4-1-1數(shù)據(jù)處理流程圖4.2相關(guān)技術(shù)4.2.1pyqt5介紹PyQt是由RiverbankComputing開(kāi)發(fā),由一系列Python模塊組合而成的,有不少于620個(gè)類(lèi)與6000個(gè)函數(shù)和方法,是最強(qiáng)大的GUI庫(kù)之一。PyQt提供了一款對(duì)使用者非常友好且設(shè)計(jì)極優(yōu)的窗口控件集合,每一個(gè)PyQt控件都會(huì)有其專(zhuān)屬的Qt控件。pyqt5特性為:跨平臺(tái)性、高性能的GUI控件、對(duì)QT庫(kù)進(jìn)行完全封裝、提供一整套齊全的窗口控件,可以利用IDE進(jìn)行對(duì)界面設(shè)計(jì)與制作,其最大優(yōu)點(diǎn)是一鍵生成Python代碼。本系統(tǒng)用到的pyqt5模塊為:1、QtGui:包括窗口控件、2D圖像、基本繪畫(huà)、事項(xiàng)處理、字體與文字類(lèi)。QtWidgets類(lèi)還包羅創(chuàng)建桌面應(yīng)用的一系列UI元素2、QtMultimedia:包括處理多媒體和調(diào)節(jié)使用攝像頭API的類(lèi)。3、QtWidgets:創(chuàng)建主窗口及其主要組成部分4.2.2opencv介紹英特爾公司發(fā)起并參與開(kāi)發(fā),最終提出的一個(gè)可以跨平臺(tái)使用的計(jì)算機(jī)視覺(jué)庫(kù)——OpenCV(OpenSourceComputerVisionLibrary)。開(kāi)始出現(xiàn)在人們認(rèn)知世界。OpenCV可利用于實(shí)時(shí)性的圖像處理的開(kāi)發(fā)、計(jì)算機(jī)視覺(jué)、模式辨別程序以及對(duì)象鑒別、圖形濾波、模塊匹配、顏色空間、人機(jī)交互、圖形分區(qū)、物體、姿勢(shì)、人臉識(shí)別、動(dòng)作跟蹤、機(jī)器人等等領(lǐng)域。主要用到的模塊:video視頻剖析組件與core主要核心功能模塊4.2.3具體設(shè)計(jì)采集視頻:在電腦端通過(guò)0penCVs模塊cv2.VideoCapture()獲得來(lái)自網(wǎng)絡(luò)攝像頭的視頻流,然后對(duì)視頻流進(jìn)行挖掘分析。抽取視頻幀:VideoCapture()可在構(gòu)造函數(shù)中打開(kāi)視頻,當(dāng)參數(shù)為0時(shí),默認(rèn)打開(kāi)本機(jī)攝像頭獲取視頻流,若還帶有其他攝像頭可通過(guò)修改參數(shù)進(jìn)行選擇??梢酝ㄟ^(guò)flag,self.image=self.cap.read()進(jìn)行數(shù)據(jù)獲取,第一個(gè)參數(shù)為T(mén)rueorFalse,代表有沒(méi)有讀取到圖片,第二個(gè)參數(shù)表示截取到一幀的圖片。圖像預(yù)處理:cvtColor()方法可用于轉(zhuǎn)換圖像的色彩空間,參數(shù)為cv2.COLOR_BGR2RGB代表把視頻色彩轉(zhuǎn)換回RGB,這樣才是現(xiàn)實(shí)的顏色,因?yàn)橐婚_(kāi)始讀取彩色圖像得到的格式是BGR格式。使用OpenCV自帶的人臉檢測(cè)器(haarcascade_frontalface_alt.xml)可以利用該檢測(cè)器判斷圖像中是否含有人臉,如果含有人臉則做進(jìn)一步分析,可調(diào)用detectMultiScale方法檢測(cè)圖,分析像中的人臉區(qū)域。具體代碼如下圖4-2-1所示:圖4-2-1檢查人臉代碼圖表情檢測(cè)標(biāo)準(zhǔn):在調(diào)用人臉檢測(cè)接口時(shí)帶上訓(xùn)練所得的模型參數(shù),即可對(duì)這張人臉圖片進(jìn)行情緒識(shí)別,并且通過(guò)putText添加表情文字。主要代碼如下圖4-2-2所示:圖4-2-2標(biāo)注表情代碼圖界面設(shè)計(jì):self.timer_camera=QtCore.QTimer()定義了定時(shí)器用于控制視頻的幀率,使用QtWidgets.QVBoxLayout,將案件向左垂直平均分布布局,設(shè)置四個(gè)按鍵打開(kāi)圖片、退出、打開(kāi)圖片、關(guān)閉圖片,界面右側(cè)還有個(gè)label窗口用于打開(kāi)的圖片顯示在此地,具體代碼如下圖4-2-3所示:圖4-2-3GUI界面設(shè)計(jì)代碼圖其中打開(kāi)圖片按鍵,構(gòu)建函數(shù)button_open_camera_clicked(),設(shè)置若點(diǎn)擊該鍵將開(kāi)始計(jì)時(shí),當(dāng)攝像頭被打開(kāi)時(shí),自動(dòng)變?yōu)殛P(guān)閉相機(jī),當(dāng)點(diǎn)擊關(guān)閉相機(jī),同理,再次變?yōu)榇蜷_(kāi)相機(jī),具體代碼圖插件函數(shù)代碼如下圖4-2-4所示:圖4-2-4插件函數(shù)代碼圖需要把讀取到的視頻數(shù)據(jù)由np.array格式變成QImage形式再通過(guò)setPixmap()把攝像頭數(shù)據(jù)映射到主界面窗口中,代碼如下:showImage=QtGui.QImage(show.data,show.shape[1],show.shape[0],QtGui.QImage.Format_RGB888)self.label_show_camera.setPixmap(QtGui.QPixmap.fromImage(showImage))用戶(hù)使用人臉表情識(shí)別系統(tǒng)具體流程如圖4-2-5所示:圖4-2-5系統(tǒng)具體流程可以對(duì)用戶(hù)識(shí)別出的情緒信息進(jìn)行統(tǒng)計(jì)分析,并以圖表的形式直觀的展示給用戶(hù),可以使用Matplotlib庫(kù)收集表情圖形識(shí)別后各種表情相似性百分比通過(guò)生成直方圖與餅狀圖可視化。生成的圖表被保存為本地文件,可以在所設(shè)置的路徑查到相應(yīng)的圖表如圖4-2-6和圖4-2-7所示。圖4-2-6直方圖圖4-2-7餅狀圖4.3系統(tǒng)運(yùn)行效果打開(kāi)文件夾選擇圖片主要界面如下圖4-3-1所示:圖4-3-1打開(kāi)文件界面圖圖片識(shí)別主要界面如下圖4-3-2所示:圖4-3-2圖片表情識(shí)別圖打開(kāi)攝像頭,視頻識(shí)別主要界面如下圖4-3-3所示:圖4-3-3視頻表情識(shí)別圖使用pyqt將系統(tǒng)封裝起來(lái)后,對(duì)圖片識(shí)別的效果影響不大,但是對(duì)于攝像頭實(shí)時(shí)識(shí)別會(huì)有一點(diǎn)影響,因?yàn)樵谡{(diào)用攝像頭的時(shí)候是讀的幀數(shù),然后計(jì)算機(jī)色彩也有一定的調(diào)整,所以還是會(huì)有一點(diǎn)點(diǎn)小影響,但是已經(jīng)盡量?jī)?yōu)化。4.4本章小結(jié)該系統(tǒng)現(xiàn)在可以實(shí)時(shí)識(shí)別人臉表情也可以通過(guò)圖片進(jìn)行識(shí)別人臉表情,并且可以同時(shí)進(jìn)行多個(gè)人了進(jìn)行檢測(cè),主要是基于Tensorflow與卷積神經(jīng)網(wǎng)絡(luò)的一個(gè)表情識(shí)別研究,后期可以?xún)?yōu)化界面,增加友好交互性,界面美觀性,還可以?xún)?yōu)化作為網(wǎng)課實(shí)時(shí)監(jiān)控學(xué)生的表情變化,提供給上網(wǎng)課的老師們使用,讓最終的識(shí)別系統(tǒng)功能更加完善。總結(jié)5.1工作總結(jié)本研究題目為基于Tensorflow的表情識(shí)別算法研究,主要工作是收集數(shù)據(jù)集進(jìn)行預(yù)處理和搭建卷積神經(jīng)網(wǎng)絡(luò),利用OpenCV進(jìn)行對(duì)視頻流的分析,并用PYQT5進(jìn)行GUI界面封裝,具體工作如下文:簡(jiǎn)要的介紹了人臉表情識(shí)別在國(guó)內(nèi)外的主要研究以及發(fā)展領(lǐng)域。詳細(xì)的描述了Tensorflow框架的相關(guān)知識(shí)領(lǐng)域。3、對(duì)在網(wǎng)上收集與采用的數(shù)據(jù)集(fer2013),進(jìn)行預(yù)處理,包括圖像數(shù)據(jù)格式的處理,使用Tensorflow特有的格式TFRecord進(jìn)行數(shù)據(jù)集的分類(lèi):訓(xùn)練集、測(cè)試集、私有測(cè)試集。4、搭建卷積神經(jīng)網(wǎng)絡(luò),參考GoogleNet并且多次嘗試與修改最終搭建了一個(gè)4層卷積層的卷積神經(jīng)網(wǎng)絡(luò)對(duì)數(shù)據(jù)集進(jìn)行人類(lèi)面臉表情識(shí)別的模型訓(xùn)練。雖然準(zhǔn)確率有所提升,但是由于數(shù)據(jù)集(fer2013)數(shù)據(jù)自身某些如光線(xiàn),臉部比例等問(wèn)題,準(zhǔn)確率最終只能達(dá)到75%左右。5、成功實(shí)現(xiàn)了基于Tensorflow的人臉表情識(shí)別模型,并在Window8+python3.7+tensorflow2.0的筆記本上進(jìn)行了模型測(cè)試,能夠?qū)D片進(jìn)行人臉表情的自動(dòng)識(shí)別,且準(zhǔn)確率和效果較為理想6、利用Pyqt5+OpenCV進(jìn)行了界面的封裝,成功的實(shí)現(xiàn)一個(gè)可以圖片能識(shí)別以及實(shí)時(shí)視頻人臉表情識(shí)別的系統(tǒng)。5.2不足與展望本研究仍然存在一些不足,在搭建卷積神經(jīng)網(wǎng)路時(shí),還是脫離不開(kāi)舊版的搭建方式,沒(méi)有太大的創(chuàng)新,所以人臉表情識(shí)別的準(zhǔn)確率還有點(diǎn)差強(qiáng)人意,沒(méi)有太大突破,主要是因?yàn)橐驗(yàn)楣P記本為純CPU環(huán)境,實(shí)現(xiàn)卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練時(shí)花費(fèi)了過(guò)多的時(shí)間,訓(xùn)練效率極低,無(wú)法投入現(xiàn)實(shí)使用,界面也沒(méi)有進(jìn)行更好的優(yōu)化,還只是普通的實(shí)現(xiàn)了功能?,F(xiàn)代社會(huì),圖像識(shí)別是研究熱門(mén)主流,可以應(yīng)用在許多環(huán)境中,如2020年上半年因?yàn)槟承┰?,學(xué)校要開(kāi)始上網(wǎng)課,就可以進(jìn)行通過(guò)攝像頭進(jìn)行人臉識(shí)別簽到,以及課程上全程實(shí)時(shí)的表情識(shí)別,通過(guò)數(shù)據(jù)來(lái)了解講解到哪一段知識(shí)學(xué)生們比較感興趣。還可以可以進(jìn)一步的針對(duì)圖像識(shí)別,在表情識(shí)別的基礎(chǔ)上加入性別識(shí)別與年齡識(shí)別一起研究,利用殘差resnet網(wǎng)絡(luò)進(jìn)行優(yōu)化搭建卷積神經(jīng)網(wǎng)絡(luò),從而提高識(shí)別的準(zhǔn)確率。利用qtdesigner設(shè)計(jì)系統(tǒng)界面,完善識(shí)別系統(tǒng),增加系統(tǒng)操作性和美化界面可觀性,以上就是現(xiàn)階段的展望。參考文獻(xiàn)鄭攀海,郭凌,丁立兵.基于TensorFlow的卷積神經(jīng)網(wǎng)絡(luò)的研究與實(shí)現(xiàn)[J].電子技術(shù)與軟件工程,2018,000(018):P.20-22.產(chǎn)文濤.基于卷積神經(jīng)網(wǎng)絡(luò)的人臉表情和性別識(shí)別[D].2016.鐘思志.人臉面部表情識(shí)別算法研究[D].華東師范大學(xué),2015.宋永生.基于OpenCV及AI的網(wǎng)絡(luò)學(xué)習(xí)者情緒監(jiān)測(cè)系統(tǒng)[J].信息技術(shù)與信息化,2019(11):9-12.曹彤彤.基于卷積神經(jīng)網(wǎng)絡(luò)的人臉表情識(shí)別算法研究[D].2019.薛雨麗,毛峽,郭葉,etal.人機(jī)交互中的人臉表情識(shí)別研究進(jìn)展[J].中國(guó)圖象圖形學(xué)報(bào),2019,14(5).葉敬福.基于視頻圖像的人臉表情識(shí)別技術(shù)的研究[D].江蘇大學(xué).王志良,陳鋒軍,薛為民.人臉表情識(shí)別方法綜述%ASURVEYOFFACIALEXPRESSIONRECOGNITION[J].計(jì)算機(jī)應(yīng)用與軟件,2003,020(012):63-66.牛連強(qiáng),陳向震,張勝男,etal.Modelconstructionandperformanceanalysisfordeepconsecutiveconvolutionalneuralnetwork%深度連續(xù)卷積神經(jīng)網(wǎng)絡(luò)模型構(gòu)建與性能分析[J].沈陽(yáng)工業(yè)大學(xué)學(xué)報(bào),2016,038(006):662-666.OngaloPhoebeNasimiyuFedha.OnFacialExpressionRecognitionBasedonMachineLearningandTechniques[C],中南大學(xué),2014.6致謝在大學(xué)最后一段日子里,一邊做研究一邊回想過(guò)去,想到了許多我感激的人與事。首先,我要嚴(yán)肅且認(rèn)真的給予最真誠(chéng)的感謝至我們認(rèn)識(shí)不久卻非常勞心勞力的幫助我完成研究的導(dǎo)師商麗娟。從定題到開(kāi)始實(shí)踐到論文的編寫(xiě)到處都是商麗娟老師心血與汗水揮灑的痕跡,老師不厭其煩的回答我一個(gè)又一個(gè)簡(jiǎn)單又瑣碎的問(wèn)題。在我陷入迷茫與死循環(huán)中時(shí),是老師點(diǎn)醒了我,給我指了一條明亮的路,當(dāng)我搭建算法準(zhǔn)備訓(xùn)練時(shí),因?yàn)橛布?wèn)題,老師甚至想要給我借機(jī)器去完成我的模型訓(xùn)練,在論文的撰寫(xiě)中悉心指點(diǎn),提出許多細(xì)微的修改,真的很感謝您。然后,我要感謝大學(xué)四年里所有指導(dǎo)過(guò)我的老師,是你們讓我一步一步了解到軟件工程這個(gè)專(zhuān)業(yè)的人格魅力,讓我喜歡且愛(ài)戴這個(gè)專(zhuān)業(yè),其中特別感謝蘇老師與胡老師,是你們帶我接觸到大數(shù)據(jù)這一個(gè)方向,讓我接觸到了python與機(jī)器學(xué)習(xí)并且深深的愛(ài)上python這一門(mén)語(yǔ)言。此外,還要感謝參考文獻(xiàn)的作者們,通過(guò)你們學(xué)術(shù)性的研究論文,我才可以在碰到難點(diǎn)時(shí)得到指引,站在巨人的肩膀上完成了這篇論文。最后感謝16級(jí)軟件6班的全體成員,我們一起度過(guò)了寶貴的四年,還有我親愛(ài)的父母。
HYPERLINK如何選擇組裝電腦配件
如何選擇組裝的電腦配件.
第一,選擇好CPU平臺(tái),就是INTER還是AMD,看你是要配什么樣的電腦,高端還是低端的,兩個(gè)平臺(tái)都高低的產(chǎn)品。第二,選擇主板了,主板的品牌比較多,質(zhì)量,價(jià)格也不一,當(dāng)你第一步卻定了,那么主板也就相應(yīng)的卻定下來(lái)了,以INTER為例,只可以選擇775接口的主板(早期有478接口的,不推薦),主板的選擇主要有兩種,一是集成顯卡,二是不集成顯卡。集成顯卡的話(huà),就可以省下顯卡的錢(qián),但是對(duì)游戲玩家不推薦。那么當(dāng)然是選擇不集成顯卡的主板了,而且最好選擇一線(xiàn)品牌,如華碩,技嘉等。主板里,還有個(gè)蕊片組的選擇。關(guān)于蕊片組,各個(gè)品牌的主板命名有些不一樣,主流是INTER965,945,915,VIA的KT890,還有NFORCE4,NFORCE5。等。比較難說(shuō)清楚。最好是選擇INTER的蕊片組,雖然價(jià)格會(huì)稍高一些。推薦945,技術(shù)比較成熟。第三,顯卡的選擇。顯卡主要還是有兩類(lèi)品牌,GEFORCE和ATI,兩個(gè)品牌有高,中,低的顯卡。顯卡選擇要看你個(gè)人喜歡了,預(yù)算充足的話(huà),最好是買(mǎi)中,高端的顯卡。
第四,就是內(nèi)存了,內(nèi)存關(guān)系電腦的穩(wěn)定性。當(dāng)然是要好一點(diǎn)的。買(mǎi)一線(xiàn)品牌的?,F(xiàn)在配電腦,主流是DDR667,DDR800DDR1333第五,顯示器的選擇,推薦液晶。如何選擇硬件組裝電腦這是一個(gè)老生常談的問(wèn)題了,這也是一個(gè)讓高手們顯示自己硬件功底的問(wèn)題,同時(shí)這還是一個(gè)讓很多新手為之焦頭爛額的問(wèn)題。該怎么配?具體配什么?怎樣配才能盡量減小瓶頸?本文就將從內(nèi)到外,從理論到實(shí)踐,為朋友們抽絲剝繭一一道來(lái)。
一、CPU
作為一臺(tái)電腦最關(guān)鍵的組成部分,CPU確實(shí)起著舉足輕重的作用,但體現(xiàn)一臺(tái)電腦的綜合速度,并不是僅僅依靠CPU的,常??吹胶芏嘈率謧?cè)谂潆娔X的時(shí)候,把CPU選的很好,但其他的東西諸如內(nèi)存、主板、硬盤(pán)等都選的不太理想,好像這臺(tái)電腦速度的快慢就體現(xiàn)在CPU速度的快慢上似的。甚至很多著名的品牌機(jī)廠商,都推出過(guò)類(lèi)似“P4+256M內(nèi)存”的這種跛腳配置。其實(shí)對(duì)于一般的家用電腦而言,一個(gè)真正會(huì)配的高手,是不會(huì)把大量的錢(qián)花在CPU上的。家用電腦,畢竟不是做密集型科學(xué)計(jì)算用的,它講求的是多種媒體的配合工作,講求的是能一邊下載文件、一邊上網(wǎng)瀏覽網(wǎng)頁(yè)、一邊聽(tīng)音樂(lè)、一邊還能打開(kāi)其他的程序,在這種情況下,提升內(nèi)存的容量比提升CPU的主頻對(duì)速度的影響要明顯的多。現(xiàn)今的中國(guó)家庭用戶(hù),很多家長(zhǎng)對(duì)于電腦一竅不通,他們只聽(tīng)說(shuō)“奔四”代表著速度快,并不知道整機(jī)速度的快慢除了CPU以外,還有很多其他的因素影響著它。但在買(mǎi)電腦的時(shí)候,最后做決定并掏錢(qián)的人,往往都是這些啥都不懂的家長(zhǎng)們,于是就出現(xiàn)了上面的一幕:品牌機(jī)廠商為了能有更好的銷(xiāo)路、兼容機(jī)裝機(jī)店的銷(xiāo)售人員為了能拿到更多的獎(jiǎng)金,開(kāi)始違背良心來(lái)配置出這種高主頻處理器、低容量?jī)?nèi)存的跛腳電腦。說(shuō)嚴(yán)重點(diǎn),這是屬于對(duì)消費(fèi)者的不負(fù)責(zé)任,是一種商業(yè)欺詐行為!同樣5000元的配置,高手配出來(lái)的賽揚(yáng),比新手配出來(lái)的P4還要快很多,曾經(jīng)有一家全球著名的硬件網(wǎng)站在2003年的時(shí)候刊登過(guò)一篇關(guān)于配置家用電腦時(shí)各硬件占用總預(yù)算百分比的文章,文中很明確的提到了CPU的價(jià)錢(qián)最好不要超過(guò)總預(yù)算的10%-15%,我們雖然不能說(shuō)他肯定完全正確,但至少人家是通過(guò)很多調(diào)查后得出的結(jié)論,有借鑒的理由。反觀現(xiàn)在的很多所謂的“低價(jià)奔四電腦”、“3999元買(mǎi)P4品牌機(jī)”之類(lèi)的廣告,我想說(shuō)的就是:你花了3999元,只買(mǎi)了一塊P4的處理器,其他的什么都沒(méi)有了!
二、內(nèi)存
對(duì)于配置一臺(tái)電腦來(lái)說(shuō),內(nèi)存是重頭戲,容量、速度、類(lèi)型等等每一項(xiàng)指標(biāo)都對(duì)最終的整機(jī)綜合速度起著至關(guān)重要的影響,尤其是內(nèi)存的帶寬和容量。對(duì)于內(nèi)存帶寬而言,很多人都認(rèn)為400MHz、533MHz前端總線(xiàn)的賽揚(yáng)四或P4,配單通道的DDR內(nèi)存就足夠了,雙通道DDR內(nèi)存是配合800MHz以上前端總線(xiàn)的P4處理器用的,其實(shí)這樣就大錯(cuò)特錯(cuò)了,哪怕是最老的賽揚(yáng)四,都需要雙通道的DDR內(nèi)存才能達(dá)到它的帶寬!也就是說(shuō),你如果選擇賽揚(yáng)四1.8G,必須配合865以上的主板和至少雙通道DDR200的內(nèi)存,才能滿(mǎn)足它的帶寬要求!稍微計(jì)算一下就可以得知:賽揚(yáng)四1.8G的前端總線(xiàn)是400MHz,它的內(nèi)存帶寬理論值是400MHz×64bit÷8=3.2G/s,但當(dāng)它裝在845系列的主板上時(shí),由于845主板的限制,即使你插上能符合它帶寬要求的DDR400內(nèi)存,也只能運(yùn)行在DDR266上,這時(shí)的內(nèi)存所能提供的帶寬是266MHz×64bit÷8=2.1G/s,比3.2G/s要小很多,即使你通過(guò)BIOS里的內(nèi)存調(diào)節(jié)選項(xiàng)往上調(diào)節(jié)一檔(也只能調(diào)節(jié)一檔而已),讓內(nèi)存運(yùn)行在DDR333下,所能提供的帶寬也僅僅是333MHz×64bit÷8=2.66G/s,離3.2G/s還是有一定的距離,而內(nèi)存帶寬的降低,能非常明顯的降低整機(jī)的綜合速度,運(yùn)行任何程序都能明顯的感覺(jué)出來(lái)!所以如果想滿(mǎn)足賽揚(yáng)1.8G處理器的內(nèi)存帶寬要求,你必須要為它配置865以上的主板和雙通道的內(nèi)存才行!P4亦是如此。很多人也許會(huì)問(wèn):那845系列的主板是配什么處理器的呢?我想回答你的就是:845系列的主板是屬于“不能用”的主板,因?yàn)樘幚砥饔肋h(yuǎn)比主板發(fā)展的快,當(dāng)初Intel造出845系列的芯片組是為了能給當(dāng)時(shí)的賽揚(yáng)和P4提供一個(gè)過(guò)渡的平臺(tái),不至于讓它們成為“沒(méi)有主板配合”的處理器而已,也是為了能在低端市場(chǎng)分一杯羹,而現(xiàn)今865甚至9xx系列的主板橫行的時(shí)候,845系列的主板確實(shí)是屬于“不能用”的主板了,滿(mǎn)足不了任何一款處理器的內(nèi)存帶寬,造成性能上的嚴(yán)重低下,試問(wèn)這種主板你會(huì)選擇么?即使配臺(tái)2000多元的超低價(jià)電腦,也不要去選擇845系列的主板,至少需要865以上的和雙通道內(nèi)存才行,因?yàn)閮?nèi)存帶寬是一個(gè)非常影響系統(tǒng)性能的參數(shù),倘若一味的為了省錢(qián)而配置845系列的主板,那就得不償失了。
內(nèi)存的容量方面,應(yīng)每個(gè)人對(duì)電腦的使用方向不同,容量的要求也是不同的,現(xiàn)在配置的家用電腦,筆者建議:如果不打游戲,或者是打打掃雷、紙牌之類(lèi)的游戲,平時(shí)注重于上網(wǎng)瀏覽或者是聊天、看電影之類(lèi)的應(yīng)用的話(huà),內(nèi)存容量不應(yīng)該低于1G;如果是偶爾打打單機(jī)游戲或者是網(wǎng)絡(luò)游戲,內(nèi)存容量應(yīng)該選擇在2G左右,如果是經(jīng)常打大型的游戲或是進(jìn)行HDTV視頻編輯等應(yīng)用,那么4G的內(nèi)存是必不可少的。
三、主板
一臺(tái)電腦的穩(wěn)定性和兼容性,一大部分是看主板的,一款優(yōu)秀的主板不僅需要擁有上等的用料和優(yōu)良的做工,還需要擁有合理的走線(xiàn)設(shè)計(jì),那些沒(méi)有技術(shù)實(shí)力的三、四線(xiàn)主板廠家生產(chǎn)的主板,多數(shù)是采用公版走線(xiàn),而且用料非常差,穩(wěn)定性不堪一擊,這種類(lèi)型的主板,筆者建議寧愿不買(mǎi)電腦也不要配這種主板,否則以后將會(huì)是個(gè)淘氣的祖宗。對(duì)于家庭用戶(hù),主板方面一定不能省錢(qián),預(yù)算夠的話(huà)最好能買(mǎi)個(gè)一線(xiàn)的主板品牌,如果預(yù)算實(shí)在不足,二線(xiàn)的主板是底線(xiàn)了,不要再往下選擇了,畢竟家用電腦是用來(lái)使用的,不是用來(lái)整天維修的。再談到主板的用料,筆者常常看到很多新手在配置主板的時(shí)候,貌似老鳥(niǎo)似的說(shuō)某某品牌的主板好,某某品牌的不好,試問(wèn)你知道它好在哪里么?不好在哪里么?這個(gè)就要看主板的用料了,雖然用料好的主板并不能代表一定是高檔主板,但最少能代表它的電氣性能出色。舉一個(gè)很簡(jiǎn)單的例子吧:有A、B兩款主板,A主板的處理器供電濾波電容采用的是日系電容,B主板的處理器供電濾波電容采用的是臺(tái)系電容,那么基本上可以肯定的是:如果在電源輸出電壓的波動(dòng)范圍比較大的情況下,A主板就比較能耐得住,而B(niǎo)主板就很容易產(chǎn)生電容鼓包、漏夜等情況。不要小看這小小的電容,筆者從一個(gè)開(kāi)維修店的朋友那里得知,來(lái)維修主板的人,有80%的都是這幾個(gè)小電容損壞,究其原因,就是電源選擇的不好,導(dǎo)致了輸出電壓的不穩(wěn)定,久而久之最終導(dǎo)致這幾個(gè)小電容爆漿,并且詳細(xì)敘述了主板的品牌:“一線(xiàn)廠家的×碩牌主板就很少出現(xiàn)這種情況,但同樣為一線(xiàn)廠家的×星牌主板,經(jīng)常遇到!原因就是前者的大部分主板使用的是日系電容,而后者的大部分主板為了省錢(qián),選用的是臺(tái)系電容!”廠家的廣告不能信,宣傳也不能信,看到一個(gè)產(chǎn)品的廣告之后,你所能相信的唯一一點(diǎn)就是:地球上有這么個(gè)產(chǎn)品的存在!然后其他的就統(tǒng)統(tǒng)都不能信了!網(wǎng)上有好多所謂的“評(píng)測(cè)”文章,都是槍手寫(xiě)的,基本上沒(méi)有任何參考余地,只能作為一篇小說(shuō)來(lái)讀,一款主板的真正性能,只有你自己使用了之后才能知道。廠家為了銷(xiāo)量、商家為了利潤(rùn),他們能把最最垃圾的主板宣傳為最頂級(jí)的產(chǎn)品,筆者曾經(jīng)就看到過(guò)一款四線(xiàn)品牌的主板廠商,在對(duì)其主流主板的廣告上說(shuō)“最優(yōu)秀的設(shè)計(jì)、最精湛的工藝、最穩(wěn)定的性能”……結(jié)果一看報(bào)價(jià):550元/塊……其他的話(huà)我也不想多說(shuō)了,只想問(wèn)問(wèn)這家廠商:你這么垃圾的主板都用了三個(gè)“最”字,那么華碩的同芯片組主板,售價(jià)是你三倍的,應(yīng)該用什么詞語(yǔ)來(lái)描述了??中國(guó)有一句古話(huà):一分錢(qián)一分貨,說(shuō)的非常正確!不要認(rèn)為價(jià)格高的主板就是暴利產(chǎn)品,從市場(chǎng)經(jīng)濟(jì)學(xué)上說(shuō),暴利產(chǎn)品是不會(huì)被市場(chǎng)所接受的,之所以他能存活到今天,而且售價(jià)依然是這么高,肯定有他的理由,他在做工用料方面肯定比其他品牌的要好很多,成本高所以售價(jià)高,在此,筆者奉勸大家一句:買(mǎi)主板千萬(wàn)不要憑僥幸心理,認(rèn)為自己能花很少的錢(qián)買(mǎi)到很好的東西,只有錯(cuò)買(mǎi)的沒(méi)有錯(cuò)賣(mài)的,商家永遠(yuǎn)都比你精明!主板上面還是老老實(shí)實(shí)的多花點(diǎn)錢(qián)來(lái)買(mǎi)個(gè)一線(xiàn)產(chǎn)品吧,否則以后有你吃苦的時(shí)候!
四、硬盤(pán)
現(xiàn)在的電腦,硬盤(pán)的速度當(dāng)之無(wú)愧的成為了“第一大瓶頸”,無(wú)論你是再高的高手,配電腦的時(shí)候也無(wú)法消除這個(gè)瓶頸的存在,我們只有盡量的減小…再減小……。對(duì)于家用電腦的硬盤(pán)來(lái)說(shuō),容量和速度是兩個(gè)非常重要的參數(shù),容量上而言,筆者建議:如果你的電腦只是上網(wǎng)瀏覽瀏覽、偶爾打打小游戲的,那么160G的硬盤(pán)是個(gè)不錯(cuò)的選擇;如果你常常下載軟件或電影,那么250G的硬盤(pán)是個(gè)不錯(cuò)的選擇,如果你是個(gè)下載狂人,那么400G的硬盤(pán)比較適合你;如果你有DV或者是經(jīng)常編輯大型的視頻文件,那么400G×2比較適合你,如果你是個(gè)玩HDTV的人,那么恭喜你,400G×4也許你都不夠用。對(duì)于硬盤(pán)容量上的選擇,你不能考慮現(xiàn)在是否夠用,你應(yīng)該考慮未來(lái)的1年里是否夠用,大概的公式是:現(xiàn)在需要的容量×3。也就是說(shuō),如果你現(xiàn)在感覺(jué)80G的硬盤(pán)差不多夠用了,那么你就需要買(mǎi)個(gè)250G的硬盤(pán)。如果你現(xiàn)在感覺(jué)120G的硬盤(pán)夠用了,那么就去買(mǎi)個(gè)400G的硬盤(pán)吧。硬盤(pán)另外的一個(gè)參數(shù)就是速度,受到內(nèi)部傳輸率等諸多因素的限制,一塊硬盤(pán)的實(shí)際傳輸速度是不可能達(dá)到它的接口速度的,現(xiàn)在的并口硬盤(pán)基本上都是ATA133了,串口硬盤(pán)也都是150了,但民用級(jí)硬盤(pán)的實(shí)際傳輸速度最快的也還沒(méi)突破66M/s,所以跟內(nèi)存相比,硬盤(pán)的速度是電腦中最大的瓶頸,那么怎么來(lái)減小這個(gè)瓶頸呢?于是人們就發(fā)明了RAID,就是磁盤(pán)陣列(當(dāng)然RAID不是僅僅為了這個(gè)而發(fā)明的),用兩塊一模一樣的硬盤(pán)來(lái)組成RAID0,速度理論上能提高1倍,雖然實(shí)際上是不可能達(dá)到1倍的,但至少能非常非常明顯的感覺(jué)到了硬盤(pán)速度的提升,筆者建議:如果你買(mǎi)的主板是帶有RAID功能的,并且你需要保存的數(shù)據(jù)不是很重要的話(huà),那么強(qiáng)烈建議你在預(yù)算允許的情況下購(gòu)買(mǎi)兩塊硬盤(pán)來(lái)組建RAID0,這將使你能親身體會(huì)到飛機(jī)與火車(chē)的速度差別!但最好是串口的,如果是并口的話(huà),因?yàn)椴⒖谧叩氖荘CI總線(xiàn),由于PCI總線(xiàn)上的設(shè)備比較多,所以速度不可能達(dá)到比較高的地步,但如果是串口的話(huà),那么硬盤(pán)的速度提升將更加明顯!
五、顯示器
顯示器方面,筆者想澄清一個(gè)觀念:曾經(jīng)聽(tīng)過(guò)非常多的人說(shuō)液晶顯示器保護(hù)眼睛,因?yàn)闆](méi)有輻射和閃爍……包括很多業(yè)內(nèi)人士都這么認(rèn)為的,其實(shí)錯(cuò)了,液晶顯示器比普通的CRT還要傷眼睛!因?yàn)閭劬Σ粌H僅是輻射和閃爍,還有對(duì)比度、亮度等參數(shù),雖然液晶顯示器的輻射和閃爍比CRT要小的多,但它那要命的對(duì)比度、那要命的色澤度、還有那大于每平方米300cd的亮度,這些都會(huì)對(duì)眼睛造成很大的傷害,并且你即使將液晶顯示器的亮度和對(duì)比度調(diào)節(jié)到最低,也還是非常的刺眼。德國(guó)的一家權(quán)威機(jī)構(gòu)做過(guò)一項(xiàng)調(diào)查:液晶顯示器用久了會(huì)使人的眼睛感覺(jué)到疲倦,甚至頭痛等癥狀,而使用相同時(shí)間的CRT顯示器,卻基本沒(méi)有這些情況出現(xiàn)?,F(xiàn)在的通過(guò)TCO03認(rèn)證的CRT顯示器,其實(shí)外露的輻射已經(jīng)相當(dāng)小了,基本上對(duì)人已經(jīng)沒(méi)有多大的傷害了,閃爍感也可以通過(guò)調(diào)節(jié)刷新率來(lái)降低,筆者實(shí)在是搞不懂為什么很多人非要去選擇液晶顯示器,還非要說(shuō)液晶顯示器不傷眼睛??一個(gè)最差的17寸液晶顯示器的價(jià)格,能買(mǎi)一臺(tái)不錯(cuò)的、通過(guò)TCO03標(biāo)準(zhǔn)的19寸CRT了,顯示面積也差不多大,而且CRT又比液晶更保護(hù)眼睛,液晶顯示器唯一的一個(gè)優(yōu)點(diǎn)就是占用空間小而已,其他的統(tǒng)統(tǒng)是缺點(diǎn),為什么不選擇CRT呢??說(shuō)到TCO03標(biāo)準(zhǔn),現(xiàn)在很多的號(hào)稱(chēng)是通過(guò)TCO03認(rèn)證的顯示器,其實(shí)都是貼牌的,都沒(méi)有真正的通過(guò),關(guān)于怎樣鑒別一臺(tái)TCO03的顯示器,網(wǎng)上已經(jīng)有很多文章可以搜索到,筆者在此不想過(guò)多敘述,只是提醒大家一點(diǎn):一臺(tái)真正的通過(guò)TCO03認(rèn)證的顯示器,外表的顏色除了白色以外,是不會(huì)有其他顏色的了,因?yàn)門(mén)CO03認(rèn)證中有重要的一條就是外殼可回收性,而除了白色以外,其他的任何顏色都加了有機(jī)染料在里面,是不能作為回收利用的,這點(diǎn)請(qǐng)大家購(gòu)買(mǎi)顯示器的時(shí)候一定要注意了!
六、電源
作為一臺(tái)電腦的動(dòng)力之源,電源質(zhì)量的好壞直接關(guān)系到這臺(tái)電腦的壽命,在這點(diǎn)上筆者先要肯定一下品牌機(jī)廠商的做法了,在各大品牌機(jī)中,雖然其他配件可以用跛腳來(lái)形容,但所配的電源和機(jī)箱基本上都是不錯(cuò)的,功率雖然不是很大,但滿(mǎn)足它的配置是足夠了。而一些新手在配兼容機(jī)的時(shí)候,很多情況下都忽視了電源這一方面,結(jié)果導(dǎo)致的直接后果就是主板電容爆漿、硬盤(pán)損壞、顯卡電容爆漿等情況。對(duì)于電源來(lái)說(shuō),有很多參數(shù)去標(biāo)準(zhǔn)它,但對(duì)我們影響最大的兩個(gè)參數(shù)就是它的功率和輸出電流穩(wěn)定度,首先來(lái)看看它的功率:很多國(guó)內(nèi)的著名電源制造廠商,例如×河田、×國(guó)者等等品牌,都有嚴(yán)重虛標(biāo)功率的行為,他們所標(biāo)稱(chēng)的功率,基本上就是這款電源的峰值功率,并不是額定功率,電源的功率一共分三種:額定功率、最大功率和峰值功率,額定功率是指電源能夠在此負(fù)載下長(zhǎng)時(shí)間穩(wěn)定工作;最大功率是指電源能夠在此負(fù)載下短時(shí)間工作,時(shí)間一長(zhǎng)就容易出現(xiàn)問(wèn)題;峰值功率是指電源的瞬間可承受負(fù)載,如果時(shí)間稍微一長(zhǎng),馬上就冒煙。也就是說(shuō),最
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 農(nóng)村建私房合同范本
- Module1Unit 2 I feel nervous when I speak Chinese.教學(xué)設(shè)計(jì)- 2024-2025學(xué)年外研版英語(yǔ)八年級(jí)下冊(cè)
- 專(zhuān)家工作合同范本模板
- 公寓購(gòu)房合同范本
- 保潔人員勞務(wù)合同范本
- 刺繡行業(yè)雇工合同范本
- 分公司設(shè)立合同范本
- 農(nóng)戶(hù)銷(xiāo)售果樹(shù)合同范本
- 農(nóng)用農(nóng)機(jī)出售合同范本
- 保險(xiǎn)條款合同范本
- 電瓶三輪車(chē)安全培訓(xùn)
- 造船廠有限空間作業(yè)安全措施方案
- 人教版三年級(jí)下冊(cè)數(shù)學(xué)第一單元 位置與方向(一)(單元練習(xí))
- 2024年廣告部業(yè)務(wù)年度工作計(jì)劃樣本(3篇)
- 《大學(xué)生創(chuàng)新創(chuàng)業(yè)實(shí)務(wù)》課件-2.1創(chuàng)新思維訓(xùn)練 訓(xùn)練創(chuàng)新思維
- 能源管理軟件招標(biāo)模板高效節(jié)能
- 城鄉(xiāng)環(huán)衛(wèi)保潔投標(biāo)方案
- 大數(shù)據(jù)安全與隱私保護(hù)考核試卷
- 有效喝酒免責(zé)協(xié)議書(shū)(2篇)
- 《高血脂相關(guān)知識(shí)》課件
- DB31-T 255-2020 集中式空調(diào)(中央空調(diào))系統(tǒng)節(jié)能運(yùn)行和管理技術(shù)要求
評(píng)論
0/150
提交評(píng)論