Tensorflow基礎(chǔ)教學(xué)講義課件_第1頁(yè)
Tensorflow基礎(chǔ)教學(xué)講義課件_第2頁(yè)
Tensorflow基礎(chǔ)教學(xué)講義課件_第3頁(yè)
Tensorflow基礎(chǔ)教學(xué)講義課件_第4頁(yè)
Tensorflow基礎(chǔ)教學(xué)講義課件_第5頁(yè)
已閱讀5頁(yè),還剩90頁(yè)未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

Tensorflow基礎(chǔ)第四天-Tensorflow基礎(chǔ)1、深度學(xué)習(xí)介紹2、認(rèn)識(shí)Tensorflow3、Tensorflow的安裝4、Tensorflow初體驗(yàn)5、Tensorflow進(jìn)階6、案例:實(shí)現(xiàn)線性回歸Ayellowbusdrivingdownaroadwithgreentreesandgreengrassinthebackground.Livingroomwithwhitecouchandbluecarpeting.Theroomintheapartmentgetssomeafternoonsun.這些都是深度學(xué)習(xí)程序所寫聊天對(duì)話系統(tǒng)深度學(xué)習(xí)介紹深度學(xué)習(xí),如深度神經(jīng)網(wǎng)絡(luò)、卷積神經(jīng)網(wǎng)絡(luò)和遞歸神經(jīng)網(wǎng)絡(luò)已被應(yīng)用計(jì)算機(jī)視覺(jué)、語(yǔ)音識(shí)別、自然語(yǔ)言處理、音頻識(shí)別與生物信息學(xué)等領(lǐng)域并獲取了極好的效果。深度學(xué)習(xí)框架Tensorflow認(rèn)識(shí)Tensorflow1、真正的可移植性引入各種計(jì)算設(shè)備的支持包括CPU/GPU/TPU,以及能夠很好地運(yùn)行在移動(dòng)端,如安卓設(shè)備、ios、樹(shù)莓派等等2、多語(yǔ)言支持Tensorflow有一個(gè)合理的c++使用界面,也有一個(gè)易用的python使用界面來(lái)構(gòu)建和執(zhí)行你的graphs,你可以直接寫python/c++程序。3、高度的靈活性與效率TensorFlow是一個(gè)采用數(shù)據(jù)流圖(dataflowgraphs),用于數(shù)值計(jì)算的開(kāi)源軟件庫(kù)能夠靈活進(jìn)行組裝圖,執(zhí)行圖。隨著開(kāi)發(fā)的進(jìn)展,Tensorflow的效率不算在提高4、支持

TensorFlow由谷歌提供支持,谷歌投入了大量精力開(kāi)發(fā)TensorFlow,它希望TensorFlow成為機(jī)器學(xué)習(xí)研究人員和開(kāi)發(fā)人員的通用語(yǔ)言Tensorflow特點(diǎn)使用tensorflow的公司Tensorflow教學(xué)版本使用17年2月份發(fā)布的1.0版本更快:TensorFlow1.0運(yùn)行速度變得更加快更靈活TensorFlow1.0還加入了一些高級(jí)API,包括tf.layers,tf.metrics和tf.losses模塊。以及加入了一些類似scikit-learn的estimator機(jī)制0.12版本之后支持的可視化能夠可視化的看見(jiàn)程序圖的結(jié)構(gòu)Tensorflow的安裝Linux/ubuntuMac開(kāi)啟GPU支持(不推薦)如果您的系統(tǒng)沒(méi)有NVIDIA?GPU,請(qǐng)構(gòu)建并安裝CPU版本Ubuntu:安裝CUDA和cuDNNMac:安裝CUDA和cuDNNTensorflow初體驗(yàn)通過(guò)案例來(lái)了解分析Tensorflow的整個(gè)結(jié)構(gòu)加法運(yùn)算Tensorflow加法運(yùn)算數(shù)據(jù)流圖:Tensorflow計(jì)算密集型vsIO密集型Tensorflow與以往接觸的不同Tensorflow進(jìn)階1、圖2、會(huì)話3、張量4、變量5、模型保存和加載6、自定義命令行參數(shù)圖圖默認(rèn)已經(jīng)注冊(cè),一組表示tf.Operation計(jì)算單位的對(duì)象和tf.Tensor表示操作之間流動(dòng)的數(shù)據(jù)單元的對(duì)象獲取調(diào)用:tf.get_default_graph()op、sess或者tensor的graph屬性哪些是op圖的創(chuàng)建tf.Graph()使用新創(chuàng)建的圖

g=tf.Graph() withg.as_default(): a=tf.constant(1.0) assertc.graphisg會(huì)話tf.Session()運(yùn)行TensorFlow操作圖的類,使用默認(rèn)注冊(cè)的圖(可以指定運(yùn)行圖)會(huì)話資源會(huì)話可能擁有很多資源,如tf.Variable,tf.QueueBase和tf.ReaderBase,會(huì)話結(jié)束后需要進(jìn)行資源釋放sess=tf.Session()

sess.run(...)

sess.close()使用上下文管理器withtf.Session()assess: sess.run(...)config=tf.ConfigProto(log_device_placement=True)交互式:tf.InteractiveSession()會(huì)話的run()方法run(fetches,feed_dict=None,graph=None)

運(yùn)行ops和計(jì)算tensor嵌套列表,元組,namedtuple,dict或OrderedDict(重載的運(yùn)算符也能運(yùn)行)feed_dict允許調(diào)用者覆蓋圖中指定張量的值,提供給placeholder使用返回值異常 RuntimeError:如果它Session處于無(wú)效狀態(tài)(例如已關(guān)閉)。 TypeError:如果fetches或feed_dict鍵是不合適的類型。 ValueError:如果fetches或feed_dict鍵無(wú)效或引用Tensor不存在。Tensorflow

Feed操作意義:在程序執(zhí)行的時(shí)候,不確定輸入的是什么,提前“占個(gè)坑”語(yǔ)法:placeholder提供占位符,run時(shí)候通過(guò)feed_dict指定參數(shù)張量1、張量的階和數(shù)據(jù)類型2、張量操作關(guān)閉警告importos

os.environ['TF_CPP_MIN_LOG_LEVEL']='2'張量的階和數(shù)據(jù)類型Tensorflow基本的數(shù)據(jù)格式一個(gè)類型化的N維度數(shù)組(tf.Tensor)三部分,名字,形狀,數(shù)據(jù)類型張量的階張量的數(shù)據(jù)類型張量屬性graph

張量所屬的默認(rèn)圖op 張量的操作名name 張量的字符串描述shape 張量形狀張量的動(dòng)態(tài)形狀與靜態(tài)形狀TensorFlow中,張量具有靜態(tài)形狀和動(dòng)態(tài)形狀靜態(tài)形狀:創(chuàng)建一個(gè)張量或者由操作推導(dǎo)出一個(gè)張量時(shí),初始狀態(tài)的形狀tf.Tensor.get_shape:獲取靜態(tài)形狀tf.Tensor.set_shape():更新Tensor對(duì)象的靜態(tài)形狀,通常用于在不能直接推斷的情況下動(dòng)態(tài)形狀:一種描述原始張量在執(zhí)行過(guò)程中的一種形狀tf.reshape:創(chuàng)建一個(gè)具有不同動(dòng)態(tài)形狀的新張量1、轉(zhuǎn)換靜態(tài)形狀的時(shí)候,1-D到1-D,2-D到2-D,不能跨階數(shù)改變形狀

2、

對(duì)于已經(jīng)固定或者設(shè)置靜態(tài)形狀的張量/變量,不能再次設(shè)置靜態(tài)形狀

3、tf.reshape()動(dòng)態(tài)創(chuàng)建新張量時(shí),元素個(gè)數(shù)不能不匹配要點(diǎn)張量操作-生成張量為什么需要正態(tài)分布的變量值?正態(tài)分布概率密度函數(shù)為正態(tài)分布的期望值μ決定了其位置,其標(biāo)準(zhǔn)差σ決定了分布的幅度。當(dāng)μ=0,σ=1時(shí)的正態(tài)分布是標(biāo)準(zhǔn)正態(tài)分布。張量操作-張量變換切片與擴(kuò)展tf.concat(values,axis,name='concat')/versions/r1.0/api_guides/python/math_ops提供給Tensor運(yùn)算的數(shù)學(xué)函數(shù)算術(shù)運(yùn)算符基本數(shù)學(xué)函數(shù)矩陣運(yùn)算減少維度的運(yùn)算(求均值)序列運(yùn)算注:這些都是在1.0版本下的函數(shù),不同版本會(huì)有些差異變量1、變量的創(chuàng)建2、變量的初始化3、變量的作用域變量變量也是一種OP,是一種特殊的張量,能夠進(jìn)行存儲(chǔ)持久化,它的值就是張量變量的創(chuàng)建tf.Variable(initial_value=None,name=None)創(chuàng)建一個(gè)帶值initial_value的新變量assign(value)為變量分配一個(gè)新值返回新值eval(session=None)計(jì)算并返回此變量的值name屬性表示變量名字變量的初始化tf.global_variables_initializer()添加一個(gè)初始化所有變量的op在會(huì)話中開(kāi)啟可視化學(xué)習(xí)Tensorboard數(shù)據(jù)序列化-events文件TensorBoard通過(guò)讀取TensorFlow的事件文件來(lái)運(yùn)行tf.summary.FileWriter('/tmp/tensorflow/summary/test/',graph=default_graph)返回filewriter,寫入事件文件到指定目錄(最好用絕對(duì)路徑),以提供給tensorboard使用開(kāi)啟tensorboard--logdir=/tmp/tensorflow/summary/test/一般瀏覽器打開(kāi)為:6006注:修改程序后,再保存一遍會(huì)有新的事件文件,打開(kāi)默認(rèn)為最新圖中的符號(hào)意義增加變量顯示1、收集變量tf.summary.scalar(name=’’,tensor)收集對(duì)于損失函數(shù)和準(zhǔn)確率等單值變量,name為變量的名字,tensor為值tf.summary.histogram(name=‘’,tensor)收集高維度的變量參數(shù)tf.summary.image(name=‘’,tensor)收集輸入的圖片張量能顯示圖片2、合并變量寫入事件文件merged=tf.summary.merge_all()運(yùn)行合并:summary=sess.run(merged),每次迭代都需運(yùn)行添加:FileWriter.add_summary(summary,i),i表示第幾次的值目的:觀察模型的參數(shù)、損失值等變量值的變化tensorflow實(shí)現(xiàn)一個(gè)簡(jiǎn)單的線性回歸案例簡(jiǎn)單的API介紹線性回歸實(shí)現(xiàn)結(jié)果演示動(dòng)畫演示Tensorflow運(yùn)算API矩陣運(yùn)算tf.matmul(x,

w)平方tf.square(error)均值tf.reduce_mean(error)tf.train.GradientDescentOptimizer(learning_rate)

梯度下降優(yōu)化learning_rate:學(xué)習(xí)率,一般為method:return:梯度下降op梯度下降A(chǔ)PITensorboard觀察圖結(jié)構(gòu),變量顯示作用域想一想之前函數(shù)里面,一個(gè)變量的作用域?tensorflow變量作用域tf.variable_scope(<scope_name>)創(chuàng)建指定名字的變量作用域觀察變量的name改變?嵌套使用變量作用域觀察變量的name改變?如果在之前,給變量取相同的name會(huì)出現(xiàn)什么樣的情況?tensorflow變量作用域的作用讓模型代碼更加清晰,作用分明模型保存和加載tf.train.Saver(var_list=None,max_to_keep=5)var_list:指定將要保存和還原的變量。它可以作為一個(gè)dict或一個(gè)列表傳遞.max_to_keep:指示要保留的最近檢查點(diǎn)文件的最大數(shù)量。創(chuàng)建新文件時(shí),會(huì)刪除較舊的文件。如果無(wú)或0,則保留所有檢查點(diǎn)文件。默認(rèn)為5(即保留最新的5個(gè)檢查點(diǎn)文件。)例如:saver.save(sess,'/tmp/ckpt/test/model')saver.restore(sess,'/tmp/ckpt/test/model')保存文件格式:checkpoint文件自定義命令行參數(shù)1、2、

tf.app.flags.,在flags有一個(gè)FLAGS標(biāo)志,它在程序中可以調(diào)用到我們前面具體定義的flag_name3、通過(guò)tf.app.run()啟動(dòng)main(argv)函數(shù)Thankyou!治療中樞神經(jīng)退行性疾病藥

指一組因中樞神經(jīng)元退行變性、脫失而引起的慢性進(jìn)行性神經(jīng)系統(tǒng)疾病。主要包括:帕金森病(Parkinson’sdisease,PD)阿爾茨海默病(Alzheimer’sdisease,AD)亨廷頓舞蹈病(Huntingtondisease,HD)肌萎縮側(cè)索硬化癥(amyotrophiclateralsclerosis)中樞退行性疾病

PD又稱震顫麻痹,典型癥狀為靜止震顫、肌肉強(qiáng)直、運(yùn)動(dòng)遲緩。主要由錐體外系功能失控所致。分為原發(fā)性(即PD)和繼發(fā)性(帕金森綜合征)兩類,后者可繼發(fā)于腦動(dòng)脈硬化、腦炎、衰老或化學(xué)和藥物中毒等。原發(fā)性PD主要是基底神經(jīng)節(jié)的黑質(zhì)進(jìn)行性變性引起假說(shuō)1:黑質(zhì)-紋狀體DA-Ach功能失衡假說(shuō)2:DA氧化-自由基學(xué)說(shuō)抗帕金森病藥正常時(shí)黑質(zhì)-紋狀體有正常時(shí)兩者處于動(dòng)態(tài)平衡,參與調(diào)節(jié)機(jī)體運(yùn)動(dòng)機(jī)能:多巴胺能神經(jīng)元對(duì)脊髓前角運(yùn)動(dòng)神經(jīng)起抑制作用;膽堿能神經(jīng)元對(duì)脊髓前角運(yùn)動(dòng)神經(jīng)起興奮作用。輕癥:抗膽堿藥和MAO-B抑制藥重癥:L-dopa,無(wú)效者用DA-R激動(dòng)藥抗帕金森病藥{

多巴胺能神經(jīng)元膽堿能神經(jīng)元擬多巴胺類藥(一)多巴胺的前體藥左旋多巴(levodopa)是DA遞質(zhì)的前體物質(zhì):酪氨酸→L-多巴→DA左旋多巴(levodopa)口服給藥①約1%透過(guò)血腦屏障進(jìn)入中樞,被AADC轉(zhuǎn)化成DA,補(bǔ)充紋狀體內(nèi)DA不足,治療PD。②其余被外周多巴脫羧酶脫羧,變?yōu)槎喟桶?,不能透過(guò)血腦屏障,只在外周發(fā)揮作用,引起嚴(yán)重不良反應(yīng)。③若同時(shí)服用外周脫羧酶抑制劑卡比多巴,可使進(jìn)入腦內(nèi)的左旋多巴增多,同時(shí)減少外周的不良反應(yīng)。左旋多巴(levodopa)臨床應(yīng)用1.治療PD?。浩鸩〕跗诏熜Ц@著。①起效慢,用藥2-3周才出現(xiàn)體征改善;1-6個(gè)月獲得最大療效。②對(duì)輕癥和年輕患者療效較好,對(duì)重癥和老年患者療效較差。③對(duì)肌肉僵直和運(yùn)動(dòng)困難的療效較肌肉震顫好,對(duì)癡呆癥狀不容易改善。左旋多巴(levodopa)臨床應(yīng)用2.治療肝昏迷使肝昏迷患者從昏迷變?yōu)榍逍?,但不能改善肝功能,不能根治。左旋多?levodopa)不良反應(yīng):因外周轉(zhuǎn)變?yōu)槎喟桶匪?.胃腸道反應(yīng):DA直接刺激胃腸道和興奮CTZ中D2R。D2R阻斷藥多潘立酮可消除惡心,嘔吐。AADC抑制藥卡比多巴亦可預(yù)防。2.心血管反應(yīng):30%在治療初期出現(xiàn)直立性低血壓DA作用于交感神經(jīng)反饋性抑制NA釋放;DA作用于動(dòng)脈壁DAR,擴(kuò)管;DA作用于心臟βR,用相應(yīng)的阻斷藥有效。左旋多巴(levodopa)3.長(zhǎng)期反應(yīng):運(yùn)動(dòng)過(guò)多癥:異常動(dòng)作,手足、軀體、舌不自主運(yùn)動(dòng),可用DA-R阻斷藥左旋千金藤啶堿治療;癥狀波動(dòng):服用3-5年后,40-80%出現(xiàn)癥狀波動(dòng):“開(kāi)-關(guān)反應(yīng)”??捎肔-DA/AADC抑制藥緩釋劑、DA-R激動(dòng)劑、MAO抑制劑司來(lái)吉蘭,少量多次服藥等方法防治;精神障礙;10-15%出現(xiàn)精神錯(cuò)亂,夢(mèng)幻、幻覺(jué)、幻視或抑郁癥,可用氯氮平治療。左旋多巴(levodopa)藥物相互作用:維生素B6是多巴脫羧酶的輔酶,增強(qiáng)外周多巴脫羧酶的活性,使多巴胺生成增多,增強(qiáng)左旋多巴的外周副作用。L-Dopa增效藥AADC抑制藥:卡比多巴(α-甲基多巴肼):不能透過(guò)血腦屏障,抑外周AADC。心寧美:本品+L-Dopa1:4或10。MAO-B選擇性抑制藥:司來(lái)吉蘭(丙炔苯丙氨):對(duì)腸道MAO-A無(wú)作用,能迅速進(jìn)入腦內(nèi),抑制DA降解。硝替卡朋:抑制COMT。L-Dopa增效藥

溴隱亭:DA2受體激動(dòng)藥激動(dòng)黑質(zhì)-紋狀體通路DA2R激動(dòng)結(jié)節(jié)漏斗部DA2受體:減少催乳素和生長(zhǎng)激素釋放。臨床應(yīng)用:1.治療PD,輔助左旋多巴控制不自主運(yùn)動(dòng)和過(guò)度開(kāi)關(guān)現(xiàn)象2.閉經(jīng)或乳溢3.垂體瘤膽堿受體阻斷藥代表藥:苯海索(安坦)適應(yīng)證:輕癥PD患者不能耐受左旋多巴或禁用左旋多巴的患者治療抗精神病藥引起的PD綜合征,腦炎或動(dòng)脈硬化引起的震顫麻痹不良反應(yīng):與阿托品相似老年

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論