深度造假取證方式研究_第1頁
深度造假取證方式研究_第2頁
深度造假取證方式研究_第3頁
深度造假取證方式研究_第4頁
免費(fèi)預(yù)覽已結(jié)束,剩余1頁可下載查看

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

1、    深度造假取證方式研究    王淏摘要:隨著計算機(jī)技術(shù)的不斷成熟,許多方便的計算機(jī)技術(shù)被運(yùn)用在我的在我們生活中,但在這一背景下也滋生了許多不法網(wǎng)絡(luò)行為,深度造假就是其中之一。深度造假利用機(jī)器學(xué)習(xí),對信息源進(jìn)行拆分,替換,能達(dá)到以假亂真的效果。 現(xiàn)階段,大部分民眾是通過自己眼睛,常識去判斷信息的真實性,深度造假這一技術(shù)會讓絕大部分民眾的信息識別能力大幅下降,沒有辦法準(zhǔn)確識別信息是否真實,本文通過對deepfake進(jìn)行算法解析,并模擬多次fakeapp進(jìn)行數(shù)據(jù)模型訓(xùn)練,從多次實驗?zāi)M中進(jìn)行歸納總結(jié),可出結(jié)論;深度造假在對生命周期進(jìn)行學(xué)習(xí)時,只能模擬大體

2、上的生命特征,但無法模擬細(xì)小的生命周期,如眨眼頻率,表情鮮活度。因此可以利用該特點(diǎn)對深度造假軟件進(jìn)行取證。關(guān)鍵詞:深度造假;生命周期;deepfake;信息真實1 引言1.1 研究背景隨著時代的不斷進(jìn)步,大數(shù)據(jù)的應(yīng)用越來越廣泛,人工智能即ai應(yīng)運(yùn)而生,逐漸被應(yīng)用在各個領(lǐng)域。然而隨著人工智能技術(shù)的不斷成熟,普及,隨之帶來的是一系列安全問題。目前國外已經(jīng)出現(xiàn)的“深度造假”就是人工智能的一個體現(xiàn)。該程序是利用給程序進(jìn)行不斷的數(shù)據(jù)學(xué)習(xí),數(shù)據(jù)的大量“喂食”讓程序進(jìn)行一個數(shù)據(jù)模擬。1.2 研究現(xiàn)狀深度造假是利用一個程序的反復(fù)學(xué)習(xí),加深學(xué)習(xí),收集大量的數(shù)據(jù)資料推導(dǎo)出模型,并利用模型進(jìn)行造假活動?!吧疃仍旒佟?/p>

3、看上去與真人并無差別但是其本質(zhì)上就是模型模仿的過程。就像美國紐約大學(xué)法學(xué)兼職教授保羅·巴雷特說,簡單來講,“深度造假”就是借助深度學(xué)習(xí)手段制作的虛假視頻。深度學(xué)習(xí)系統(tǒng)可以從多個角度研究目標(biāo)人物的照片和視頻,然后模仿其行為和說話模式,從而制造出具有說服力的虛假內(nèi)容。1這種“深度造假”的危險在于,這種技術(shù)可以讓人相信原本并不真實存在的東西是真實的。1.3 研究內(nèi)容本文從人工智能的本質(zhì)出發(fā)對其證明,探討了試圖證明神經(jīng)網(wǎng)絡(luò)的算法,模擬了深度學(xué)習(xí)所產(chǎn)生的深度造假運(yùn)行形式,并通過列舉了一系列范例揭示了人工智能取證系統(tǒng)可以針對哪一點(diǎn)進(jìn)行取證。2 deepfake實際運(yùn)行模擬實驗為了驗證本實驗猜想,

4、本文對深度造假進(jìn)行了模擬實驗,模擬deepfake的運(yùn)行過程,首先我們需要下載cuda,cudnn,vs2015等文件,并將其安裝在電腦中 ,接著下載fakeapp,并在其原路徑下壓解core文件。由此將fakeapp的日志環(huán)境,運(yùn)行條件搭建好,接下來進(jìn)行視頻素材人物解析,注;本文在實驗中采用了抖音軟件中某知名網(wǎng)紅視頻,以及演藝圈某知名明星視頻作為實驗素材,(本人聲明以下為實驗數(shù)據(jù),結(jié)果視頻第一時間刪除,并承諾一切相關(guān)視頻不得用于商業(yè)用途。)接著打開fakeapp的軟件界面;選中g(shù)et dateset 出現(xiàn)如下界面,將實驗素材放入程序中,這一步的目的是將視頻分割成圖片,然后從圖片中提取臉部。這

5、個環(huán)節(jié)只需要填寫兩個地方,一個是vidoe視頻路徑,一個是幀率fps,默認(rèn)為30。之后開始運(yùn)行;接著用同樣的方式操作ftm.mp4,最好得出兩個視頻素材的圖片,面部特征數(shù)據(jù)具體過程和上述過程一致,最后得出如圖; 接下來進(jìn)行第二步,訓(xùn)練模型模型是很重要的一個數(shù)據(jù)分析,也是一個極其消耗時間的東西。訓(xùn)練模型對電腦配置的要求也是比較高。本文實驗時不具備高配置實驗環(huán)境,因此用時3天建立了一個訓(xùn)練模型,mode是模型的保存路徑  data a: 被換的人臉date b: 拿去換的人臉,輸入路徑之后,點(diǎn)擊train開始訓(xùn)練。稍等片刻下面就會顯示loss a:xxxx ,lossb:xxxx 。 同

6、時model 目錄下除了四個文件。同時還會跳出一個有很多臉的預(yù)覽窗口。如圖;這一個環(huán)節(jié)是非常耗時間的,一般需要幾天時間,在這期間我們可以關(guān)注上圖紅框內(nèi)的數(shù)值,當(dāng)兩者的數(shù)值差在0.01到0.02之間時,人臉預(yù)覽圖越來越清晰,第二列第三列和第一列一樣清晰,這時候這個訓(xùn)練過程基本上就已經(jīng)結(jié)束了,接下來我們就可以開始第三步的準(zhǔn)備工作,首先將訓(xùn)練模型整理好,檢查文件路徑,即可開始第三步,生成視頻。生成視頻的過程分為幾個步驟。首先,輸入model 路徑。video路徑 頻率(30)然后,點(diǎn)擊create。然后程序自動開始,處理過程可分成4個階段。生成圖片、截取臉部、合成圖片、合成視頻。如圖所示;以上為其中

7、一個實驗過程,本次實驗選取時間,空間為環(huán)境變量進(jìn)行多次實驗?zāi)M,通過6次實驗?zāi)M,得出以下圖表。本實驗通過對模型訓(xùn)練的時間進(jìn)行控制,來進(jìn)行實驗,從而來得到以上數(shù)據(jù),通過以上數(shù)據(jù)可以看出模型訓(xùn)練時間越短誤差值越大,其合成的視頻清晰度,相似度越低。而生命周期特征則是無論訓(xùn)練時間如何變化,一直在56之間來回波動,該實驗說明了模型訓(xùn)練的時間長短并不影響生命周期特征的變化。這說明了deepfake對生命周期的模擬是一個定值,不能精準(zhǔn)模擬,而模型訓(xùn)練的時間長短只會影響其結(jié)果的清晰度與相似度。因此可以得出結(jié)論;人工智能取證系統(tǒng)針對深度造假的取證方向受生命周期尺度因子變化而變化,即;深度造假在對生命周期進(jìn)行學(xué)習(xí)時,只能模擬大體上的生命特征,如;眨眼,表情等,但無法模擬細(xì)小的生命周期,如眨眼頻率,表情鮮活度。因此可以利用該特點(diǎn)對深度造假軟件進(jìn)行取證。3 結(jié)論通過實驗?zāi)M算法解析,我們發(fā)現(xiàn),訓(xùn)練模型受到時間,環(huán)境的影響,其會使得其清晰度,相似度受到改變。而其生命周期特征是在一個特定的值來回波動。從實驗總結(jié)得出結(jié)論;人工智能取證系統(tǒng)針對深度造假的取證方向受生命周期尺度因子變化而變化,即;深度造假在對生命周期進(jìn)行學(xué)習(xí)時,

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論