深度-分布式文件系統(tǒng)設(shè)計(jì)要點(diǎn)_第1頁
深度-分布式文件系統(tǒng)設(shè)計(jì)要點(diǎn)_第2頁
深度-分布式文件系統(tǒng)設(shè)計(jì)要點(diǎn)_第3頁
深度-分布式文件系統(tǒng)設(shè)計(jì)要點(diǎn)_第4頁
深度-分布式文件系統(tǒng)設(shè)計(jì)要點(diǎn)_第5頁
已閱讀5頁,還剩10頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

1、 深度:分布式文件系統(tǒng)設(shè)計(jì)要點(diǎn) 作者:張軻,目前任職于杭州大樹網(wǎng)絡(luò)技術(shù)有限公司,擔(dān)任首席架構(gòu)師,負(fù)責(zé)系統(tǒng)整體業(yè)務(wù)架構(gòu)以及基礎(chǔ)架構(gòu)。一、概述分布式文件系統(tǒng)是分布式領(lǐng)域的一個(gè)基礎(chǔ)應(yīng)用,其中最著名的毫無疑問是 HDFS/GFS 。如今該領(lǐng)域已經(jīng)趨向于成熟,但了解它的設(shè)計(jì)要點(diǎn)和思想,對我們將來面臨類似場景/問題時(shí),具有借鑒意義。并且,分布式文件系統(tǒng)并非只有 HDFS/GFS 這一種形態(tài),在它之外,還有其他形態(tài)各異、各有千秋的產(chǎn)品形態(tài),對它們的了解,也對擴(kuò)展我們的視野有所俾益。本文試圖分析和思考,在分布式文件系統(tǒng)領(lǐng)域,我們要解決哪些問題、有些什么樣的方案、以及各自的選擇依據(jù)。二、過去的樣子在幾十年以前,

2、分布式文件系統(tǒng)就已經(jīng)出現(xiàn)了,以 Sun 在 1984 年開發(fā)的“Network File System (NFS)”為代表,那時(shí)候解決的主要問題,是網(wǎng)絡(luò)形態(tài)的磁盤,把磁盤從主機(jī)中獨(dú)立出來。這樣不僅可以獲得更大的容量,而且還可以隨時(shí)切換主機(jī),還可以實(shí)現(xiàn)數(shù)據(jù)共享、備份、容災(zāi)等,因?yàn)閿?shù)據(jù)是電腦中最重要的資產(chǎn)。NFS 的數(shù)據(jù)通信圖如下:部署在主機(jī)上的客戶端,通過 TCP/IP 協(xié)議把文件命令轉(zhuǎn)發(fā)到遠(yuǎn)程文件 Server 上執(zhí)行,整個(gè)過程對主機(jī)用戶透明。到了互聯(lián)網(wǎng)時(shí)代,流量和數(shù)據(jù)快速增長,分布式文件系統(tǒng)所要解決的主要場景變了,開始需要非常大的磁盤空間,這在磁盤體系上垂直擴(kuò)容是無法達(dá)到的,必須要分布式,同

3、時(shí)分布式架構(gòu)下,主機(jī)都是可靠性不是非常好的普通服務(wù)器,因此容錯(cuò)、高可用、持久化、伸縮性等指標(biāo),就成為必須要考量的特性。三、對分布式文件系統(tǒng)的要求對一個(gè)分布式文件系統(tǒng)而言,有一些特性是必須要滿足的,否則就無法有競爭力。主要如下:應(yīng)該符合 POSIX 的文件接口標(biāo)準(zhǔn),使該系統(tǒng)易于使用,同時(shí)對于用戶的遺留系統(tǒng)也無需改造;對用戶透明,能夠像使用本地文件系統(tǒng)那樣直接使用;持久化,保證數(shù)據(jù)不會(huì)丟失;具有伸縮性,當(dāng)數(shù)據(jù)壓力逐漸增長時(shí)能順利擴(kuò)容;具有可靠的安全機(jī)制,保證數(shù)據(jù)安全;數(shù)據(jù)一致性,只要文件內(nèi)容不發(fā)生變化,什么時(shí)候去讀,得到的內(nèi)容應(yīng)該都是一樣的。除此之外,還有些特性是分布式加分項(xiàng),具體如下:支持的空間

4、越大越好;支持的并發(fā)訪問請求越多越好;性能越快越好;硬件資源的利用率越高越合理,就越好。四、架構(gòu)模型從業(yè)務(wù)模型和邏輯架構(gòu)上,分布式文件系統(tǒng)需要這幾類組件:存儲組件:負(fù)責(zé)存儲文件數(shù)據(jù),它要保證文件的持久化、副本間數(shù)據(jù)一致、數(shù)據(jù)塊的分配 / 合并等等;管理組件:負(fù)責(zé) meta 信息,即文件數(shù)據(jù)的元信息,包括文件存放在哪臺服務(wù)器上、文件大小、權(quán)限等,除此之外,還要負(fù)責(zé)對存儲組件的管理,包括存儲組件所在的服務(wù)器是否正常存活、是否需要數(shù)據(jù)遷移等;接口組件:提供接口服務(wù)給應(yīng)用使用,形態(tài)包括 SDK(Java/C/C+ 等)、CLI 命令行終端、以及支持 FUSE 掛載機(jī)制。而在部署架構(gòu)上,有著“中心化”和

5、“無中心化”兩種路線分歧,即是否把“管理組件”作為分布式文件系統(tǒng)的中心管理節(jié)點(diǎn)。兩種路線都有很優(yōu)秀的產(chǎn)品,下面分別介紹它們的區(qū)別。1、有中心節(jié)點(diǎn)以 GFS 為代表,中心節(jié)點(diǎn)負(fù)責(zé)文件定位、維護(hù)文件 meta 信息、故障檢測、數(shù)據(jù)遷移等管理控制的職能,下圖是 GFS 的架構(gòu)圖:GFS架構(gòu)該圖中 GFS master 即為 GFS 的中心節(jié)點(diǎn),GF chunkserver 為 GFS 的存儲節(jié)點(diǎn)。其操作路徑如下:Client 向中心節(jié)點(diǎn)請求“查詢某個(gè)文件的某部分?jǐn)?shù)據(jù)”;中心節(jié)點(diǎn)返回文件所在的位置 (哪臺 chunkserver 上的哪個(gè)文件) 以及字節(jié)區(qū)間信息;Client 根據(jù)中心節(jié)點(diǎn)返回的信息,

6、向?qū)?yīng)的 chunk server 直接發(fā)送數(shù)據(jù)讀取的請求;chunk server 返回?cái)?shù)據(jù)。在這種方案里,一般中心節(jié)點(diǎn)并不參與真正的數(shù)據(jù)讀寫,而是將文件 meta 信息返回給 Client 之后,即由 Client 與數(shù)據(jù)節(jié)點(diǎn)直接通信。其主要目的是降低中心節(jié)點(diǎn)的負(fù)載,防止其成為瓶頸。這種有中心節(jié)點(diǎn)的方案,在各種存儲類系統(tǒng)中得到了廣泛應(yīng)用,因?yàn)橹行墓?jié)點(diǎn)易控制、功能強(qiáng)大。2、無中心節(jié)點(diǎn)以 ceph 為代表,每個(gè)節(jié)點(diǎn)都是自治的、自管理的,整個(gè) ceph 集群只包含一類節(jié)點(diǎn),如下圖 (最下層紅色的 RADOS 就是 ceph 定義的“同時(shí)包含 meta 數(shù)據(jù)和文件數(shù)據(jù)”的節(jié)點(diǎn))。Ceph架構(gòu)無中心

7、化的最大優(yōu)點(diǎn)是解決了中心節(jié)點(diǎn)自身的瓶頸,這也就是 ceph 號稱可以無限向上擴(kuò)容的原因。但由 Client 直接和 Server 通信,那么 Client 必須要知道,當(dāng)對某個(gè)文件進(jìn)行操作時(shí),它該訪問集群中的哪個(gè)節(jié)點(diǎn)。ceph 提供了一個(gè)很強(qiáng)大的原創(chuàng)算法來解決這個(gè)問題CRUSH 算法。五、持久化對于文件系統(tǒng)來說,持久化是根本,只要 Client 收到了 Server 保存成功的回應(yīng)之后,數(shù)據(jù)就不應(yīng)該丟失。這主要是通過多副本的方式來解決,但在分布式環(huán)境下,多副本有這幾個(gè)問題要面對。如何保證每個(gè)副本的數(shù)據(jù)是一致的?如何分散副本,以使災(zāi)難發(fā)生時(shí),不至于所有副本都被損壞?怎么檢測被損壞或數(shù)據(jù)過期的副本

8、,以及如何處理?該返回哪個(gè)副本給 Client?1、如何保證每個(gè)副本的數(shù)據(jù)是一致的?同步寫入是保證副本數(shù)據(jù)一致的最直接的辦法。當(dāng) Client 寫入一個(gè)文件的時(shí)候,Server 會(huì)等待所有副本都被成功寫入,再返回給 Client。這種方式簡單、有保障,唯一的缺陷就是性能會(huì)受到影響。假設(shè)有 3 個(gè)副本,如果每個(gè)副本需要 N 秒,則可能會(huì)阻塞 Client 3N 秒的時(shí)間,有幾種方式,可以對其進(jìn)行優(yōu)化:并行寫:由一個(gè)副本作為主副本,并行發(fā)送數(shù)據(jù)給其他副本;鏈?zhǔn)綄懀簬讉€(gè)副本組成一個(gè)鏈 (chain),并不是等內(nèi)容都接受到了再往后傳播,而是像流一樣,邊接收上游傳遞過來的數(shù)據(jù),一邊傳遞給下游。還有一種方

9、式是采用 CAP 中所說的 W+RN 的方式,比如 3 副本 (N=3) 的情況,W2,R2,即成功寫入 2 個(gè)就認(rèn)為成功,讀的時(shí)候也要從 2 個(gè)副本中讀。這種方式通過犧牲一定的讀成本,來降低寫成本,同時(shí)增加寫入的可用性。這種方式在分布式文件系統(tǒng)中用地比較少。2、如何分散副本,以使災(zāi)難發(fā)生時(shí),不至于所有副本都被損壞?這主要避免的是某機(jī)房或某城市發(fā)生自然環(huán)境故障的情況,所以有一個(gè)副本應(yīng)該分配地比較遠(yuǎn)。它的副作用是會(huì)帶來這個(gè)副本的寫入性能可能會(huì)有一定的下降,因?yàn)樗x Client 最遠(yuǎn)。所以如果在物理?xiàng)l件上無法保證夠用的網(wǎng)絡(luò)帶寬的話,則讀寫副本的策略上需要做一定考慮??梢詤⒖纪綄懭胫粚?2 副本

10、、較遠(yuǎn)副本異步寫入的方式,同時(shí)為了保證一致性,讀取的時(shí)候又要注意一些,避免讀取到異步寫入副本的過時(shí)數(shù)據(jù)。3、怎么檢測被損壞或數(shù)據(jù)過期的副本,以及如何處理?如果有中心節(jié)點(diǎn),則數(shù)據(jù)節(jié)點(diǎn)定期和中心節(jié)點(diǎn)進(jìn)行通信,匯報(bào)自己的數(shù)據(jù)塊的相關(guān)信息,中心節(jié)點(diǎn)將其與自己維護(hù)的信息進(jìn)行對比。如果某個(gè)數(shù)據(jù)塊的 checksum 不對,則表明該數(shù)據(jù)塊被損壞了;如果某個(gè)數(shù)據(jù)塊的 version 不對,則表明該數(shù)據(jù)塊過期了。如果沒有中心節(jié)點(diǎn),以 ceph 為例,它在自己的節(jié)點(diǎn)集群中維護(hù)了一個(gè)比較小的 monitor 集群,數(shù)據(jù)節(jié)點(diǎn)向這個(gè) monitor 集群匯報(bào)自己的情況,由其來判定是否被損壞或過期。當(dāng)發(fā)現(xiàn)被損壞或過期副本

11、,將它從 meta 信息中移除,再重新創(chuàng)建一份新的副本就好了,移除的副本在隨后的回收機(jī)制中會(huì)被收回。4、該返回哪個(gè)副本給 Client?這里的策略就比較多了,比如 round-robin、速度最快的節(jié)點(diǎn)、成功率最高的節(jié)點(diǎn)、CPU 資源最空閑的節(jié)點(diǎn)、甚至就固定選第一個(gè)作為主節(jié)點(diǎn),也可以選擇離自己最近的一個(gè),這樣對整體的操作完成時(shí)間會(huì)有一定節(jié)約。六、伸縮性1、存儲節(jié)點(diǎn)的伸縮當(dāng)在集群中加入一臺新的存儲節(jié)點(diǎn),則它主動(dòng)向中心節(jié)點(diǎn)注冊,提供自己的信息,當(dāng)后續(xù)有創(chuàng)建文件或者給已有文件增加數(shù)據(jù)塊的時(shí)候,中心節(jié)點(diǎn)就可以分配到這臺新節(jié)點(diǎn)了,比較簡單。但有一些問題需要考慮。如何盡量使各存儲節(jié)點(diǎn)的負(fù)載相對均衡?怎樣保

12、證新加入的節(jié)點(diǎn),不會(huì)因短期負(fù)載壓力過大而崩塌?如果需要數(shù)據(jù)遷移,那如何使其對業(yè)務(wù)層透明?1)如何盡量使各存儲節(jié)點(diǎn)的負(fù)載相對均衡?首先要有評價(jià)存儲節(jié)點(diǎn)負(fù)載的指標(biāo)。有多種方式,可以從磁盤空間使用率考慮,也可以從磁盤使用率 +CPU 使用情況 + 網(wǎng)絡(luò)流量情況等做綜合判斷。一般來說,磁盤使用率是核心指標(biāo)。其次在分配新空間的時(shí)候,優(yōu)先選擇資源使用率小的存儲節(jié)點(diǎn);而對已存在的存儲節(jié)點(diǎn),如果負(fù)載已經(jīng)過載、或者資源使用情況不均衡,則需要做數(shù)據(jù)遷移。2)怎樣保證新加入的節(jié)點(diǎn),不會(huì)因短期負(fù)載壓力過大而崩塌?當(dāng)系統(tǒng)發(fā)現(xiàn)當(dāng)前新加入了一臺存儲節(jié)點(diǎn),顯然它的資源使用率是最低的,那么所有的寫流量都路由到這臺存儲節(jié)點(diǎn)來,那

13、就可能造成這臺新節(jié)點(diǎn)短期負(fù)載過大。因此,在資源分配的時(shí)候,需要有預(yù)熱時(shí)間,在一個(gè)時(shí)間段內(nèi),緩慢地將寫壓力路由過來,直到達(dá)成新的均衡。3)如果需要數(shù)據(jù)遷移,那如何使其對業(yè)務(wù)層透明?在有中心節(jié)點(diǎn)的情況下,這個(gè)工作比較好做,中心節(jié)點(diǎn)就包辦了判斷哪臺存儲節(jié)點(diǎn)壓力較大,判斷把哪些文件遷移到何處,更新自己的 meta 信息,遷移過程中的寫入怎么辦,發(fā)生重命名怎么辦。無需上層應(yīng)用來處理。如果沒有中心節(jié)點(diǎn),那代價(jià)比較大,在系統(tǒng)的整體設(shè)計(jì)上,也是要考慮到這種情況,比如 ceph,它要采取邏輯位置和物理位置兩層結(jié)構(gòu),對 Client 暴露的是邏輯層 (pool 和 place group),這個(gè)在遷移過程中是不變

14、的,而下層物理層數(shù)據(jù)塊的移動(dòng),只是邏輯層所引用的物理塊的地址發(fā)生了變化,在 Client 看來,邏輯塊的位置并不會(huì)發(fā)生改變。2、中心節(jié)點(diǎn)的伸縮如果有中心節(jié)點(diǎn),還要考慮它的伸縮性。由于中心節(jié)點(diǎn)作為控制中心,是主從模式,那么在伸縮性上就受到比較大的限制,是有上限的,不能超過單臺物理機(jī)的規(guī)模。我們可以考慮各種手段,盡量地抬高這個(gè)上限。有幾種方式可以考慮:以大數(shù)據(jù)塊的形式來存儲文件比如 HDFS 的數(shù)據(jù)塊的大小是 64M,ceph 的的數(shù)據(jù)塊的大小是 4M,都遠(yuǎn)遠(yuǎn)超過單機(jī)文件系統(tǒng)的 4k。它的意義在于大幅減少 meta data 的數(shù)量,使中心節(jié)點(diǎn)的單機(jī)內(nèi)存就能夠支持足夠多的磁盤空間 meta 信息。

15、中心節(jié)點(diǎn)采取多級的方式頂級中心節(jié)點(diǎn)只存儲目錄的 meta data,其指定某目錄的文件去哪臺次級總控節(jié)點(diǎn)去找,然后再通過該次級總控節(jié)點(diǎn)找到文件真正的存儲節(jié)點(diǎn);中心節(jié)點(diǎn)共享存儲設(shè)備部署多臺中心節(jié)點(diǎn),但它們共享同一個(gè)存儲外設(shè) / 數(shù)據(jù)庫,meta 信息都放在這里,中心節(jié)點(diǎn)自身是無狀態(tài)的。這種模式下,中心節(jié)點(diǎn)的請求處理能力大為增強(qiáng),但性能會(huì)受一定影響。iRODS 就是采用這種方式。七、高可用性1、中心節(jié)點(diǎn)的高可用中心節(jié)點(diǎn)的高可用,不僅要保證自身應(yīng)用的高可用,還得保證 meta data 的數(shù)據(jù)高可用。meta data 的高可用主要是數(shù)據(jù)持久化,并且需要備份機(jī)制保證不丟。一般方法是增加一個(gè)從節(jié)點(diǎn),主

16、節(jié)點(diǎn)的數(shù)據(jù)實(shí)時(shí)同步到從節(jié)點(diǎn)上。也有采用共享磁盤,通過 raid1 的硬件資源來保障高可用。顯然增加從節(jié)點(diǎn)的主備方式更易于部署。meta data 的數(shù)據(jù)持久化策略有以下幾種方式:直接保存到存儲引擎上,一般是數(shù)據(jù)庫。直接以文件形式保存到磁盤上,也不是不可以,但因?yàn)?meta 信息是結(jié)構(gòu)化數(shù)據(jù),這樣相當(dāng)于自己研發(fā)出一套小型數(shù)據(jù)庫來,復(fù)雜化了。保存日志數(shù)據(jù)到磁盤文件 (類似 MySQL 的 binlog 或 Redis 的 aof),系統(tǒng)啟動(dòng)時(shí)在內(nèi)存中重建成結(jié)果數(shù)據(jù),提供服務(wù)。修改時(shí)先修改磁盤日志文件,然后更新內(nèi)存數(shù)據(jù)。這種方式簡單易用。當(dāng)前內(nèi)存服務(wù) + 日志文件持久化是主流方式。一是純內(nèi)存操作,效

17、率很高,日志文件的寫也是順序?qū)?;二是不依賴外部組件,獨(dú)立部署。為了解決日志文件會(huì)隨著時(shí)間增長越來越大的問題,以讓系統(tǒng)能以盡快啟動(dòng)和恢復(fù),需要輔助以內(nèi)存快照的方式定期將內(nèi)存 dump 保存,只保留在 dump 時(shí)刻之后的日志文件。這樣當(dāng)恢復(fù)時(shí),從最新一次的內(nèi)存 dump 文件開始,找其對應(yīng)的 checkpoint 之后的日志文件開始重播。2、存儲節(jié)點(diǎn)的高可用在前面“持久化”章節(jié),在保證數(shù)據(jù)副本不丟失的情況下,也就保證了其的高可用性。八、性能優(yōu)化和緩存一致性這些年隨著基礎(chǔ)設(shè)施的發(fā)展,局域網(wǎng)內(nèi)千兆甚至萬兆的帶寬已經(jīng)比較普遍,以萬兆計(jì)算,每秒傳輸大約 1250M 字節(jié)的數(shù)據(jù),而 SATA 磁盤的讀寫速

18、度這些年基本達(dá)到瓶頸,在 300-500M/s 附近,也就是純讀寫的話,網(wǎng)絡(luò)已經(jīng)超過了磁盤的能力,不再是瓶頸了,像 NAS 網(wǎng)絡(luò)磁盤這些年也開始普及起來。但這并不代表,沒有必要對讀寫進(jìn)行優(yōu)化,畢竟網(wǎng)絡(luò)讀寫的速度還是遠(yuǎn)慢于內(nèi)存的讀寫。常見的優(yōu)化方法主要有:內(nèi)存中緩存文件內(nèi)容;預(yù)加載數(shù)據(jù)塊,以避免客戶端等待;合并讀寫請求,也就是將單次請求做些積累,以批量方式發(fā)送給 Server 端。緩存的使用在提高讀寫性能的同時(shí),也會(huì)帶來數(shù)據(jù)不一致的問題:會(huì)出現(xiàn)更新丟失的現(xiàn)象。當(dāng)多個(gè) Client 在一個(gè)時(shí)間段內(nèi),先后寫入同一個(gè)文件時(shí),先寫入的 Client 可能會(huì)丟失其寫入內(nèi)容,因?yàn)榭赡軙?huì)被后寫入的 Clien

19、t 的內(nèi)容覆蓋掉;數(shù)據(jù)可見性問題。Client 讀取的是自己的緩存,在其過期之前,如果別的 Client 更新了文件內(nèi)容,它是看不到的;也就是說,在同一時(shí)間,不同 Client 讀取同一個(gè)文件,內(nèi)容可能不一致。這類問題有幾種方法:文件只讀不改:一旦文件被 create 了,就只能讀不能修改。這樣 Client 端的緩存,就不存在不一致的問題;通過鎖:用鎖的話還要考慮不同的粒度。寫的時(shí)候是否允許其他 Client 讀? 讀的時(shí)候是否允許其他 Client 寫? 這是在性能和一致性之間的權(quán)衡,作為文件系統(tǒng)來說,由于對業(yè)務(wù)并沒有約束性,所以要做出合理的權(quán)衡,比較困難,因此最好是提供不同粒度的鎖,由業(yè)

20、務(wù)端來選擇。但這樣的副作用是,業(yè)務(wù)端的使用成本抬高了。九、安全性由于分布式文件存儲系統(tǒng),肯定是一個(gè)多客戶端使用、多租戶的一個(gè)產(chǎn)品,而它又存儲了可能是很重要的信息,所以安全性是它的重要部分。主流文件系統(tǒng)的權(quán)限模型有以下這么幾種:DAC:全稱是 Discretionary Access Control,就是我們熟悉的 Unix 類權(quán)限框架,以 user-group-privilege 為三級體系,其中 user 就是 owner,group 包括 owner 所在 group 和非 owner 所在的 group、privilege 有 read、write 和 execute。這套體系主要是以

21、owner 為出發(fā)點(diǎn),owner 允許誰對哪些文件具有什么樣的權(quán)限。MAC:全稱是 Mandatory Access Control,它是從資源的機(jī)密程度來劃分。比如分為“普通”、“機(jī)密”、“絕密”這三層,每個(gè)用戶可能對應(yīng)不同的機(jī)密閱讀權(quán)限。這種權(quán)限體系起源于安全機(jī)構(gòu)或軍隊(duì)的系統(tǒng)中,會(huì)比較常見。它的權(quán)限是由管理員來控制和設(shè)定的。Linux 中的 SELinux 就是 MAC 的一種實(shí)現(xiàn),為了彌補(bǔ) DAC 的缺陷和安全風(fēng)險(xiǎn)而提供出來。關(guān)于 SELinux 所解決的問題可以參考 What is SELinux?RBAC:全稱是 Role Based Access Control,是基于角色 (ro

22、le) 建立的權(quán)限體系。角色擁有什么樣的資源權(quán)限,用戶歸到哪個(gè)角色,這對應(yīng)企業(yè) / 公司的組織機(jī)構(gòu)非常合適。RBAC 也可以具體化,就演變成 DAC 或 MAC 的權(quán)限模型。市面上的分布式文件系統(tǒng)有不同的選擇,像 ceph 就提供了類似 DAC 但又略有區(qū)別的權(quán)限體系,Hadoop 自身就是依賴于操作系統(tǒng)的權(quán)限框架,同時(shí)其生態(tài)圈內(nèi)有 Apache Sentry 提供了基于 RBAC 的權(quán)限體系來做補(bǔ)充。十、其他1、空間分配有連續(xù)空間和鏈表空間兩種。連續(xù)空間的優(yōu)勢是讀寫快,按順序即可,劣勢是造成磁盤碎片,更麻煩的是,隨著連續(xù)的大塊磁盤空間被分配滿而必須尋找空洞時(shí),連續(xù)分配需要提前知道待寫入文件的

23、大小,以便找到合適大小的空間,而待寫入文件的大小,往往又是無法提前知道的 (比如可編輯的 word 文檔,它的內(nèi)容可以隨時(shí)增大);而鏈表空間的優(yōu)勢是磁盤碎片很少,劣勢是讀寫很慢,尤其是隨機(jī)讀,要從鏈表首個(gè)文件塊一個(gè)一個(gè)地往下找。為了解決這個(gè)問題,出現(xiàn)了索引表把文件和數(shù)據(jù)塊的對應(yīng)關(guān)系也保存一份,存在索引節(jié)點(diǎn)中 (一般稱為 i 節(jié)點(diǎn)),操作系統(tǒng)會(huì)將 i 節(jié)點(diǎn)加載到內(nèi)存,從而程序隨機(jī)尋找數(shù)據(jù)塊時(shí),在內(nèi)存中就可以完成了。通過這種方式來解決磁盤鏈表的劣勢,如果索引節(jié)點(diǎn)的內(nèi)容太大,導(dǎo)致內(nèi)存無法加載,還有可能形成多級索引結(jié)構(gòu)。2、文件刪除實(shí)時(shí)刪除還是延時(shí)刪除? 實(shí)時(shí)刪除的優(yōu)勢是可以快速釋放磁盤空間;延時(shí)刪除

24、只是在刪除動(dòng)作執(zhí)行的時(shí)候,置個(gè)標(biāo)識位,后續(xù)在某個(gè)時(shí)間點(diǎn)再來批量刪除,它的優(yōu)勢是文件仍然可以階段性地保留,最大程度地避免了誤刪除,缺點(diǎn)是磁盤空間仍然被占著。在分布式文件系統(tǒng)中,磁盤空間都是比較充裕的資源,因此幾乎都采用邏輯刪除,以對數(shù)據(jù)可以進(jìn)行恢復(fù),同時(shí)在一段時(shí)間之后 (可能是 2 天或 3 天,這參數(shù)一般都可配置),再對被刪除的資源進(jìn)行回收。怎么回收被刪除或無用的數(shù)據(jù)? 可以從文件的 meta 信息出發(fā)如果 meta 信息的“文件 - 數(shù)據(jù)塊”映射表中包含了某個(gè)數(shù)據(jù)塊,則它就是有用的;如果不包含,則表明該數(shù)據(jù)塊已經(jīng)是無效的了。所以,刪除文件,其實(shí)是刪除 meta 中的“文件 - 數(shù)據(jù)塊”映射信息 (如果要保留一

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論