'區塊鏈分佈式存儲革命:IPFS+IPSE能挑戰IBM+Google嗎?'

"

隨著雲計算和金融科技的發展,文件系統架構的設計正在不斷強化。常見的分佈式文件系統有GFS、HDFS等,也有新興的基於區塊鏈IPFS/Filecoin等。有的廣泛應用,有的開始挑戰,有的是閉源,有的開源。在不同的領域和不同的計算機發展階段,它們都對數據存儲起到了各自的作用。那麼這些分佈式文件系統都有什麼優缺點?基於區塊鏈技術的解決方案能調整谷歌等科技巨頭嗎?

HDFS:被雅虎開源的分佈式文件系統

提起分佈式文件系統,就不得不說起HDFS。Hadoop分佈式文件系統(HDFS),是一個分佈式、可擴展的Hadoop框架,具有高容錯、低成本部署優勢。HDFS提供對應用程序數據的高吞吐量訪問,適用於具有大型數據集的應用程序。HDFS最初是作為Apache Nutch網絡搜索引擎項目的基礎設施而構建的,現在是Apache Hadoop子項目。

"

隨著雲計算和金融科技的發展,文件系統架構的設計正在不斷強化。常見的分佈式文件系統有GFS、HDFS等,也有新興的基於區塊鏈IPFS/Filecoin等。有的廣泛應用,有的開始挑戰,有的是閉源,有的開源。在不同的領域和不同的計算機發展階段,它們都對數據存儲起到了各自的作用。那麼這些分佈式文件系統都有什麼優缺點?基於區塊鏈技術的解決方案能調整谷歌等科技巨頭嗎?

HDFS:被雅虎開源的分佈式文件系統

提起分佈式文件系統,就不得不說起HDFS。Hadoop分佈式文件系統(HDFS),是一個分佈式、可擴展的Hadoop框架,具有高容錯、低成本部署優勢。HDFS提供對應用程序數據的高吞吐量訪問,適用於具有大型數據集的應用程序。HDFS最初是作為Apache Nutch網絡搜索引擎項目的基礎設施而構建的,現在是Apache Hadoop子項目。

區塊鏈分佈式存儲革命:IPFS+IPSE能挑戰IBM+Google嗎?


最開始,雅虎公司為了加強廣告服務和搜索引擎功能,推出了Hadoop分佈式文件系統。由於優勢明顯,Facebook,eBay,LinkedIn和Twitter都開始使用它來處理不斷增長的應用程序數據,還被紐約時報用作大規模圖像轉換。2006年,Hadoop的創始人將HDFS交給了Apache軟件基金會。2009年6月,雅虎把Hadoop開源了源代碼可供開源社區使用。截至2013年,Hadoop的應用已經變得非常普遍,且非常成功:超過一半的財富50強公司使用Hadoop。

實際上,HDFS的主節點“數據分塊”屬性借鑑了谷歌文件系統(GFS)和IBM的GPFS的設計。儘管在Google算法的打擊下,雅虎夢斷搜索。但HDFS卻躲開了攻擊,成為最知名的分佈式文件系統解決方案之一。從搜索業務上,雅虎是“失敗”和無奈的,但是從計算機數據處理和全球商業設施上講,軟件開源的價值是無價的。

可以說HDFS源於谷歌,終於雅虎,歸於開源。它帶著榮譽和成功完美謝幕。

你可能不知道,HDFS的最初靈感來自2003年10月發佈的谷歌文件系統論文,可見谷歌在分佈式文件系統上研究不僅早,而且行業領先。

GFS谷歌文件系統:原來數據還會熱和冷

GFS(Google File System)又稱為谷歌文件系統,是一種分佈式文件系統。GFS的節點分為兩類:主節點和大量的Chunkservers。Chunkservers存儲數據文件,這些單個的文件象常見的文件系統中的簇或者扇區那樣被分成固定大小的數據塊(這也是名字的由來)。

"

隨著雲計算和金融科技的發展,文件系統架構的設計正在不斷強化。常見的分佈式文件系統有GFS、HDFS等,也有新興的基於區塊鏈IPFS/Filecoin等。有的廣泛應用,有的開始挑戰,有的是閉源,有的開源。在不同的領域和不同的計算機發展階段,它們都對數據存儲起到了各自的作用。那麼這些分佈式文件系統都有什麼優缺點?基於區塊鏈技術的解決方案能調整谷歌等科技巨頭嗎?

HDFS:被雅虎開源的分佈式文件系統

提起分佈式文件系統,就不得不說起HDFS。Hadoop分佈式文件系統(HDFS),是一個分佈式、可擴展的Hadoop框架,具有高容錯、低成本部署優勢。HDFS提供對應用程序數據的高吞吐量訪問,適用於具有大型數據集的應用程序。HDFS最初是作為Apache Nutch網絡搜索引擎項目的基礎設施而構建的,現在是Apache Hadoop子項目。

區塊鏈分佈式存儲革命:IPFS+IPSE能挑戰IBM+Google嗎?


最開始,雅虎公司為了加強廣告服務和搜索引擎功能,推出了Hadoop分佈式文件系統。由於優勢明顯,Facebook,eBay,LinkedIn和Twitter都開始使用它來處理不斷增長的應用程序數據,還被紐約時報用作大規模圖像轉換。2006年,Hadoop的創始人將HDFS交給了Apache軟件基金會。2009年6月,雅虎把Hadoop開源了源代碼可供開源社區使用。截至2013年,Hadoop的應用已經變得非常普遍,且非常成功:超過一半的財富50強公司使用Hadoop。

實際上,HDFS的主節點“數據分塊”屬性借鑑了谷歌文件系統(GFS)和IBM的GPFS的設計。儘管在Google算法的打擊下,雅虎夢斷搜索。但HDFS卻躲開了攻擊,成為最知名的分佈式文件系統解決方案之一。從搜索業務上,雅虎是“失敗”和無奈的,但是從計算機數據處理和全球商業設施上講,軟件開源的價值是無價的。

可以說HDFS源於谷歌,終於雅虎,歸於開源。它帶著榮譽和成功完美謝幕。

你可能不知道,HDFS的最初靈感來自2003年10月發佈的谷歌文件系統論文,可見谷歌在分佈式文件系統上研究不僅早,而且行業領先。

GFS谷歌文件系統:原來數據還會熱和冷

GFS(Google File System)又稱為谷歌文件系統,是一種分佈式文件系統。GFS的節點分為兩類:主節點和大量的Chunkservers。Chunkservers存儲數據文件,這些單個的文件象常見的文件系統中的簇或者扇區那樣被分成固定大小的數據塊(這也是名字的由來)。

區塊鏈分佈式存儲革命:IPFS+IPSE能挑戰IBM+Google嗎?

流程簡析:

GFS採用中心服務器模式,即Master管理分佈式文件系統中的所有元數據。文件劃分為Chunk進行存儲,對於Master來說,每個Chunk Server只是一個存儲空間。Client發起的所有操作都需要先通過Master才能執行。

Google的核心需求是數據存儲和使用。最初的GFS主要是為搜索引擎服務,最後變為雲計算戰略的一部分。如果要評價GFS,給予任何溢美之詞都不為過,因為GFS從理念和設計都是劃時代的。

隨著谷歌的壯大,憑藉搜索、流媒體和雲服務,霸佔了數據高地。逐漸地,GFS的單點損壞和效率已經嚴重製約谷歌的下一步計劃。

2013年,Google公佈了Colossus(直譯“巨象”)項目,作為下一代的Google文件系統。它的使命只有一個:效率。它的最重要的特點之一就是自動分片元數據層。

2017年,國際並行數據系統研討會(PDSW)上,谷歌的高級軟件工程師Denis Serenyi講述了Colossus是如何提升存儲效率。他指出了GFS架構問題:

●一臺機器不足以滿足大型文件存儲

●元數據操作的單一瓶頸

●容錯不夠高

●延遲問題(儘管可以預見)

鑑於此,GFS master節點只能被Colossus替代。Colossus存儲效率對於優化谷歌的產品非常有用,它體現在:

●元數據擴展可以對資源進行分塊

●能夠組合不同大小的磁盤和各種類型的工作負載

●冷熱數據的平衡與新分發

Colossus是一個進化版,而非全新的版本。Colossus重新平衡了舊的冷數據,並在磁盤上進行進行新數據的分發。這樣,像Youtube這樣的視頻平臺,大量的數據存儲和播放需求,會在分佈式系統中以最快的效率觸達用戶。

小知識:什麼是冷數據?熱數據?

數據冷熱管理是非常重要的一部分。比如IBM就會開發一套解決方案來測量數據的“溫度”,並協助制定包含數據的運營和業務決策。

熱數據: 指的是將被頻繁訪問的數據,它們通常存儲在快速存儲器中。

溫數據:是指被訪問頻率相對較低的數據則,它們存儲在相對較慢的存儲器中。

冷數據:極少被訪問的數據,它們則會被存儲在企業最慢的存儲器中。

IBM通用並行文件系統GPFS:不僅存儲,更是全球共享經濟

IBM通用並行文件系統(General Parallel File System,簡稱GPFS)是一個面向企業的文件系統,用於替代HDFS。

"

隨著雲計算和金融科技的發展,文件系統架構的設計正在不斷強化。常見的分佈式文件系統有GFS、HDFS等,也有新興的基於區塊鏈IPFS/Filecoin等。有的廣泛應用,有的開始挑戰,有的是閉源,有的開源。在不同的領域和不同的計算機發展階段,它們都對數據存儲起到了各自的作用。那麼這些分佈式文件系統都有什麼優缺點?基於區塊鏈技術的解決方案能調整谷歌等科技巨頭嗎?

HDFS:被雅虎開源的分佈式文件系統

提起分佈式文件系統,就不得不說起HDFS。Hadoop分佈式文件系統(HDFS),是一個分佈式、可擴展的Hadoop框架,具有高容錯、低成本部署優勢。HDFS提供對應用程序數據的高吞吐量訪問,適用於具有大型數據集的應用程序。HDFS最初是作為Apache Nutch網絡搜索引擎項目的基礎設施而構建的,現在是Apache Hadoop子項目。

區塊鏈分佈式存儲革命:IPFS+IPSE能挑戰IBM+Google嗎?


最開始,雅虎公司為了加強廣告服務和搜索引擎功能,推出了Hadoop分佈式文件系統。由於優勢明顯,Facebook,eBay,LinkedIn和Twitter都開始使用它來處理不斷增長的應用程序數據,還被紐約時報用作大規模圖像轉換。2006年,Hadoop的創始人將HDFS交給了Apache軟件基金會。2009年6月,雅虎把Hadoop開源了源代碼可供開源社區使用。截至2013年,Hadoop的應用已經變得非常普遍,且非常成功:超過一半的財富50強公司使用Hadoop。

實際上,HDFS的主節點“數據分塊”屬性借鑑了谷歌文件系統(GFS)和IBM的GPFS的設計。儘管在Google算法的打擊下,雅虎夢斷搜索。但HDFS卻躲開了攻擊,成為最知名的分佈式文件系統解決方案之一。從搜索業務上,雅虎是“失敗”和無奈的,但是從計算機數據處理和全球商業設施上講,軟件開源的價值是無價的。

可以說HDFS源於谷歌,終於雅虎,歸於開源。它帶著榮譽和成功完美謝幕。

你可能不知道,HDFS的最初靈感來自2003年10月發佈的谷歌文件系統論文,可見谷歌在分佈式文件系統上研究不僅早,而且行業領先。

GFS谷歌文件系統:原來數據還會熱和冷

GFS(Google File System)又稱為谷歌文件系統,是一種分佈式文件系統。GFS的節點分為兩類:主節點和大量的Chunkservers。Chunkservers存儲數據文件,這些單個的文件象常見的文件系統中的簇或者扇區那樣被分成固定大小的數據塊(這也是名字的由來)。

區塊鏈分佈式存儲革命:IPFS+IPSE能挑戰IBM+Google嗎?

流程簡析:

GFS採用中心服務器模式,即Master管理分佈式文件系統中的所有元數據。文件劃分為Chunk進行存儲,對於Master來說,每個Chunk Server只是一個存儲空間。Client發起的所有操作都需要先通過Master才能執行。

Google的核心需求是數據存儲和使用。最初的GFS主要是為搜索引擎服務,最後變為雲計算戰略的一部分。如果要評價GFS,給予任何溢美之詞都不為過,因為GFS從理念和設計都是劃時代的。

隨著谷歌的壯大,憑藉搜索、流媒體和雲服務,霸佔了數據高地。逐漸地,GFS的單點損壞和效率已經嚴重製約谷歌的下一步計劃。

2013年,Google公佈了Colossus(直譯“巨象”)項目,作為下一代的Google文件系統。它的使命只有一個:效率。它的最重要的特點之一就是自動分片元數據層。

2017年,國際並行數據系統研討會(PDSW)上,谷歌的高級軟件工程師Denis Serenyi講述了Colossus是如何提升存儲效率。他指出了GFS架構問題:

●一臺機器不足以滿足大型文件存儲

●元數據操作的單一瓶頸

●容錯不夠高

●延遲問題(儘管可以預見)

鑑於此,GFS master節點只能被Colossus替代。Colossus存儲效率對於優化谷歌的產品非常有用,它體現在:

●元數據擴展可以對資源進行分塊

●能夠組合不同大小的磁盤和各種類型的工作負載

●冷熱數據的平衡與新分發

Colossus是一個進化版,而非全新的版本。Colossus重新平衡了舊的冷數據,並在磁盤上進行進行新數據的分發。這樣,像Youtube這樣的視頻平臺,大量的數據存儲和播放需求,會在分佈式系統中以最快的效率觸達用戶。

小知識:什麼是冷數據?熱數據?

數據冷熱管理是非常重要的一部分。比如IBM就會開發一套解決方案來測量數據的“溫度”,並協助制定包含數據的運營和業務決策。

熱數據: 指的是將被頻繁訪問的數據,它們通常存儲在快速存儲器中。

溫數據:是指被訪問頻率相對較低的數據則,它們存儲在相對較慢的存儲器中。

冷數據:極少被訪問的數據,它們則會被存儲在企業最慢的存儲器中。

IBM通用並行文件系統GPFS:不僅存儲,更是全球共享經濟

IBM通用並行文件系統(General Parallel File System,簡稱GPFS)是一個面向企業的文件系統,用於替代HDFS。

區塊鏈分佈式存儲革命:IPFS+IPSE能挑戰IBM+Google嗎?

根據IBM官方的描述,GPFS支持數千個節點和PB級存儲,數據在多個節點上覆制存儲,因此不存在單點故障。官方還不忘diss了一下HDFS的單點故障問題。解決IBM單點故障的方法是:如果節點出現故障,則會將更改複製到其他節點,GPFS會快速確定並恢復哪些塊。節點崩潰時發生的更改也將複製恢復到上一個節點,以便節點與集群讓的其他節點同步。

IBM還使用了新的磁盤陣列技術(GPFS Native RAID),針對破碎數據的重建和資源消耗,比傳統的陣列減少了三到四倍。因為GPFS跨集群管理,整個系統性能表現對單個節點的重建存儲陣列速度的依賴更加小。這讓規模磁盤管理、鏡像、基於策略的自動化和災難恢復等成為GPFS的主要特點。

GPFS是面向大規模高性能計算和大規模存儲環境,可以跨多個服務器分發和管理數據。在GPFS集群之間的共享文件系統效率更高,提高了系統性能和文件一致性數據可用性和系統靈活性也提高,並簡化了存儲管理。

2015年,IBM改名部將GPFS改為Spectrum Scale,成為IBM Spectrum Storage(光譜存儲)的一部分。下圖為IBM官方架構圖:

"

隨著雲計算和金融科技的發展,文件系統架構的設計正在不斷強化。常見的分佈式文件系統有GFS、HDFS等,也有新興的基於區塊鏈IPFS/Filecoin等。有的廣泛應用,有的開始挑戰,有的是閉源,有的開源。在不同的領域和不同的計算機發展階段,它們都對數據存儲起到了各自的作用。那麼這些分佈式文件系統都有什麼優缺點?基於區塊鏈技術的解決方案能調整谷歌等科技巨頭嗎?

HDFS:被雅虎開源的分佈式文件系統

提起分佈式文件系統,就不得不說起HDFS。Hadoop分佈式文件系統(HDFS),是一個分佈式、可擴展的Hadoop框架,具有高容錯、低成本部署優勢。HDFS提供對應用程序數據的高吞吐量訪問,適用於具有大型數據集的應用程序。HDFS最初是作為Apache Nutch網絡搜索引擎項目的基礎設施而構建的,現在是Apache Hadoop子項目。

區塊鏈分佈式存儲革命:IPFS+IPSE能挑戰IBM+Google嗎?


最開始,雅虎公司為了加強廣告服務和搜索引擎功能,推出了Hadoop分佈式文件系統。由於優勢明顯,Facebook,eBay,LinkedIn和Twitter都開始使用它來處理不斷增長的應用程序數據,還被紐約時報用作大規模圖像轉換。2006年,Hadoop的創始人將HDFS交給了Apache軟件基金會。2009年6月,雅虎把Hadoop開源了源代碼可供開源社區使用。截至2013年,Hadoop的應用已經變得非常普遍,且非常成功:超過一半的財富50強公司使用Hadoop。

實際上,HDFS的主節點“數據分塊”屬性借鑑了谷歌文件系統(GFS)和IBM的GPFS的設計。儘管在Google算法的打擊下,雅虎夢斷搜索。但HDFS卻躲開了攻擊,成為最知名的分佈式文件系統解決方案之一。從搜索業務上,雅虎是“失敗”和無奈的,但是從計算機數據處理和全球商業設施上講,軟件開源的價值是無價的。

可以說HDFS源於谷歌,終於雅虎,歸於開源。它帶著榮譽和成功完美謝幕。

你可能不知道,HDFS的最初靈感來自2003年10月發佈的谷歌文件系統論文,可見谷歌在分佈式文件系統上研究不僅早,而且行業領先。

GFS谷歌文件系統:原來數據還會熱和冷

GFS(Google File System)又稱為谷歌文件系統,是一種分佈式文件系統。GFS的節點分為兩類:主節點和大量的Chunkservers。Chunkservers存儲數據文件,這些單個的文件象常見的文件系統中的簇或者扇區那樣被分成固定大小的數據塊(這也是名字的由來)。

區塊鏈分佈式存儲革命:IPFS+IPSE能挑戰IBM+Google嗎?

流程簡析:

GFS採用中心服務器模式,即Master管理分佈式文件系統中的所有元數據。文件劃分為Chunk進行存儲,對於Master來說,每個Chunk Server只是一個存儲空間。Client發起的所有操作都需要先通過Master才能執行。

Google的核心需求是數據存儲和使用。最初的GFS主要是為搜索引擎服務,最後變為雲計算戰略的一部分。如果要評價GFS,給予任何溢美之詞都不為過,因為GFS從理念和設計都是劃時代的。

隨著谷歌的壯大,憑藉搜索、流媒體和雲服務,霸佔了數據高地。逐漸地,GFS的單點損壞和效率已經嚴重製約谷歌的下一步計劃。

2013年,Google公佈了Colossus(直譯“巨象”)項目,作為下一代的Google文件系統。它的使命只有一個:效率。它的最重要的特點之一就是自動分片元數據層。

2017年,國際並行數據系統研討會(PDSW)上,谷歌的高級軟件工程師Denis Serenyi講述了Colossus是如何提升存儲效率。他指出了GFS架構問題:

●一臺機器不足以滿足大型文件存儲

●元數據操作的單一瓶頸

●容錯不夠高

●延遲問題(儘管可以預見)

鑑於此,GFS master節點只能被Colossus替代。Colossus存儲效率對於優化谷歌的產品非常有用,它體現在:

●元數據擴展可以對資源進行分塊

●能夠組合不同大小的磁盤和各種類型的工作負載

●冷熱數據的平衡與新分發

Colossus是一個進化版,而非全新的版本。Colossus重新平衡了舊的冷數據,並在磁盤上進行進行新數據的分發。這樣,像Youtube這樣的視頻平臺,大量的數據存儲和播放需求,會在分佈式系統中以最快的效率觸達用戶。

小知識:什麼是冷數據?熱數據?

數據冷熱管理是非常重要的一部分。比如IBM就會開發一套解決方案來測量數據的“溫度”,並協助制定包含數據的運營和業務決策。

熱數據: 指的是將被頻繁訪問的數據,它們通常存儲在快速存儲器中。

溫數據:是指被訪問頻率相對較低的數據則,它們存儲在相對較慢的存儲器中。

冷數據:極少被訪問的數據,它們則會被存儲在企業最慢的存儲器中。

IBM通用並行文件系統GPFS:不僅存儲,更是全球共享經濟

IBM通用並行文件系統(General Parallel File System,簡稱GPFS)是一個面向企業的文件系統,用於替代HDFS。

區塊鏈分佈式存儲革命:IPFS+IPSE能挑戰IBM+Google嗎?

根據IBM官方的描述,GPFS支持數千個節點和PB級存儲,數據在多個節點上覆制存儲,因此不存在單點故障。官方還不忘diss了一下HDFS的單點故障問題。解決IBM單點故障的方法是:如果節點出現故障,則會將更改複製到其他節點,GPFS會快速確定並恢復哪些塊。節點崩潰時發生的更改也將複製恢復到上一個節點,以便節點與集群讓的其他節點同步。

IBM還使用了新的磁盤陣列技術(GPFS Native RAID),針對破碎數據的重建和資源消耗,比傳統的陣列減少了三到四倍。因為GPFS跨集群管理,整個系統性能表現對單個節點的重建存儲陣列速度的依賴更加小。這讓規模磁盤管理、鏡像、基於策略的自動化和災難恢復等成為GPFS的主要特點。

GPFS是面向大規模高性能計算和大規模存儲環境,可以跨多個服務器分發和管理數據。在GPFS集群之間的共享文件系統效率更高,提高了系統性能和文件一致性數據可用性和系統靈活性也提高,並簡化了存儲管理。

2015年,IBM改名部將GPFS改為Spectrum Scale,成為IBM Spectrum Storage(光譜存儲)的一部分。下圖為IBM官方架構圖:

區塊鏈分佈式存儲革命:IPFS+IPSE能挑戰IBM+Google嗎?

IBM Spectrum Scale是針對雲計算、大數據、數據、對象等的非結構化數據的高級存儲管理系統,具備許多特點:高擴展性能、極高吞吐量、低延遲、數據感知和智能管理、全球協作、利用身份驗證和加密保證數據完整性和安全性。在官網中,IBM稱“企業組織的底層存儲必須支持新時代的大數據和人工智能工作負載以及傳統應用程序,同時確保安全性,可靠性和高性能。”而IBM Spectrum Scale作為一種高性能的大規模數據管理解決方案,正是為此而生。

而且它還可在Amazon Web Services上使用。可見,IBM已經不甘心於做一個只存文件的文件系統,而是一個將文件存儲作為底層設施的數據經濟系統。將存儲成本降低已經不再是第一優先目標,全局管理、全球共享、人工智能,都預示著IBM轉變數據經濟學的發展戰略。

區塊鏈時代的分佈式系統IPFS/IPSE:安全與通證激勵

IPFS(InterPlanetary File System)星際文件系統,是一個點對點的分佈式存儲和超媒體傳輸協議,使用內容尋址的進行數據分發。IPFS依靠分散的全球網絡節點構成一個分佈式系統,使得網絡更加安全和高效。IPFS屬於開源項目,創始人為斯坦福大學Juan Benet,他建立了協議實驗室Protocol Labs,主導開發了IPFS、Filecoin等協議。

"

隨著雲計算和金融科技的發展,文件系統架構的設計正在不斷強化。常見的分佈式文件系統有GFS、HDFS等,也有新興的基於區塊鏈IPFS/Filecoin等。有的廣泛應用,有的開始挑戰,有的是閉源,有的開源。在不同的領域和不同的計算機發展階段,它們都對數據存儲起到了各自的作用。那麼這些分佈式文件系統都有什麼優缺點?基於區塊鏈技術的解決方案能調整谷歌等科技巨頭嗎?

HDFS:被雅虎開源的分佈式文件系統

提起分佈式文件系統,就不得不說起HDFS。Hadoop分佈式文件系統(HDFS),是一個分佈式、可擴展的Hadoop框架,具有高容錯、低成本部署優勢。HDFS提供對應用程序數據的高吞吐量訪問,適用於具有大型數據集的應用程序。HDFS最初是作為Apache Nutch網絡搜索引擎項目的基礎設施而構建的,現在是Apache Hadoop子項目。

區塊鏈分佈式存儲革命:IPFS+IPSE能挑戰IBM+Google嗎?


最開始,雅虎公司為了加強廣告服務和搜索引擎功能,推出了Hadoop分佈式文件系統。由於優勢明顯,Facebook,eBay,LinkedIn和Twitter都開始使用它來處理不斷增長的應用程序數據,還被紐約時報用作大規模圖像轉換。2006年,Hadoop的創始人將HDFS交給了Apache軟件基金會。2009年6月,雅虎把Hadoop開源了源代碼可供開源社區使用。截至2013年,Hadoop的應用已經變得非常普遍,且非常成功:超過一半的財富50強公司使用Hadoop。

實際上,HDFS的主節點“數據分塊”屬性借鑑了谷歌文件系統(GFS)和IBM的GPFS的設計。儘管在Google算法的打擊下,雅虎夢斷搜索。但HDFS卻躲開了攻擊,成為最知名的分佈式文件系統解決方案之一。從搜索業務上,雅虎是“失敗”和無奈的,但是從計算機數據處理和全球商業設施上講,軟件開源的價值是無價的。

可以說HDFS源於谷歌,終於雅虎,歸於開源。它帶著榮譽和成功完美謝幕。

你可能不知道,HDFS的最初靈感來自2003年10月發佈的谷歌文件系統論文,可見谷歌在分佈式文件系統上研究不僅早,而且行業領先。

GFS谷歌文件系統:原來數據還會熱和冷

GFS(Google File System)又稱為谷歌文件系統,是一種分佈式文件系統。GFS的節點分為兩類:主節點和大量的Chunkservers。Chunkservers存儲數據文件,這些單個的文件象常見的文件系統中的簇或者扇區那樣被分成固定大小的數據塊(這也是名字的由來)。

區塊鏈分佈式存儲革命:IPFS+IPSE能挑戰IBM+Google嗎?

流程簡析:

GFS採用中心服務器模式,即Master管理分佈式文件系統中的所有元數據。文件劃分為Chunk進行存儲,對於Master來說,每個Chunk Server只是一個存儲空間。Client發起的所有操作都需要先通過Master才能執行。

Google的核心需求是數據存儲和使用。最初的GFS主要是為搜索引擎服務,最後變為雲計算戰略的一部分。如果要評價GFS,給予任何溢美之詞都不為過,因為GFS從理念和設計都是劃時代的。

隨著谷歌的壯大,憑藉搜索、流媒體和雲服務,霸佔了數據高地。逐漸地,GFS的單點損壞和效率已經嚴重製約谷歌的下一步計劃。

2013年,Google公佈了Colossus(直譯“巨象”)項目,作為下一代的Google文件系統。它的使命只有一個:效率。它的最重要的特點之一就是自動分片元數據層。

2017年,國際並行數據系統研討會(PDSW)上,谷歌的高級軟件工程師Denis Serenyi講述了Colossus是如何提升存儲效率。他指出了GFS架構問題:

●一臺機器不足以滿足大型文件存儲

●元數據操作的單一瓶頸

●容錯不夠高

●延遲問題(儘管可以預見)

鑑於此,GFS master節點只能被Colossus替代。Colossus存儲效率對於優化谷歌的產品非常有用,它體現在:

●元數據擴展可以對資源進行分塊

●能夠組合不同大小的磁盤和各種類型的工作負載

●冷熱數據的平衡與新分發

Colossus是一個進化版,而非全新的版本。Colossus重新平衡了舊的冷數據,並在磁盤上進行進行新數據的分發。這樣,像Youtube這樣的視頻平臺,大量的數據存儲和播放需求,會在分佈式系統中以最快的效率觸達用戶。

小知識:什麼是冷數據?熱數據?

數據冷熱管理是非常重要的一部分。比如IBM就會開發一套解決方案來測量數據的“溫度”,並協助制定包含數據的運營和業務決策。

熱數據: 指的是將被頻繁訪問的數據,它們通常存儲在快速存儲器中。

溫數據:是指被訪問頻率相對較低的數據則,它們存儲在相對較慢的存儲器中。

冷數據:極少被訪問的數據,它們則會被存儲在企業最慢的存儲器中。

IBM通用並行文件系統GPFS:不僅存儲,更是全球共享經濟

IBM通用並行文件系統(General Parallel File System,簡稱GPFS)是一個面向企業的文件系統,用於替代HDFS。

區塊鏈分佈式存儲革命:IPFS+IPSE能挑戰IBM+Google嗎?

根據IBM官方的描述,GPFS支持數千個節點和PB級存儲,數據在多個節點上覆制存儲,因此不存在單點故障。官方還不忘diss了一下HDFS的單點故障問題。解決IBM單點故障的方法是:如果節點出現故障,則會將更改複製到其他節點,GPFS會快速確定並恢復哪些塊。節點崩潰時發生的更改也將複製恢復到上一個節點,以便節點與集群讓的其他節點同步。

IBM還使用了新的磁盤陣列技術(GPFS Native RAID),針對破碎數據的重建和資源消耗,比傳統的陣列減少了三到四倍。因為GPFS跨集群管理,整個系統性能表現對單個節點的重建存儲陣列速度的依賴更加小。這讓規模磁盤管理、鏡像、基於策略的自動化和災難恢復等成為GPFS的主要特點。

GPFS是面向大規模高性能計算和大規模存儲環境,可以跨多個服務器分發和管理數據。在GPFS集群之間的共享文件系統效率更高,提高了系統性能和文件一致性數據可用性和系統靈活性也提高,並簡化了存儲管理。

2015年,IBM改名部將GPFS改為Spectrum Scale,成為IBM Spectrum Storage(光譜存儲)的一部分。下圖為IBM官方架構圖:

區塊鏈分佈式存儲革命:IPFS+IPSE能挑戰IBM+Google嗎?

IBM Spectrum Scale是針對雲計算、大數據、數據、對象等的非結構化數據的高級存儲管理系統,具備許多特點:高擴展性能、極高吞吐量、低延遲、數據感知和智能管理、全球協作、利用身份驗證和加密保證數據完整性和安全性。在官網中,IBM稱“企業組織的底層存儲必須支持新時代的大數據和人工智能工作負載以及傳統應用程序,同時確保安全性,可靠性和高性能。”而IBM Spectrum Scale作為一種高性能的大規模數據管理解決方案,正是為此而生。

而且它還可在Amazon Web Services上使用。可見,IBM已經不甘心於做一個只存文件的文件系統,而是一個將文件存儲作為底層設施的數據經濟系統。將存儲成本降低已經不再是第一優先目標,全局管理、全球共享、人工智能,都預示著IBM轉變數據經濟學的發展戰略。

區塊鏈時代的分佈式系統IPFS/IPSE:安全與通證激勵

IPFS(InterPlanetary File System)星際文件系統,是一個點對點的分佈式存儲和超媒體傳輸協議,使用內容尋址的進行數據分發。IPFS依靠分散的全球網絡節點構成一個分佈式系統,使得網絡更加安全和高效。IPFS屬於開源項目,創始人為斯坦福大學Juan Benet,他建立了協議實驗室Protocol Labs,主導開發了IPFS、Filecoin等協議。

區塊鏈分佈式存儲革命:IPFS+IPSE能挑戰IBM+Google嗎?

IPFS旨在讓全球計算設備連接到同一個文件系統中,且是分佈式和結構。IPFS提供了一個高吞吐量、按內容尋址的塊存儲模型,IPFS沒有單點故障,並且節點不需要相互信任。為了激勵更多節點,IPFS官方發佈了一個由加密數字貨幣驅動的分佈式存儲網絡——Filecoin建立在IPFS協議之上,它是IPFS的激勵層。

Filecoin建立的是一個去中心化的存儲市場,客戶支付FIL進行存儲數據,礦工(存儲節點)提供硬盤空間存下數據獲得FIL獎勵。這是其基本經濟模型。

"

隨著雲計算和金融科技的發展,文件系統架構的設計正在不斷強化。常見的分佈式文件系統有GFS、HDFS等,也有新興的基於區塊鏈IPFS/Filecoin等。有的廣泛應用,有的開始挑戰,有的是閉源,有的開源。在不同的領域和不同的計算機發展階段,它們都對數據存儲起到了各自的作用。那麼這些分佈式文件系統都有什麼優缺點?基於區塊鏈技術的解決方案能調整谷歌等科技巨頭嗎?

HDFS:被雅虎開源的分佈式文件系統

提起分佈式文件系統,就不得不說起HDFS。Hadoop分佈式文件系統(HDFS),是一個分佈式、可擴展的Hadoop框架,具有高容錯、低成本部署優勢。HDFS提供對應用程序數據的高吞吐量訪問,適用於具有大型數據集的應用程序。HDFS最初是作為Apache Nutch網絡搜索引擎項目的基礎設施而構建的,現在是Apache Hadoop子項目。

區塊鏈分佈式存儲革命:IPFS+IPSE能挑戰IBM+Google嗎?


最開始,雅虎公司為了加強廣告服務和搜索引擎功能,推出了Hadoop分佈式文件系統。由於優勢明顯,Facebook,eBay,LinkedIn和Twitter都開始使用它來處理不斷增長的應用程序數據,還被紐約時報用作大規模圖像轉換。2006年,Hadoop的創始人將HDFS交給了Apache軟件基金會。2009年6月,雅虎把Hadoop開源了源代碼可供開源社區使用。截至2013年,Hadoop的應用已經變得非常普遍,且非常成功:超過一半的財富50強公司使用Hadoop。

實際上,HDFS的主節點“數據分塊”屬性借鑑了谷歌文件系統(GFS)和IBM的GPFS的設計。儘管在Google算法的打擊下,雅虎夢斷搜索。但HDFS卻躲開了攻擊,成為最知名的分佈式文件系統解決方案之一。從搜索業務上,雅虎是“失敗”和無奈的,但是從計算機數據處理和全球商業設施上講,軟件開源的價值是無價的。

可以說HDFS源於谷歌,終於雅虎,歸於開源。它帶著榮譽和成功完美謝幕。

你可能不知道,HDFS的最初靈感來自2003年10月發佈的谷歌文件系統論文,可見谷歌在分佈式文件系統上研究不僅早,而且行業領先。

GFS谷歌文件系統:原來數據還會熱和冷

GFS(Google File System)又稱為谷歌文件系統,是一種分佈式文件系統。GFS的節點分為兩類:主節點和大量的Chunkservers。Chunkservers存儲數據文件,這些單個的文件象常見的文件系統中的簇或者扇區那樣被分成固定大小的數據塊(這也是名字的由來)。

區塊鏈分佈式存儲革命:IPFS+IPSE能挑戰IBM+Google嗎?

流程簡析:

GFS採用中心服務器模式,即Master管理分佈式文件系統中的所有元數據。文件劃分為Chunk進行存儲,對於Master來說,每個Chunk Server只是一個存儲空間。Client發起的所有操作都需要先通過Master才能執行。

Google的核心需求是數據存儲和使用。最初的GFS主要是為搜索引擎服務,最後變為雲計算戰略的一部分。如果要評價GFS,給予任何溢美之詞都不為過,因為GFS從理念和設計都是劃時代的。

隨著谷歌的壯大,憑藉搜索、流媒體和雲服務,霸佔了數據高地。逐漸地,GFS的單點損壞和效率已經嚴重製約谷歌的下一步計劃。

2013年,Google公佈了Colossus(直譯“巨象”)項目,作為下一代的Google文件系統。它的使命只有一個:效率。它的最重要的特點之一就是自動分片元數據層。

2017年,國際並行數據系統研討會(PDSW)上,谷歌的高級軟件工程師Denis Serenyi講述了Colossus是如何提升存儲效率。他指出了GFS架構問題:

●一臺機器不足以滿足大型文件存儲

●元數據操作的單一瓶頸

●容錯不夠高

●延遲問題(儘管可以預見)

鑑於此,GFS master節點只能被Colossus替代。Colossus存儲效率對於優化谷歌的產品非常有用,它體現在:

●元數據擴展可以對資源進行分塊

●能夠組合不同大小的磁盤和各種類型的工作負載

●冷熱數據的平衡與新分發

Colossus是一個進化版,而非全新的版本。Colossus重新平衡了舊的冷數據,並在磁盤上進行進行新數據的分發。這樣,像Youtube這樣的視頻平臺,大量的數據存儲和播放需求,會在分佈式系統中以最快的效率觸達用戶。

小知識:什麼是冷數據?熱數據?

數據冷熱管理是非常重要的一部分。比如IBM就會開發一套解決方案來測量數據的“溫度”,並協助制定包含數據的運營和業務決策。

熱數據: 指的是將被頻繁訪問的數據,它們通常存儲在快速存儲器中。

溫數據:是指被訪問頻率相對較低的數據則,它們存儲在相對較慢的存儲器中。

冷數據:極少被訪問的數據,它們則會被存儲在企業最慢的存儲器中。

IBM通用並行文件系統GPFS:不僅存儲,更是全球共享經濟

IBM通用並行文件系統(General Parallel File System,簡稱GPFS)是一個面向企業的文件系統,用於替代HDFS。

區塊鏈分佈式存儲革命:IPFS+IPSE能挑戰IBM+Google嗎?

根據IBM官方的描述,GPFS支持數千個節點和PB級存儲,數據在多個節點上覆制存儲,因此不存在單點故障。官方還不忘diss了一下HDFS的單點故障問題。解決IBM單點故障的方法是:如果節點出現故障,則會將更改複製到其他節點,GPFS會快速確定並恢復哪些塊。節點崩潰時發生的更改也將複製恢復到上一個節點,以便節點與集群讓的其他節點同步。

IBM還使用了新的磁盤陣列技術(GPFS Native RAID),針對破碎數據的重建和資源消耗,比傳統的陣列減少了三到四倍。因為GPFS跨集群管理,整個系統性能表現對單個節點的重建存儲陣列速度的依賴更加小。這讓規模磁盤管理、鏡像、基於策略的自動化和災難恢復等成為GPFS的主要特點。

GPFS是面向大規模高性能計算和大規模存儲環境,可以跨多個服務器分發和管理數據。在GPFS集群之間的共享文件系統效率更高,提高了系統性能和文件一致性數據可用性和系統靈活性也提高,並簡化了存儲管理。

2015年,IBM改名部將GPFS改為Spectrum Scale,成為IBM Spectrum Storage(光譜存儲)的一部分。下圖為IBM官方架構圖:

區塊鏈分佈式存儲革命:IPFS+IPSE能挑戰IBM+Google嗎?

IBM Spectrum Scale是針對雲計算、大數據、數據、對象等的非結構化數據的高級存儲管理系統,具備許多特點:高擴展性能、極高吞吐量、低延遲、數據感知和智能管理、全球協作、利用身份驗證和加密保證數據完整性和安全性。在官網中,IBM稱“企業組織的底層存儲必須支持新時代的大數據和人工智能工作負載以及傳統應用程序,同時確保安全性,可靠性和高性能。”而IBM Spectrum Scale作為一種高性能的大規模數據管理解決方案,正是為此而生。

而且它還可在Amazon Web Services上使用。可見,IBM已經不甘心於做一個只存文件的文件系統,而是一個將文件存儲作為底層設施的數據經濟系統。將存儲成本降低已經不再是第一優先目標,全局管理、全球共享、人工智能,都預示著IBM轉變數據經濟學的發展戰略。

區塊鏈時代的分佈式系統IPFS/IPSE:安全與通證激勵

IPFS(InterPlanetary File System)星際文件系統,是一個點對點的分佈式存儲和超媒體傳輸協議,使用內容尋址的進行數據分發。IPFS依靠分散的全球網絡節點構成一個分佈式系統,使得網絡更加安全和高效。IPFS屬於開源項目,創始人為斯坦福大學Juan Benet,他建立了協議實驗室Protocol Labs,主導開發了IPFS、Filecoin等協議。

區塊鏈分佈式存儲革命:IPFS+IPSE能挑戰IBM+Google嗎?

IPFS旨在讓全球計算設備連接到同一個文件系統中,且是分佈式和結構。IPFS提供了一個高吞吐量、按內容尋址的塊存儲模型,IPFS沒有單點故障,並且節點不需要相互信任。為了激勵更多節點,IPFS官方發佈了一個由加密數字貨幣驅動的分佈式存儲網絡——Filecoin建立在IPFS協議之上,它是IPFS的激勵層。

Filecoin建立的是一個去中心化的存儲市場,客戶支付FIL進行存儲數據,礦工(存儲節點)提供硬盤空間存下數據獲得FIL獎勵。這是其基本經濟模型。

區塊鏈分佈式存儲革命:IPFS+IPSE能挑戰IBM+Google嗎?

Filecoin的DSN市場

Filecoin的文件經過哈希算法,安全存儲於分佈式節點,經過點對點傳輸。存儲節點並不知道存儲的數據副本具體是什麼,因為Filecoin採用了端對端加密技術。由於採用分佈式哈希路由,同上文中的HDFS\\GPFS等系統一樣,IPFS同樣具備高容錯性。

不過Filecoin最突出的地方在於,它是區塊鏈技術形態下的分佈式文件系統,意味著它是去中心化架構。沒有中心化服務器控制,沒有單點故障(並不意味著不會發生,而是有專門的修復機制),無需中間人,節點之間也無需第三方來保證信任。Filecoin是一個透明、開發、可信的網絡,區塊鏈就是它的信任鏈,在鏈上,數據交易全部可查。基於Filecoin的文件版本機制,文件可溯源,解決數據大量重複存儲和冗餘問題。

作為去中心化的存儲網絡,都會設計共識Proof of Storage(存儲證明),Filecoin和Sia等網絡均如此。不過,Filecoin設計了新的證明機制叫做PoRep(複製證明),用於證明機器設備存儲了數據。還有PoST(時空證明),用於錨定存儲數據和時間戳,證明在某一時間礦工存儲著數據。依靠兩種算法機制,有效防止女巫攻擊等數據造假、欺騙等行為。Filecoin存儲網絡最大的特徵就是安全。

截至2019年8月,Filecoin主網並未上線。根據官方路線圖, 預計上線時間為2019 Q3/Q4,在上線之前之前將會(必須)進行代碼凍結並申請美國的審計。從時間點上看,Filecoin還未真正步入全球雲存儲市場,但是它的設計將會為分佈式文件系統帶來新的解決方案。

Filecoin是IPFS官方激勵層,同樣在IPFS生態,IPSE承擔著IPFS應用檢索層的重任。Filecoin重存儲,IPSE重搜索。但這並不代表Filecoin網絡沒有檢索,實際上,檢索市場也是其數據驗證環節的關鍵部分。同樣不能將IPSE單純規類為分佈式搜索,因為它也有底層的存儲方案。

"

隨著雲計算和金融科技的發展,文件系統架構的設計正在不斷強化。常見的分佈式文件系統有GFS、HDFS等,也有新興的基於區塊鏈IPFS/Filecoin等。有的廣泛應用,有的開始挑戰,有的是閉源,有的開源。在不同的領域和不同的計算機發展階段,它們都對數據存儲起到了各自的作用。那麼這些分佈式文件系統都有什麼優缺點?基於區塊鏈技術的解決方案能調整谷歌等科技巨頭嗎?

HDFS:被雅虎開源的分佈式文件系統

提起分佈式文件系統,就不得不說起HDFS。Hadoop分佈式文件系統(HDFS),是一個分佈式、可擴展的Hadoop框架,具有高容錯、低成本部署優勢。HDFS提供對應用程序數據的高吞吐量訪問,適用於具有大型數據集的應用程序。HDFS最初是作為Apache Nutch網絡搜索引擎項目的基礎設施而構建的,現在是Apache Hadoop子項目。

區塊鏈分佈式存儲革命:IPFS+IPSE能挑戰IBM+Google嗎?


最開始,雅虎公司為了加強廣告服務和搜索引擎功能,推出了Hadoop分佈式文件系統。由於優勢明顯,Facebook,eBay,LinkedIn和Twitter都開始使用它來處理不斷增長的應用程序數據,還被紐約時報用作大規模圖像轉換。2006年,Hadoop的創始人將HDFS交給了Apache軟件基金會。2009年6月,雅虎把Hadoop開源了源代碼可供開源社區使用。截至2013年,Hadoop的應用已經變得非常普遍,且非常成功:超過一半的財富50強公司使用Hadoop。

實際上,HDFS的主節點“數據分塊”屬性借鑑了谷歌文件系統(GFS)和IBM的GPFS的設計。儘管在Google算法的打擊下,雅虎夢斷搜索。但HDFS卻躲開了攻擊,成為最知名的分佈式文件系統解決方案之一。從搜索業務上,雅虎是“失敗”和無奈的,但是從計算機數據處理和全球商業設施上講,軟件開源的價值是無價的。

可以說HDFS源於谷歌,終於雅虎,歸於開源。它帶著榮譽和成功完美謝幕。

你可能不知道,HDFS的最初靈感來自2003年10月發佈的谷歌文件系統論文,可見谷歌在分佈式文件系統上研究不僅早,而且行業領先。

GFS谷歌文件系統:原來數據還會熱和冷

GFS(Google File System)又稱為谷歌文件系統,是一種分佈式文件系統。GFS的節點分為兩類:主節點和大量的Chunkservers。Chunkservers存儲數據文件,這些單個的文件象常見的文件系統中的簇或者扇區那樣被分成固定大小的數據塊(這也是名字的由來)。

區塊鏈分佈式存儲革命:IPFS+IPSE能挑戰IBM+Google嗎?

流程簡析:

GFS採用中心服務器模式,即Master管理分佈式文件系統中的所有元數據。文件劃分為Chunk進行存儲,對於Master來說,每個Chunk Server只是一個存儲空間。Client發起的所有操作都需要先通過Master才能執行。

Google的核心需求是數據存儲和使用。最初的GFS主要是為搜索引擎服務,最後變為雲計算戰略的一部分。如果要評價GFS,給予任何溢美之詞都不為過,因為GFS從理念和設計都是劃時代的。

隨著谷歌的壯大,憑藉搜索、流媒體和雲服務,霸佔了數據高地。逐漸地,GFS的單點損壞和效率已經嚴重製約谷歌的下一步計劃。

2013年,Google公佈了Colossus(直譯“巨象”)項目,作為下一代的Google文件系統。它的使命只有一個:效率。它的最重要的特點之一就是自動分片元數據層。

2017年,國際並行數據系統研討會(PDSW)上,谷歌的高級軟件工程師Denis Serenyi講述了Colossus是如何提升存儲效率。他指出了GFS架構問題:

●一臺機器不足以滿足大型文件存儲

●元數據操作的單一瓶頸

●容錯不夠高

●延遲問題(儘管可以預見)

鑑於此,GFS master節點只能被Colossus替代。Colossus存儲效率對於優化谷歌的產品非常有用,它體現在:

●元數據擴展可以對資源進行分塊

●能夠組合不同大小的磁盤和各種類型的工作負載

●冷熱數據的平衡與新分發

Colossus是一個進化版,而非全新的版本。Colossus重新平衡了舊的冷數據,並在磁盤上進行進行新數據的分發。這樣,像Youtube這樣的視頻平臺,大量的數據存儲和播放需求,會在分佈式系統中以最快的效率觸達用戶。

小知識:什麼是冷數據?熱數據?

數據冷熱管理是非常重要的一部分。比如IBM就會開發一套解決方案來測量數據的“溫度”,並協助制定包含數據的運營和業務決策。

熱數據: 指的是將被頻繁訪問的數據,它們通常存儲在快速存儲器中。

溫數據:是指被訪問頻率相對較低的數據則,它們存儲在相對較慢的存儲器中。

冷數據:極少被訪問的數據,它們則會被存儲在企業最慢的存儲器中。

IBM通用並行文件系統GPFS:不僅存儲,更是全球共享經濟

IBM通用並行文件系統(General Parallel File System,簡稱GPFS)是一個面向企業的文件系統,用於替代HDFS。

區塊鏈分佈式存儲革命:IPFS+IPSE能挑戰IBM+Google嗎?

根據IBM官方的描述,GPFS支持數千個節點和PB級存儲,數據在多個節點上覆制存儲,因此不存在單點故障。官方還不忘diss了一下HDFS的單點故障問題。解決IBM單點故障的方法是:如果節點出現故障,則會將更改複製到其他節點,GPFS會快速確定並恢復哪些塊。節點崩潰時發生的更改也將複製恢復到上一個節點,以便節點與集群讓的其他節點同步。

IBM還使用了新的磁盤陣列技術(GPFS Native RAID),針對破碎數據的重建和資源消耗,比傳統的陣列減少了三到四倍。因為GPFS跨集群管理,整個系統性能表現對單個節點的重建存儲陣列速度的依賴更加小。這讓規模磁盤管理、鏡像、基於策略的自動化和災難恢復等成為GPFS的主要特點。

GPFS是面向大規模高性能計算和大規模存儲環境,可以跨多個服務器分發和管理數據。在GPFS集群之間的共享文件系統效率更高,提高了系統性能和文件一致性數據可用性和系統靈活性也提高,並簡化了存儲管理。

2015年,IBM改名部將GPFS改為Spectrum Scale,成為IBM Spectrum Storage(光譜存儲)的一部分。下圖為IBM官方架構圖:

區塊鏈分佈式存儲革命:IPFS+IPSE能挑戰IBM+Google嗎?

IBM Spectrum Scale是針對雲計算、大數據、數據、對象等的非結構化數據的高級存儲管理系統,具備許多特點:高擴展性能、極高吞吐量、低延遲、數據感知和智能管理、全球協作、利用身份驗證和加密保證數據完整性和安全性。在官網中,IBM稱“企業組織的底層存儲必須支持新時代的大數據和人工智能工作負載以及傳統應用程序,同時確保安全性,可靠性和高性能。”而IBM Spectrum Scale作為一種高性能的大規模數據管理解決方案,正是為此而生。

而且它還可在Amazon Web Services上使用。可見,IBM已經不甘心於做一個只存文件的文件系統,而是一個將文件存儲作為底層設施的數據經濟系統。將存儲成本降低已經不再是第一優先目標,全局管理、全球共享、人工智能,都預示著IBM轉變數據經濟學的發展戰略。

區塊鏈時代的分佈式系統IPFS/IPSE:安全與通證激勵

IPFS(InterPlanetary File System)星際文件系統,是一個點對點的分佈式存儲和超媒體傳輸協議,使用內容尋址的進行數據分發。IPFS依靠分散的全球網絡節點構成一個分佈式系統,使得網絡更加安全和高效。IPFS屬於開源項目,創始人為斯坦福大學Juan Benet,他建立了協議實驗室Protocol Labs,主導開發了IPFS、Filecoin等協議。

區塊鏈分佈式存儲革命:IPFS+IPSE能挑戰IBM+Google嗎?

IPFS旨在讓全球計算設備連接到同一個文件系統中,且是分佈式和結構。IPFS提供了一個高吞吐量、按內容尋址的塊存儲模型,IPFS沒有單點故障,並且節點不需要相互信任。為了激勵更多節點,IPFS官方發佈了一個由加密數字貨幣驅動的分佈式存儲網絡——Filecoin建立在IPFS協議之上,它是IPFS的激勵層。

Filecoin建立的是一個去中心化的存儲市場,客戶支付FIL進行存儲數據,礦工(存儲節點)提供硬盤空間存下數據獲得FIL獎勵。這是其基本經濟模型。

區塊鏈分佈式存儲革命:IPFS+IPSE能挑戰IBM+Google嗎?

Filecoin的DSN市場

Filecoin的文件經過哈希算法,安全存儲於分佈式節點,經過點對點傳輸。存儲節點並不知道存儲的數據副本具體是什麼,因為Filecoin採用了端對端加密技術。由於採用分佈式哈希路由,同上文中的HDFS\\GPFS等系統一樣,IPFS同樣具備高容錯性。

不過Filecoin最突出的地方在於,它是區塊鏈技術形態下的分佈式文件系統,意味著它是去中心化架構。沒有中心化服務器控制,沒有單點故障(並不意味著不會發生,而是有專門的修復機制),無需中間人,節點之間也無需第三方來保證信任。Filecoin是一個透明、開發、可信的網絡,區塊鏈就是它的信任鏈,在鏈上,數據交易全部可查。基於Filecoin的文件版本機制,文件可溯源,解決數據大量重複存儲和冗餘問題。

作為去中心化的存儲網絡,都會設計共識Proof of Storage(存儲證明),Filecoin和Sia等網絡均如此。不過,Filecoin設計了新的證明機制叫做PoRep(複製證明),用於證明機器設備存儲了數據。還有PoST(時空證明),用於錨定存儲數據和時間戳,證明在某一時間礦工存儲著數據。依靠兩種算法機制,有效防止女巫攻擊等數據造假、欺騙等行為。Filecoin存儲網絡最大的特徵就是安全。

截至2019年8月,Filecoin主網並未上線。根據官方路線圖, 預計上線時間為2019 Q3/Q4,在上線之前之前將會(必須)進行代碼凍結並申請美國的審計。從時間點上看,Filecoin還未真正步入全球雲存儲市場,但是它的設計將會為分佈式文件系統帶來新的解決方案。

Filecoin是IPFS官方激勵層,同樣在IPFS生態,IPSE承擔著IPFS應用檢索層的重任。Filecoin重存儲,IPSE重搜索。但這並不代表Filecoin網絡沒有檢索,實際上,檢索市場也是其數據驗證環節的關鍵部分。同樣不能將IPSE單純規類為分佈式搜索,因為它也有底層的存儲方案。

區塊鏈分佈式存儲革命:IPFS+IPSE能挑戰IBM+Google嗎?

IPSE的分佈式存儲結構和共識機制

為了讓分佈式節點的數據能以最快的速度觸達,IPSE採用效率優先原則。基於區塊鏈共識機制PoST(存真證明)和數據持有證明PDP,使數據安全存儲在磁盤介質上。儘管如此,為了實現更好的存儲安全性,IPSE的數據多份保存和多節點分散保存。礦工如果無法完成對挑戰到的數據切片做出PDP持有性證明將會遭受懲罰。對於陳舊的數據,IPSE採用智能嗅探和週期性任務分發,使數據保存期限將和機器硬件使用壽命同步。

為了數據被訪問到,依靠強大的檢索引擎,IPSE數據索引能能夠獲取分佈式節點網絡上的數據。從數據源-數據存儲-數據檢索-數據訪問,構建了完整的數據生命流程。

總結IPFS/IPSE分佈式架構的優點:

●去中心化

●分佈式節點網絡,無單點問題

●加密技術保護數據完整性和安全性

●存儲成本和傳輸成本遠低於中心化系統

●通證激勵

除了上述網絡,分佈式文件系統的解決方案包括:Sia和Sotrj。它們都建立了一個租用和支付通證的存儲空間,去中心化,數據為自己的私有,存儲都將進行加密。目前,Sia已經進行了商用,Storj還在Alpha 4開發階段。

總結:新舊替代的革命

分佈式文件系統最初是為響應逐漸增大的數據規模而設計,相繼出現了不同的解決方案。有谷歌、IBM等傳統科技大公司為自己設計的系統,也有進行開源而被大眾使用的系統。

它們都想獲得這樣的目標:滿足PB級的數量存儲、高吞吐量、儘可能低的訪問延遲、快速部署與低成本應用。

它們都使用了相同或相似的技術架構和思路:集群系統、節點管理系統、可擴展結構、副本備份、容錯管理。

它們都遇到了同樣的問題:一致性事物處理、通信資源消耗、數據的存取結構複雜、數據的安全性和保密性。

因此,只要存儲存在,機會和挑戰就並存。

毫無疑問,對比通用文件系統,分佈式文件系統非常適合大規模數據集上應用,為企業組織的業務部署帶來了成本和管理優勢。不過如果追求高效,那麼就要有數據丟失和安全方面的犧牲。如果著重安全,效率又會收到影響。如果問,哪個分佈式文件系統最好?閉源還是開源?中心化和去中心化應該如何選擇?

尋找分佈式文件系統的最佳答案,不如先從計算機網絡發展的三個主要階段中尋找。

"

隨著雲計算和金融科技的發展,文件系統架構的設計正在不斷強化。常見的分佈式文件系統有GFS、HDFS等,也有新興的基於區塊鏈IPFS/Filecoin等。有的廣泛應用,有的開始挑戰,有的是閉源,有的開源。在不同的領域和不同的計算機發展階段,它們都對數據存儲起到了各自的作用。那麼這些分佈式文件系統都有什麼優缺點?基於區塊鏈技術的解決方案能調整谷歌等科技巨頭嗎?

HDFS:被雅虎開源的分佈式文件系統

提起分佈式文件系統,就不得不說起HDFS。Hadoop分佈式文件系統(HDFS),是一個分佈式、可擴展的Hadoop框架,具有高容錯、低成本部署優勢。HDFS提供對應用程序數據的高吞吐量訪問,適用於具有大型數據集的應用程序。HDFS最初是作為Apache Nutch網絡搜索引擎項目的基礎設施而構建的,現在是Apache Hadoop子項目。

區塊鏈分佈式存儲革命:IPFS+IPSE能挑戰IBM+Google嗎?


最開始,雅虎公司為了加強廣告服務和搜索引擎功能,推出了Hadoop分佈式文件系統。由於優勢明顯,Facebook,eBay,LinkedIn和Twitter都開始使用它來處理不斷增長的應用程序數據,還被紐約時報用作大規模圖像轉換。2006年,Hadoop的創始人將HDFS交給了Apache軟件基金會。2009年6月,雅虎把Hadoop開源了源代碼可供開源社區使用。截至2013年,Hadoop的應用已經變得非常普遍,且非常成功:超過一半的財富50強公司使用Hadoop。

實際上,HDFS的主節點“數據分塊”屬性借鑑了谷歌文件系統(GFS)和IBM的GPFS的設計。儘管在Google算法的打擊下,雅虎夢斷搜索。但HDFS卻躲開了攻擊,成為最知名的分佈式文件系統解決方案之一。從搜索業務上,雅虎是“失敗”和無奈的,但是從計算機數據處理和全球商業設施上講,軟件開源的價值是無價的。

可以說HDFS源於谷歌,終於雅虎,歸於開源。它帶著榮譽和成功完美謝幕。

你可能不知道,HDFS的最初靈感來自2003年10月發佈的谷歌文件系統論文,可見谷歌在分佈式文件系統上研究不僅早,而且行業領先。

GFS谷歌文件系統:原來數據還會熱和冷

GFS(Google File System)又稱為谷歌文件系統,是一種分佈式文件系統。GFS的節點分為兩類:主節點和大量的Chunkservers。Chunkservers存儲數據文件,這些單個的文件象常見的文件系統中的簇或者扇區那樣被分成固定大小的數據塊(這也是名字的由來)。

區塊鏈分佈式存儲革命:IPFS+IPSE能挑戰IBM+Google嗎?

流程簡析:

GFS採用中心服務器模式,即Master管理分佈式文件系統中的所有元數據。文件劃分為Chunk進行存儲,對於Master來說,每個Chunk Server只是一個存儲空間。Client發起的所有操作都需要先通過Master才能執行。

Google的核心需求是數據存儲和使用。最初的GFS主要是為搜索引擎服務,最後變為雲計算戰略的一部分。如果要評價GFS,給予任何溢美之詞都不為過,因為GFS從理念和設計都是劃時代的。

隨著谷歌的壯大,憑藉搜索、流媒體和雲服務,霸佔了數據高地。逐漸地,GFS的單點損壞和效率已經嚴重製約谷歌的下一步計劃。

2013年,Google公佈了Colossus(直譯“巨象”)項目,作為下一代的Google文件系統。它的使命只有一個:效率。它的最重要的特點之一就是自動分片元數據層。

2017年,國際並行數據系統研討會(PDSW)上,谷歌的高級軟件工程師Denis Serenyi講述了Colossus是如何提升存儲效率。他指出了GFS架構問題:

●一臺機器不足以滿足大型文件存儲

●元數據操作的單一瓶頸

●容錯不夠高

●延遲問題(儘管可以預見)

鑑於此,GFS master節點只能被Colossus替代。Colossus存儲效率對於優化谷歌的產品非常有用,它體現在:

●元數據擴展可以對資源進行分塊

●能夠組合不同大小的磁盤和各種類型的工作負載

●冷熱數據的平衡與新分發

Colossus是一個進化版,而非全新的版本。Colossus重新平衡了舊的冷數據,並在磁盤上進行進行新數據的分發。這樣,像Youtube這樣的視頻平臺,大量的數據存儲和播放需求,會在分佈式系統中以最快的效率觸達用戶。

小知識:什麼是冷數據?熱數據?

數據冷熱管理是非常重要的一部分。比如IBM就會開發一套解決方案來測量數據的“溫度”,並協助制定包含數據的運營和業務決策。

熱數據: 指的是將被頻繁訪問的數據,它們通常存儲在快速存儲器中。

溫數據:是指被訪問頻率相對較低的數據則,它們存儲在相對較慢的存儲器中。

冷數據:極少被訪問的數據,它們則會被存儲在企業最慢的存儲器中。

IBM通用並行文件系統GPFS:不僅存儲,更是全球共享經濟

IBM通用並行文件系統(General Parallel File System,簡稱GPFS)是一個面向企業的文件系統,用於替代HDFS。

區塊鏈分佈式存儲革命:IPFS+IPSE能挑戰IBM+Google嗎?

根據IBM官方的描述,GPFS支持數千個節點和PB級存儲,數據在多個節點上覆制存儲,因此不存在單點故障。官方還不忘diss了一下HDFS的單點故障問題。解決IBM單點故障的方法是:如果節點出現故障,則會將更改複製到其他節點,GPFS會快速確定並恢復哪些塊。節點崩潰時發生的更改也將複製恢復到上一個節點,以便節點與集群讓的其他節點同步。

IBM還使用了新的磁盤陣列技術(GPFS Native RAID),針對破碎數據的重建和資源消耗,比傳統的陣列減少了三到四倍。因為GPFS跨集群管理,整個系統性能表現對單個節點的重建存儲陣列速度的依賴更加小。這讓規模磁盤管理、鏡像、基於策略的自動化和災難恢復等成為GPFS的主要特點。

GPFS是面向大規模高性能計算和大規模存儲環境,可以跨多個服務器分發和管理數據。在GPFS集群之間的共享文件系統效率更高,提高了系統性能和文件一致性數據可用性和系統靈活性也提高,並簡化了存儲管理。

2015年,IBM改名部將GPFS改為Spectrum Scale,成為IBM Spectrum Storage(光譜存儲)的一部分。下圖為IBM官方架構圖:

區塊鏈分佈式存儲革命:IPFS+IPSE能挑戰IBM+Google嗎?

IBM Spectrum Scale是針對雲計算、大數據、數據、對象等的非結構化數據的高級存儲管理系統,具備許多特點:高擴展性能、極高吞吐量、低延遲、數據感知和智能管理、全球協作、利用身份驗證和加密保證數據完整性和安全性。在官網中,IBM稱“企業組織的底層存儲必須支持新時代的大數據和人工智能工作負載以及傳統應用程序,同時確保安全性,可靠性和高性能。”而IBM Spectrum Scale作為一種高性能的大規模數據管理解決方案,正是為此而生。

而且它還可在Amazon Web Services上使用。可見,IBM已經不甘心於做一個只存文件的文件系統,而是一個將文件存儲作為底層設施的數據經濟系統。將存儲成本降低已經不再是第一優先目標,全局管理、全球共享、人工智能,都預示著IBM轉變數據經濟學的發展戰略。

區塊鏈時代的分佈式系統IPFS/IPSE:安全與通證激勵

IPFS(InterPlanetary File System)星際文件系統,是一個點對點的分佈式存儲和超媒體傳輸協議,使用內容尋址的進行數據分發。IPFS依靠分散的全球網絡節點構成一個分佈式系統,使得網絡更加安全和高效。IPFS屬於開源項目,創始人為斯坦福大學Juan Benet,他建立了協議實驗室Protocol Labs,主導開發了IPFS、Filecoin等協議。

區塊鏈分佈式存儲革命:IPFS+IPSE能挑戰IBM+Google嗎?

IPFS旨在讓全球計算設備連接到同一個文件系統中,且是分佈式和結構。IPFS提供了一個高吞吐量、按內容尋址的塊存儲模型,IPFS沒有單點故障,並且節點不需要相互信任。為了激勵更多節點,IPFS官方發佈了一個由加密數字貨幣驅動的分佈式存儲網絡——Filecoin建立在IPFS協議之上,它是IPFS的激勵層。

Filecoin建立的是一個去中心化的存儲市場,客戶支付FIL進行存儲數據,礦工(存儲節點)提供硬盤空間存下數據獲得FIL獎勵。這是其基本經濟模型。

區塊鏈分佈式存儲革命:IPFS+IPSE能挑戰IBM+Google嗎?

Filecoin的DSN市場

Filecoin的文件經過哈希算法,安全存儲於分佈式節點,經過點對點傳輸。存儲節點並不知道存儲的數據副本具體是什麼,因為Filecoin採用了端對端加密技術。由於採用分佈式哈希路由,同上文中的HDFS\\GPFS等系統一樣,IPFS同樣具備高容錯性。

不過Filecoin最突出的地方在於,它是區塊鏈技術形態下的分佈式文件系統,意味著它是去中心化架構。沒有中心化服務器控制,沒有單點故障(並不意味著不會發生,而是有專門的修復機制),無需中間人,節點之間也無需第三方來保證信任。Filecoin是一個透明、開發、可信的網絡,區塊鏈就是它的信任鏈,在鏈上,數據交易全部可查。基於Filecoin的文件版本機制,文件可溯源,解決數據大量重複存儲和冗餘問題。

作為去中心化的存儲網絡,都會設計共識Proof of Storage(存儲證明),Filecoin和Sia等網絡均如此。不過,Filecoin設計了新的證明機制叫做PoRep(複製證明),用於證明機器設備存儲了數據。還有PoST(時空證明),用於錨定存儲數據和時間戳,證明在某一時間礦工存儲著數據。依靠兩種算法機制,有效防止女巫攻擊等數據造假、欺騙等行為。Filecoin存儲網絡最大的特徵就是安全。

截至2019年8月,Filecoin主網並未上線。根據官方路線圖, 預計上線時間為2019 Q3/Q4,在上線之前之前將會(必須)進行代碼凍結並申請美國的審計。從時間點上看,Filecoin還未真正步入全球雲存儲市場,但是它的設計將會為分佈式文件系統帶來新的解決方案。

Filecoin是IPFS官方激勵層,同樣在IPFS生態,IPSE承擔著IPFS應用檢索層的重任。Filecoin重存儲,IPSE重搜索。但這並不代表Filecoin網絡沒有檢索,實際上,檢索市場也是其數據驗證環節的關鍵部分。同樣不能將IPSE單純規類為分佈式搜索,因為它也有底層的存儲方案。

區塊鏈分佈式存儲革命:IPFS+IPSE能挑戰IBM+Google嗎?

IPSE的分佈式存儲結構和共識機制

為了讓分佈式節點的數據能以最快的速度觸達,IPSE採用效率優先原則。基於區塊鏈共識機制PoST(存真證明)和數據持有證明PDP,使數據安全存儲在磁盤介質上。儘管如此,為了實現更好的存儲安全性,IPSE的數據多份保存和多節點分散保存。礦工如果無法完成對挑戰到的數據切片做出PDP持有性證明將會遭受懲罰。對於陳舊的數據,IPSE採用智能嗅探和週期性任務分發,使數據保存期限將和機器硬件使用壽命同步。

為了數據被訪問到,依靠強大的檢索引擎,IPSE數據索引能能夠獲取分佈式節點網絡上的數據。從數據源-數據存儲-數據檢索-數據訪問,構建了完整的數據生命流程。

總結IPFS/IPSE分佈式架構的優點:

●去中心化

●分佈式節點網絡,無單點問題

●加密技術保護數據完整性和安全性

●存儲成本和傳輸成本遠低於中心化系統

●通證激勵

除了上述網絡,分佈式文件系統的解決方案包括:Sia和Sotrj。它們都建立了一個租用和支付通證的存儲空間,去中心化,數據為自己的私有,存儲都將進行加密。目前,Sia已經進行了商用,Storj還在Alpha 4開發階段。

總結:新舊替代的革命

分佈式文件系統最初是為響應逐漸增大的數據規模而設計,相繼出現了不同的解決方案。有谷歌、IBM等傳統科技大公司為自己設計的系統,也有進行開源而被大眾使用的系統。

它們都想獲得這樣的目標:滿足PB級的數量存儲、高吞吐量、儘可能低的訪問延遲、快速部署與低成本應用。

它們都使用了相同或相似的技術架構和思路:集群系統、節點管理系統、可擴展結構、副本備份、容錯管理。

它們都遇到了同樣的問題:一致性事物處理、通信資源消耗、數據的存取結構複雜、數據的安全性和保密性。

因此,只要存儲存在,機會和挑戰就並存。

毫無疑問,對比通用文件系統,分佈式文件系統非常適合大規模數據集上應用,為企業組織的業務部署帶來了成本和管理優勢。不過如果追求高效,那麼就要有數據丟失和安全方面的犧牲。如果著重安全,效率又會收到影響。如果問,哪個分佈式文件系統最好?閉源還是開源?中心化和去中心化應該如何選擇?

尋找分佈式文件系統的最佳答案,不如先從計算機網絡發展的三個主要階段中尋找。

區塊鏈分佈式存儲革命:IPFS+IPSE能挑戰IBM+Google嗎?

第一階段,集中式網絡。這是第一個計算機網絡。它們以一臺主計算機(服務器)為中心代表,周圍有有許多其他計算機連接到它。結果,如果主計算機上的信息被擦除或丟失,數據就從整個網絡中消失了。

第二階段,去中心化的網絡。意味著有多個主服務器連接了多個輔助服務器。因此,其中一個服務器的問題不會影響整個網絡。弊端是控制主服務器就控制了關聯數據。

第三個階段,分佈式網絡。目前,我們正在見證一種全新的、革命性的計算機網絡的興起——分佈式網絡節點內的所有計算機都作為對等體存在,且互相連接。假如其中一個節點關閉或者崩潰,數據信息仍將在網絡中的其餘計算機節點上可用(直到最後一個節點關閉)。

傳統的分佈式文件系統(無論谷歌閉源的GFS還是開源的HDFS),在效率上和應用上都具備實踐優勢。但它們都為擺脫中心化結構。因此,引發了安全和信任問題。隨著計算機網絡進入新的階段,分佈式存儲文件系統的技術要求將更高,同時要在開發難度和易用性做出平衡,在部署上要取得更好的成本優勢。這意味新舊替代的革命不可避免。基於區塊鏈技術的分佈式文件系統(如IPFS/Filecoin/IPSE/Sia)提供了透明可信任的網絡,展示了不同的數據形態。儘管,這些網絡在大規模商用上還處於探索和初步實踐階段,但是,他們敢於向Google、IBM等傳統科技公司發起了挑戰,不僅是雲存儲,甚至整個互聯網和線下的數據形態都將變革,行業不可避免將會洗牌。

參考資料

●HDFS介紹

●《GFS谷歌文件系統論文(2003)》

●谷歌高級工程師Denis Serenyi《Cluster-Level Storage at Google,How we use Colossus to improve storage efficiency?》

●IBM Spectrum Scale 5.0.0: Administration Guide

●《IBM紅皮書:IBM Spectrum Scale (formerly GPFS) 》

●IPFS星際文件系統技術文檔

●IPSE技術黃皮書

●Sia白皮書

●Filecoin白皮書

"

相關推薦

推薦中...