㈠ ceph和cephfs是一個概念么

首先Ceph和CephFS不是一個概念
Ceph是分布式文件存儲系統,裡面提供了對象存儲,塊存儲和文件系統,這個文件系統也就是CephFS。所以Ceph包括了CephFS。

㈡ 如何 獲得 ceph pool下 object的 空間使用狀態

Ceph是一套高性能,易擴展的,無單點的分布式文件存儲系統,基於Sage A. Weil的論文開發,主要提供以下三個存儲服務: 對象存儲(Object Storage),既可以通過使用Ceph的庫,利用C, C++, Java, Python, PHP代碼,也可以通過Restful網關以對象的形式訪問或存儲數據,兼容亞馬遜的S3和OpenStack的Swift。 塊存儲(Block Storage),作為塊設備像硬碟一樣直接掛載。 文件系統(File System) ,如同網路文件系統一樣掛載,兼容POSIX介面。 Ceph的結構,對象存儲由LIBRADOS和RADOSGW提供,塊存儲由RBD提供,文件系統由CEPH FS提供,而RADOSGW, RBD, CEPH FS均需要調用LIBRADOS的介面,而最終都是以對象的形式存儲於RADOS里。 Ceph集群的節點有三種角色: Monitor,監控集群的健康狀況,向客戶端發送最新的CRUSH map(含有當前網路的拓撲結構) OSD,維護節點上的對象,響應客戶端請求,與其他OSD節點同步 MDS,提供文件的Metadata,如果不使用CephFS可以不安裝 .

㈢ openstack為什麼需要整合ceph

Ceph 是一個符合 POSIX (Portable Operating System for UNIX®)、開源的分布式存儲系統,依據 GNU 次通用公共許可而運行。該項目最初由 Sage Weill 於 2007 年開發,該項目的理念是提出一個沒有任何單點故障的集群,確保能夠跨集群節點進行永久數據復制。
與在任何經典的分布式文件系統中一樣,放入集群中的文件是條帶化的,依據一種稱為 Ceph Controlled Replication Under Scalable Hashing (CRUSH) 的偽隨機的數據分布演算法放入集群節點中。
Ceph 是一種有趣的存儲替代方案,這得益於它實現的一些概念,比如元數據分區,以及一種復制或放置組策略(將一系列對象聚合到一個分組中,然後將該分組映射到一系列對象存儲後台進程 (OSD))。
這些特性支持自動擴展、恢復和自主管理集群,因為他們使用以下綁定(在不同的級別上)提供了與您的 Ceph 集群的交互方式:
Reliable Autonomic Distributed Object Store (RADOS) 網關是一種 RESTful 介面,您的應用程序可與其通信,以便將對象直接存儲在集群中。
librados 庫是一種訪問 RADOS 的便利方式,它支持 PHP、Ruby、Java™、Python 和 C/C++ 編程語言。
Ceph 的 RADOS 塊設備 (RBD) 是一個完全分布式的塊設備,它使用一個 Linux® 內核和一個 Quick EMUlator (QEMU)/基於內核的虛擬機 (KVM) 驅動程序。
原生 CephFS 是一個分布式文件系統,全面支持 Filesystem in Userspace (FUSE)。
如 圖 1 中所示,Ceph 生態系統可分解為 5 個組成部分:
librados 庫
RADOS 網關
RBD
CephFS
集群中的各種節點
圖 1. Ceph 生態系統

Ceph 生態系統原生支持許多與其交互的方式,這使得在已運行的基礎架構中集成它變得既輕松又便捷,即使它執行的是一個在統一項目文件中提供塊和對象存儲功能的復雜任務。
接下來我們來看一下組成 Ceph 的各個部分以及它們在 Ceph 中分別扮演的角色。
RADOS 對象存儲
圖 1 表明 RADOS 對象存儲是存儲集群的基礎。對於通過眾多客戶端或網關(RADOSGW、RBD 或 CephFS)執行的每個操作,數據會進入 RADOS 或者可以從中讀取數據。圖 2 顯示了 RADOS 集群,它包含兩個後台守護進程:Ceph 對象存儲後台進程 (OSD) 和維護集群映射的主要副本的 Ceph 監視器。
圖 2. The RADOS 對象存儲

集群映射描述了對象塊的物理位置,以及一個將設備聚合到物理位置的 「桶」 列表。該映射由 Ceph 的高級放置演算法控制,該演算法在物理位置上建模邏輯位置。圖 3 描繪了集群內的 「池」,即存儲對象的邏輯分區。每個池被動態映射到 OSD。
圖 3. RADOS 位置分組

現在讓我們看看第一組後台進程 OSD,然後再看看監視器,最後看看屬於 CephFS 分布式文件系統的 Ceph 元數據伺服器。
回頁首
OSD
OSD 是訪問文件系統並向其中寫入數據的後台進程,它提供了通過集群網路訪問文件系統的能力。要讓集群正常運行,Ceph 開發人員建議使用 XFS(Silicon Graphics 日誌文件系統)或 B 樹文件系統 (Btrfs) 作為用於對象存儲的文件系統。也可使用第 4 代擴展文件系統 (ext4),但它未提供 XFS 和 Btrfs 為 Ceph 提供的功能。
在本示例中,XFS 部署在所有存儲節點上。圖 4 演示了 Ceph OSD 如何與物理存儲交互。

㈣ 如何統計Ceph的RBD真實使用容量

Ceph是一套高性能,易擴展的,無單點的分布式文件存儲系統,基於Sage A. Weil的論文開發,主要提供以下三個存儲服務:
對象存儲(Object Storage),既可以通過使用Ceph的庫,利用C, C++, Java, Python, PHP代碼,也可以通過Restful網關以對象的形式訪問或存儲數據,兼容的S3和OpenStack的Swift。
塊存儲(Block Storage),作為塊設備像硬碟一樣直接掛載。
文件系統(File System) ,如同網路文件系統一樣掛載,兼容POSIX介面。
Ceph的結構,對象存儲由LIBRADOS和RADOSGW提供,塊存儲由RBD提供,文件系統由CEPH FS提供,而RADOSGW, RBD, CEPH FS均需要調用LIBRADOS的介面,而最終都是以對象的形式存儲於RADOS里。
Ceph集群的節點有三種角色:
Monitor,監控集群的健康狀況,向客戶端發送最新的CRUSH map(含有當前網路的拓撲結構)
OSD,維護節點上的對象,響應客戶端請求,與其他OSD節點同步
MDS,提供文件的Metadata,如果不使用CephFS可以不安裝!

㈤ 如何使用ceph

首先回顧之前看到的整個架構圖,在上述文中我們了解了RADOS的原理和作用,然後我們聚焦在Librados,Librados提供了對RADOS的直接訪問。librados提供對C、C++、Java、Python、Ruby和PHP的支持。

㈥ ceph是採用kvm虛擬化技術嗎

OpenStack和CloudStack的對比
1)歷史背景和概況
OpenStack由NASA和Rackspace公司在2010年聯合發布,兩者分別貢獻計算代碼(Nova)和存儲代碼(Swift),以Apache許可協議進行授權。OpenStack的目標是提供一個既可以用來建設公有雲也能建設私有雲的通用的開源雲計算平台,而且做到雲平台的搭建盡量的簡單方便,同時能夠快速的橫向擴展。OpenStack獨立於任何企業,遵循開源、開放設計、開放開發流程和開放社區的理念,完全由社區主導和維護。OpenStack的發布周期是半年,到目前為止已經發布8個正式版本,最新的版本是Havana,在每個版本發布之後社區都會舉行一次峰會,來自世界各地的公司和開發者一起討論下一個版本的設計,同時進行OpenStack相關的技術分享,值得一提的是,最近的一次峰會在中國的香港舉行。
CloudStack最初由Cloud.com公司開發,分為商業和開源兩個版本,開源版本通過GPLv3(GNU General Public License, version 3)許可協議進行授權,Citrix公司在2011年收購Cloud.com後,將全部代碼開源,並在2012年將CloudStack貢獻給Apache軟體基金會,成為Apache的孵化項目,同時將授權協議改為更加寬松開放和商業友好的Apache許可協議,CloudStack在2013年3月份升級為Apache的正式項目。CloudStack的目標是提供高度可用的、高度可擴展的能夠進行大規模虛擬機部署和管理的開放雲平台。CloudStack的發布周期並不固定,目前最新的版本是4.2,社區每年會舉行一次全球協作會議(CloudStack Collaboration Conference)進行技術分享和交流。
2)平台架構
OpenStack採用分布式架構,整個平台按照功能不同分為多個模塊項目,如圖2所示,項目之間通過消息隊列中間件和RESTful形式的API進行交互通信(其中認證項目為其它項目提供認證和服務注冊),因此每個項目都可以單獨部署在不同的主機上,架構非常的靈活,OpenStack對外提供豐富和功能強大的API,使得資源可以被用戶方便的使用和調度,同時提供和Amazon AWS(Amazon Web Services)兼容的API。

圖2、OpenStack分布式架構圖
CloudStack採用集中式的單體架構(Monolithic architecture),如圖3所示,整個平台只有一個項目構成,不同模塊之間通過的本地調用進行交互,在一台主機上就可以完成平台的部署,非常方便,CloudStack同樣地對外提供自身API和與Amazon AWS相兼容的API。

圖3、CloudStack集中式架構圖
可以看到兩者的架構幾乎是相對的,OpenStack的分布式架構靈活性好,不同的項目可以單獨部署,因此可以很容易的根據實際需要進行功能組合,並且由於不同的項目間耦合性低,項目間功能劃分明確,因此針對單獨功能進行定製開發也非常方便,缺點是部署麻煩,每個項目都要部署配置一遍;CloudStack因為只有一個項目,所以部署起來會相對容易很多,然而平台的擴展性就要相對弱一些。
3)平台整體比較
OpenStack和CloudStack的功能對比如表1所示,我們從授權協議、支持的底層技術和用戶群等不同方面對兩者進行了比較。

OpenStack

CloudStack

授權協議

Apache 2.0,可以免費商用

Apache 2.0,可以免費商用

虛擬化技術

XenServer/XCP,KVM,QEMU,
LXC,VMware ESXi/vCenter,Hyper-V Baremetal,Docker,Xen/Libvirt

XenServer,KVM,QEMU,
VMware vCenter ,LXC

網路服務

VLAN,Flat,FlatDHCP
Quantum虛擬化網路

VLAN,Flat,OpenFlow

存儲支持

iSCSI,Ceph,NFS,LVM,Swift,Sheepdog

NFS,LVM,Ceph,Swift

調度策略

模型全面,易擴展

模型簡單,可擴展

用戶界面

功能完善,界面簡單

功能完善,界面友好

資料庫

PostgreSQL,MySQL,SQLite

MySQL

虛擬機模板

支持

支持

組件

Nova,Glance,Keystone,
Horizon,Swift,Cinder,
Quantum,Heat,Ceilometer

Console Proxy VM,
Second Storage VM,
Virtual Router VM,
Host Agent,Management Server

開發主導

開源社區

Citrix公司

開發語言

Python

Java

官方文檔

非常詳細

詳細

版本問題

存在版本兼容性問題

不存在版本兼容性問題

用戶群

160家左右,包括NASA、
RedHat、Rackspace、HP、
網易、UnitedStack等

不到60家,包括諾基亞、
日本電話電報公司、Zynga、
阿爾卡特、迪斯尼等

表1、OpenStack與CloudStack 比較
4)平台選擇
經過前面的比較分析我們能夠獲得這樣的結論,OpenStack和CloudStack都是功能強大的開源雲平台,滿足企業私有雲建設的需求,並且因為開放開源,都可以根據需要進行定製。不同的是CloudStack因為是從商業軟體開源出來的,所以對企業來說會更容易上手,在雲平台構建時會比較方便,然而同樣因為其帶有商業軟體屬性,平台架構比較集中,模塊間耦合度比較高,因此擴展性不是太好,同時二次開發的成本較高;OpenStack自誕生之初就是開源軟體,並採用分布式的架構,所有的開發都是由社區承擔,不同的項目之間幾乎沒有耦合,所以可以方便的進行開發定製,然而因為其有多個項目組成,每個項目都要單獨安裝,並且要保證項目間的協作,所以部署會比較麻煩,另外由於OpenStack處於高速發展階段,不同版本之間項目可能會有較大的變動,因此版本間的升級會比較困難。
另外值得一提的是,OpenStack和CloudStack雖然都對VMware的ESXi虛擬化技術提供支持,但支持方式是不一樣的,如圖4所示。CloudStack要經過vCenter才可以實現對ESXi宿主機上虛擬機的管理;而OpenStack支持直接和ESXi通信,實現對虛擬機的基本管理,只有高級功能才需要vCenter的支持。針對目前中小企業普遍採用VMware的免費虛擬化技術而沒有vCenter的現狀,這也是在平台選擇時需要考慮的。

圖4、VMware ESXi管理方式對比圖
恆天雲採用OpenStack開源平台進行私有雲建設,因為OpenStack架構非常開放,方便定製開發,並且擁有眾多技術廠商的支持,非常有可能成為雲計算IaaS平台領域的Linux,所以通過對OpenStack定製開發,積累雲計算的技術能力,從長遠來看對企業也是非常有益的。

㈦ ceph這款雲存儲技術怎麼樣

Ceph是一套高性能,易擴展的,無單點的分布式文件存儲系統,基於Sage A. Weil的論文開發,主要提供以下三個存儲服務:
對象存儲(Object Storage),既可以通過使用Ceph的庫,利用C, C++, Java, Python, PHP代碼,也可以通過Restful網關以對象的形式訪問或存儲數據,兼容亞馬遜的S3和OpenStack的Swift。
塊存儲(Block Storage),作為塊設備像硬碟一樣直接掛載。
文件系統(File System) ,如同網路文件系統一樣掛載,兼容POSIX介面。

Ceph的結構,對象存儲由LIBRADOS和RADOSGW提供,塊存儲由RBD提供,文件系統由CEPH FS提供,而RADOSGW, RBD, CEPH FS均需要調用LIBRADOS的介面,而最終都是以對象的形式存儲於RADOS里。

Ceph集群的節點有三種角色:
Monitor,監控集群的健康狀況,向客戶端發送最新的CRUSH map(含有當前網路的拓撲結構)
OSD,維護節點上的對象,響應客戶端請求,與其他OSD節點同步
MDS,提供文件的Metadata,如果不使用CephFS可以不安裝

㈧ ceph 集群 進程和模塊 有哪些

Ceph是一套高性能,易擴展的,無單點的分布式文件存儲系統,基於Sage A. Weil的論文開發,主要提供以下三個存儲服務:對象存儲(Object Storage),既可以通過使用Ceph的庫,利用C, C++, Java, Python, PHP代碼,

㈨ openstack ceph 虛擬機會在不同計算節點么

Ceph 是一個符合 POSIX (Portable Operating System for UNIX®)、開源的分布式存儲系統,依據 GNU 次通用公共許可而運行。該項目最初由 Sage Weill 於 2007 年開發,該項目的理念是提出一個沒有任何單點故障的集群,確保能夠跨集群節點進行永久數據復制。
與在任何經典的分布式文件系統中一樣,放入集群中的文件是條帶化的,依據一種稱為 Ceph Controlled Replication Under Scalable Hashing (CRUSH) 的偽隨機的數據分布演算法放入集群節點中。
Ceph 是一種有趣的存儲替代方案,這得益於它實現的一些概念,比如元數據分區,以及一種復制或放置組策略(將一系列對象聚合到一個分組中,然後將該分組映射到一系列對象存儲後台進程 (OSD))。
這些特性支持自動擴展、恢復和自主管理集群,因為他們使用以下綁定(在不同的級別上)提供了與您的 Ceph 集群的交互方式:
Reliable Autonomic Distributed Object Store (RADOS) 網關是一種 RESTful 介面,您的應用程序可與其通信,以便將對象直接存儲在集群中。
librados 庫是一種訪問 RADOS 的便利方式,它支持 PHP、Ruby、Java™、Python 和 C/C++ 編程語言。
Ceph 的 RADOS 塊設備 (RBD) 是一個完全分布式的塊設備,它使用一個 Linux® 內核和一個 Quick EMUlator (QEMU)/基於內核的虛擬機 (KVM) 驅動程序。
原生 CephFS 是一個分布式文件系統,全面支持 Filesystem in Userspace (FUSE)。