3.
CephFS (Posix file system)
kernel
Device driver
vfs
FUSE
File system
ブロック
デバイス
User space
Kernel space
Ceph-fuse
Client
Application
MDS
Monitors
OSDs
vfs
ブロックデバ
イスドライバ
vfs
User space
Kernel space
Ceph-kernel
Client
Application
RADOS
*CephFSは、現時点(V.0.78)で本番稼働での使用は推奨されていない。
14/04/04
Copyright 2014(C) OSS Laboratories Inc. All Rights Reserved
3
4.
Ceph RBD (Block Device)
librbd
vfs
virtio
File system
ブロック
デバイス
物理システム
Application
Monitors
OSDs
vfs
ブロックデバ
イスドライバ
vfs
librados
Application
RADOS
Qemu-kvm-libvirt
librbd
librados
仮想システム
14/04/04
Copyright 2014(C) OSS Laboratories Inc. All Rights Reserved
4
5.
Ceph RADOSGW (Object Gateway)
librgw
File system
ブロック
デバイス
Monitors
OSDs
vfs
ブロックデバ
イスドライバ
S3 API
librados
Application
RADOS
*RADOSGWは、マルチサイト非同期レプリケーションをサポート
httpd
SWIFT API
14/04/04
Copyright 2014(C) OSS Laboratories Inc. All Rights Reserved
5
6.
ベンチマーク目的
l 共有ファイルサーバ/VMイメージストアとして、
CephFS/RBDの性能差を検証、Object Storageは
実施しなかった
l 比較のために、ローカルHDDとNFSも検証した
l 限られたHW環境のため、スケールアウトの検証は
行っていない
14/04/04
Copyright 2014(C) OSS Laboratories Inc. All Rights Reserved
6
7.
テスト環境
l HW環境
l NW環境
l SW環境
l CentOS6.5(クライアントのみkernel3.1)
l Ceph 0.78
環境 HW
NW
ファイルシステム
ローカルHDD
HP ML110 G7
Intel Celeron G530 @ 2.40GHz 1p/2c
HP 250GB SATA disk x1
1Gbps
ext3
NFS
Nfs v4
Ceph
exr4
RTT ms
Mbps
Nuttcpでの計測 0.418
928.5
14/04/04
Copyright 2014(C) OSS Laboratories Inc. All Rights Reserved
7
8.
ベンチマークテスト内容
l クライアントは、KVMホスト上のVMにCephク
ライアントとベンチマークプログラムを配置
l 但し、ローカルHDDのテストのみ物理サーバ
上でローカルに実施
l Cephクライアントは、CentOSのデフォルト
kernelでは動かないので、3.1に変更
l ベンチマークプログラムは、fioを使用し、
fabricで自動実行
l Ceph基本設定
l pool 2 rbd(Block Device)
l ceph osd pool set data size 3
l ceph osd pool set data min_size 2
l MonitorとMDSは冗長化(3台)しOSDと同居
l OSDのストライピングは行わない
l OS/Cephともデフォルト設定で実施し、特別な
チューニングは実施しなかった
Mon
Ceph pool
同期
レプリケーション
MDS
OSD
Mon
MDS
OSD
Mon
MDS
OSD
fio
fabric
Ceph
client
同期
レプリケーション
Kvm host
14/04/04
Copyright 2014(C) OSS Laboratories Inc. All Rights Reserved
8
Be the first to comment