6月5日に、
OpenStack最新情報セミナー(2014年6月)
『OpenStack環境構築入門』&『Cinder/Swift/Ceph OpenStackでのストレージ活用法』
に行って来た!
夜の部の3番目(さいご)
Cephをベンチマークしてみました
をメモメモ
Cephをベンチマークしてみました
・分散ストレージ
・Ceph,OpenStackの使われ方
・ベンチマーク結果
・分散仮想ストレージ
V3
ViPR
→SDSといってもいろいろ
抽象化しているレイヤが違う
MapR:分散ファイルシステムをHadoopにチューニング
・OpenStack
バックエンド2本
フロント2本
・キャッシングメカニズム
→ネットワークの知識がないとチューニングできない
RedHatがCephの開発元Inktankを買収(出資してたのはカノニカル)
Cephの特徴
・ブロックデバイスとしても、ファイルシステムとしても使える
・ファイルシステムに2種類
フューズ
カーネルデバイスドライバ
・ブロックデバイス
カーネルドライバ
ユーザーランドで動く
libRBDをつかう
・Havanaで所々動かない
カーネル3以上
・数百Tを超えないと、分散ファイルシステムのメリットでにくい
DR(遠隔レプリケーション)
・Erasure cording(いれーじゃーこーでぃんぐ)
・Cephロードマップ→買収前
・ベンチマーク
パフォーマンス的にCephFS,あんまりよろしくないです。
CephRBD QEMはよい
CephRBD Fuseドライバは、作成ファイル数が増えると、コンテキストスイッチが急激に増える
・40G Ether SSDでパフォーマンスベンチマーク
・日本Cephユーザー会
6月22日
JTF2014
OpenStack最新情報セミナー(2014年6月)
『OpenStack環境構築入門』&『Cinder/Swift/Ceph OpenStackでのストレージ活用法』
に行って来た!
夜の部の3番目(さいご)
Cephをベンチマークしてみました
をメモメモ
Cephをベンチマークしてみました
・分散ストレージ
・Ceph,OpenStackの使われ方
・ベンチマーク結果
・分散仮想ストレージ
V3
ViPR
→SDSといってもいろいろ
抽象化しているレイヤが違う
MapR:分散ファイルシステムをHadoopにチューニング
・OpenStack
バックエンド2本
フロント2本
・キャッシングメカニズム
→ネットワークの知識がないとチューニングできない
RedHatがCephの開発元Inktankを買収(出資してたのはカノニカル)
Cephの特徴
・ブロックデバイスとしても、ファイルシステムとしても使える
・ファイルシステムに2種類
フューズ
カーネルデバイスドライバ
・ブロックデバイス
カーネルドライバ
ユーザーランドで動く
libRBDをつかう
・Havanaで所々動かない
カーネル3以上
・数百Tを超えないと、分散ファイルシステムのメリットでにくい
DR(遠隔レプリケーション)
・Erasure cording(いれーじゃーこーでぃんぐ)
・Cephロードマップ→買収前
・ベンチマーク
パフォーマンス的にCephFS,あんまりよろしくないです。
CephRBD QEMはよい
CephRBD Fuseドライバは、作成ファイル数が増えると、コンテキストスイッチが急激に増える
・40G Ether SSDでパフォーマンスベンチマーク
・日本Cephユーザー会
6月22日
JTF2014