情報技術の四方山話

ヤマハルータ、VPN、クラウド、仮想サーバ、Linux/OSSの活用とセキュリティの情報通信四方山(よもやま)話ブログ

ZFS/OmniOSでのミラー検査scrabに必要な時間の実例

2015-12-30 14:00:20 | ZFS
匠技術研究所
ZFS/OmniOSでのミラー検査scrabに必要な時間の実例


いつもアクセスありがとうございます。匠技術研究所の谷山 亮治です。
ZFSをOmniOSで使っています。OmniOSはOpenSolaisを源流として分岐したオープンソースの基本ソフトの一つです。

ZFSをデーター保管庫に使っています。
物理ディスクは
SSD:基本ソフト、ZFSログ、ZFSキャッシュ
HDD:データー領域。2Tx2枚でミラー構成


基本ソフトからは2Tミラーのデータ領域が物理容量で1.8Tに見えています。
データ領域は重複排除しており、今のところ約1.5倍の領域を持つことができます。

# zpool list
NAME SIZE ALLOC FREE EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT
rpool 22.2G 5.98G 16.3G - 17% 26% 1.00x ONLINE -
zpica 1.81T 338G 1.48T - 20% 18% 1.48x ONLINE -
#

データー領域のより詳細な状態です。一つのファイルでエラーが起こっており、ミラーを検査するscrabの実行中です。
ログとキャッシュの状態も表示されています。

これからも判るように、大容量のファイルシステムは整合性確認に長時間を要します。
約1.8Tデーター領域の約1.5Tを検査するのに必要な時間は8時間弱です。
もちろん、この時間はシステム全体の性能に依存します。

システム構築ではここが肝要なのですが、見落としがちです。

# zpool status zpica
pool: zpica
state: ONLINE
status: One or more devices has experienced an error resulting in data
corruption. Applications may be affected.
action: Restore the file in question if possible. Otherwise restore the
entire pool from backup.
see: http://illumos.org/msg/ZFS-8000-8A
scan: scrub in progress since Wed Dec 30 13:29:45 2015
239M scanned out of 338G at 12.6M/s, 7h38m to go
0 repaired, 0.07% done
config:

NAME STATE READ WRITE CKSUM
zpica ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
c3d0 ONLINE 0 0 0
c4d0 ONLINE 0 0 0
logs
c2d0p3 ONLINE 0 0 0
cache
c2d0p2 ONLINE 0 0 0

errors: 1 data errors, use '-v' for a list
#
『サーバー』 ジャンルのランキング
コメント   この記事についてブログを書く
この記事をはてなブックマークに追加
« 12月29日(火)のつぶやき | トップ | 12月30日(水)のつぶやき »
最近の画像もっと見る

コメントを投稿

ブログ作成者から承認されるまでコメントは反映されません。

コメント利用規約に同意の上コメント投稿を行ってください。

数字4桁を入力し、投稿ボタンを押してください。

あわせて読む

トラックバック

この記事のトラックバック  Ping-URL
ブログ作成者から承認されるまでトラックバックは反映されません。