たこさんのメモ書き

Linuxの設定/構築のメモを残すのが主体です。
わからないこと、あれこれたくさん。

webサイトをまるごとダウンロード

2005-05-29 18:48:32 | Weblog
wgetコマンドで、blogのバックアップを試みる。
[user@localhost]$ wget -r -l 1 http://blog.goo.ne.jp/eichoku-o/
以上のコマンド wget で、webサイトをまるごとダウンロードできる。
ただし、オプションの使い方に注意。
オプション -r が必要だが、これは「再帰回収」を行うためのオプション。
デフォルトだと、「再帰回収」により取得されるサイトの階層の深さは5。
オプション -r だけだと、サイトのリンク先までダウンロードされることになり、不要な大量のファイルを取得してしまうことになる。
そこで、取得する階層の深さを、別のオプションで指定することにする。
それは、オプション -l <階層の深さ> 。
オプションの例:
$ wget -r -l 1 <サイトのurl>
これで、対象のサイトを1階層分だけ再帰的に取得する。
以上で狙い通りのダウンロードができた。
ダウンロードが終了すると、以下のメッセージが出力される。

終了しました --18:24:44--
ダウンロード: 3,339,710 バイト(ファイル数 81)

全部で約3.2MBといったところか?

最新の画像もっと見る