ttt

getttyent

(FreeBSD) portauditとperiodic securityとfetchの合わせ技で、file system full...やれやれ

2008-07-30 22:58:39 | デジタル・インターネット

FreeBSDの最大の長所であるports。/usr/ports/ports-mgmt/portaudit をインストールしておくと、portsでインストールしたソフトウェアにセキュリティホールなどの問題がある場合に、こんな具合に、報告してくれます。

# portaudit
Affected package: fetchmail-6.3.8_6
Type of problem: fetchmail -- potential crash in -v -v verbose mode (revised patch).
Reference: <http://www.FreeBSD.org/ports/portaudit/1e8e63c0-478a-11dd-a88d-000ea69a5213.html>

Affected package: php5-posix-5.2.6
Type of problem: php -- input validation error in posix_access function.
Reference: <http://www.FreeBSD.org/ports/portaudit/ee6fa2bd-406a-11dd-936a-0015af872849.html>

2 problem(s) in your installed packages found.

You are advised to update or deinstall the affected package(s) immediately.

この、portsでインストールしたソフトウェアに関するセキュリティホールのレポートは、毎日、自動的にメールで送られてきます。

これは、こういう仕掛けになっているからです。

  1. /etc/crontab に書いてあるperiodic dailyというコマンドが、毎日午前3時(デフォルトの設定)に実行される
  2. periodic dailyは、/etc/periodic/daily/ など、特定のディレクトリ以下にあるファイルを、順番に実行していく
  3. /etc/periodic/daily/450.status-security を実行したとき、そこから、periodic securityが実行される
  4. periodic securityも同様にして、/etc/periodic/securityとか/usr/local/etc/periodic/securityなど特定のディレクトリ以下のファイルを実行していく
  5. portauditをインストールしていると、/usr/local/etc/periodic/security/410.portaudit というファイルもインストールされている。この中で、portauditを実行している。
  6. 実行ログが、メールでrootあてに送られる

というわけで、portauditは、毎日、勝手に実行されています。

portauditは、セキュリティホール情報をどこから入手しているかというと、まあ当たり前ですが、ネットワーク経由でダウンロードしてきています。ダウンロードしたファイルは、デフォルトでは、/var/db/portaudit/auditfile.tbz という名前で保存されています。

/usr/local/etc/portaudit.conf.sample というファイルがありますが、これを参考に、/usr/local/etc/portaudit.confという名前の設定ファイルを作れば、portauditの挙動をいろいろとカスタマイズできます。

たとえばauditfile.tbzというファイルをどこからダウンロードするかも、指定できるようになっています。
たとえば私の場合、たくさんのFreeBSDマシンを動かしているので、

  • 1台だけ、http://www.FreeBSD.org/ports/ からダウンロードするようにして、
  • ダウンロードしたファイルを、ローカル環境のWebサーバにおいておき、
  • そのほかのFreeBSDマシンは、ローカル環境のWebサーバからダウンロードする

ようにしています(http proxyのキャッシュ機能がどうも腐ってて、何日たってもキャッシュのデータを返してくるとか、そういう理由もあったり・・・)。

ちなみに、portaudit.confにどんなことを書けるかは、実は、/usr/local/sbin/portauditを解読したほうが手っ取り早いかもしれません・・・portauditは、ただのシェルスクリプトなので。
さらに余談ですが、/usr/sbin/periodicもシェルスクリプトなんですねぇ。

なお、portauditを実行するたびに、毎回auditfile.tbzをダウンロードしているわけではなく、ある程度日付が経過したら、改めて、サーバから最新版をダウンロードするようになっています。man portauditして、「-X」オプションの説明に書いてあります。

あるとき、/tmpに巨大なファイルが作られて、file system full、ディスクの空き容量がなくなってしまいました。

その巨大なファイルの中身をのぞいたら、

Checking for a current audit database:

Downloading fresh database.
fetch: http://ローカル環境のWebサーバ/auditfile.tbz: Operation timed out
fetch: http://ローカル環境のWebサーバ/auditfile.tbz: Host is down
fetch: http://ローカル環境のWebサーバ/auditfile.tbz: Host is down
fetch: http://ローカル環境のWebサーバ/auditfile.tbz: Host is down
(以下、ディスクの空き容量を食いつぶすまで繰り返し)

ということになってました。

どうやら、

  1. periodic securityの実行がはじまって、
  2. その実行ログが/tmp以下に一時ファイルとして作られていて、
  3. ログが永遠に出力されけてしまった挙句の、file system full

ということだったようです。

たまたまそのとき、ローカル環境のWebサーバを停止させていたのですが、portauditは、auditfile.tbzをダウンロードしようとして、無限ループしていました。

ログメッセージには「fetch」と書いてあるように、portauditは、/usr/bin/fetchというコマンドを使って、ファイルauditfile.tbzをダウンロードしようとしています。

ダウンロードするときにどんなコマンドを使うかは、やはりportaudit.confで指定できます。

たまたまなんですが、portaudit.confでは

portaudit_fetch_cmd="fetch -1amp"

と記述していました。このため、ファイルをダウンロードするとき、

fetch -1amp fetch: http://ローカル環境のWebサーバ/auditfile.tbz

が実行されることになります。

ためしに、手で上記のコマンドを入力して、実行してみました。

すると、Webサーバが落ちている場合、こんな実行シーケンスが起きてしまうことがわかりました

  1. (Webサーバは同じサブネット上に存在しているため)、ARPでMACアドレス解決をしようとして
  2. しばらくたってタイムアウトしてエラー
  3. fetchに-aオプションを指定していると、一時的なエラーの場合は(ファイルが存在しない、といったエラーじゃない場合)、成功するまで繰り返すことになっている
  4. 今回出た「Host is down」の場合は、繰り返すことになっている
  5. というわけで、もう一回、サーバに接続を試みる
  6. 今度は、ARPのキャッシュが有効で、といってもARPが解決できない、という結果になるだけですが(arp -aしたときincompleteと表示される)
  7. というわけで、即座に、Host is downというエラーになる
  8. -aオプションのせいで、また繰り返し・・・
  9. ARPのキャッシュの有効期限内は、そりゃーもー、猛烈な勢いで、エラーが出続けます
  10. ARPのキャッシュの有効期限が過ぎても、しばらくたって、やっぱりARP解決できないエラーになり、また同じことの繰り返し

以上のようなシーケンスで、

fetch: http://ローカル環境のWebサーバ/auditfile.tbz: Host is down

というエラーが、永遠に吐き出され続けるのでした。うぐぅ・・・

さて、これは、何が悪いのでしょうか。

(1) fetchに-aオプションをつけるのが悪い

/usr/local/sbin/portauditを見るとわかるのですが、実は、デフォルトでは-aオプションは、ついてないのです。portaudit.conf.sampleに「-1amp」って書いてあるのは、まずいですねぇ。

(2) fetchが、全速力でリトライを繰り返すのはまずい

昔、ダイアルアップでインターネット接続していたころの話ですが、電話では、リダイアル規制ってのがあって、お話中でCONNECTできなかった場合、リダイアルをするんですが、あんまり立て続けにリダイアルしちゃダメ、というルールがありました。

そういうルールって、やっぱり必要ですよね。というわけで、fetchには、-wオプションで、待ち時間が指定できるようになっています。

でも、これって、filesystem fullになるまでの、時間稼ぎにしかならないですね。

(3) fetchが、永遠にリトライしつづけるのが悪い

まあ、これは無限ループしちゃうケースがあるってのは、一般的な話としても、プログラムとして非常に問題なわけです。

というわけで、思いつきで、-eオプションというのを追加して、リトライ回数の上限を指定できるようにしてみました。

# diff -u fetch.c.ORG fetch.c
--- fetch.c.ORG 2006-12-27 09:50:57.000000000 +0900
+++ fetch.c     2008-07-28 16:15:40.000000000 +0900
@@ -57,6 +57,7 @@
int     b_flag;        /*!   -b: workaround TCP bug */
char    *c_dirname;    /*    -c: remote directory */
int     d_flag;        /*    -d: direct connection */
+int     e_retry;       /*    -e: max retry */
int     F_flag;        /*    -F: restart without checking mtime  */
char   *f_filename;    /*    -f: file to fetch */
char   *h_hostname;    /*    -h: host to fetch from */
@@ -730,7 +731,7 @@
        int c, e, r;

        while ((c = getopt(argc, argv,
-           "146AaB:bc:dFf:Hh:lMmN:nPpo:qRrS:sT:tUvw:")) != -1)
+           "146AaB:bc:de:Ff:Hh:lMmN:nPpo:qRrS:sT:tUvw:")) != -1)
                switch (c) {
                case '1':
                        once_flag = 1;
@@ -762,6 +763,9 @@
                case 'd':
                        d_flag = 1;
                        break;
+               case 'e':
+                       e_retry = strtol(optarg, &end, 10);
+                       break;
                case 'F':
                        F_flag = 1;
                        break;
@@ -973,8 +977,12 @@
                                            "before retrying\n", w_secs);
                                if (w_secs)
                                        sleep(w_secs);
-                               if (a_flag)
+                               if (a_flag) {
+                                   static int retry = 0;
+                                   if ( ++retry < e_retry ) {
                                        continue;
+                                   }
+                               }
                        }
                }

fetchは、引数で、複数のURLを指定できるみたいなんですが、それだと、上のパッチ、正しくないですね。2つめのURLのときに、retryを初期化していないので。まあ、トータルでのリトライ回数、というこじつけにしておきます(笑)



(4) それにしても/usr/bin/fetchの出来は悪い

個人的に帰着した結論ですが、やはり、これなんです。
以前、ここのブログで、portsnapでトラブルが起きたことを書いたような気がしますが、そのときも、fetchって出来が悪いなぁ、と思ったのでした。

そういえば、fetchって、URLにユーザー名とパスワードを埋め込んだ、「ftp://ユーザー名:パスワード@サーバーアドレス/パス」という形式のURLが、使えないですよね。