佐々木俊尚の「ITジャーナル」

佐々木俊尚の「ITジャーナル」

ブログの信頼度を計測する

2005-08-15 | Weblog
 blogWatcherというブログ検索システムを研究開発している東京工業大の奥村学助教授を、iNTERNET magazineの記事執筆のために取材した。奥村助教授は言語処理やデータマイニングの専門家で、ブログのエントリーが大規模な情報集合体になりつつある状況に注目し、そこに集まっているさまざまな情報をマイニングすることを考えたのである。

 blogWatcherは、情報処理推進機構(IPA)のスーパーハッカー発掘事業こと、「未踏ソフトウェア創造事業」にも採択されている。blogWatcherの持つ意味やブログ検索の現状についてはiNTERNET magazineに書いたのでそちらを読んでいただければと思うが、私が原稿の趣旨とは別に興味を持ったのは、ブログの信頼性についての考え方だった。

 ブログのリテラシーという問題は、実はきわめて困難な課題である。一次情報についてそれなりのオーソリティーを持っているマスメディアと異なり、個人が書いた特定のブログに書かれた情報がどの程度の確からしさを持っているのかを、読む側が知るのは非常に難しい。分析や評論といった加工の部分であれば、「その分析は論理的に間違っている」といった批判も可能だろう。しかし一次情報については、それが正しいのか間違っているのかを、部外者が判断するのは難しい。

 奥村教授はblogWatcherの将来について、「他のブログ検索との差別化として、マイニングの部分を精緻化していこうと考えている」と話し、そのひとつの方向性としてブログの信頼度指標を実装させることを挙げた。

 そのアルゴリズムについては今後の大きな課題となりそうだが、たとえばそのブログに対する被リンク数が多いか少ないかは、ファクターのひとつになるだろう。また案外と、エントリーの文章の長さといったことも、指標になる可能性がある。1行コメントを加えているだけの人よりは、あれこれと論評を加えている方が確からしさが高い可能性はある。またエントリーのアーカイブが大量に蓄積されているブログは、エントリーが数本しかないブログよりも信頼度が高いといえるかもしれない。

 もっともこのあたりは、かつて90年代に流行したSEOスパムと同じで、信頼度指標とその裏を書こうとするスパムブログとの争いに発展する可能性もある。しかし信頼度を計測する側が、アルゴリズムをブラッシュアップしていけば、GoogleがSEOスパムに勝利を収めたように、ある種の信頼度スタンダードを確立していけるかもしれない。

 かつて90年代には、どの情報が真実でどの情報が嘘なのかを見極めることが、インターネットのリテラシーだと言われた。でもそんなものは幻想で、ひとりのネットユーザーがネット上の真実と嘘を見極めるのはほとんど不可能だ。

 だったらその部分をコードに任せてしまうことはできないだろうか?――というのが、奥村助教授の発想なのである。