cogitoさんからご質問のあったサイテーションインデックス(CI)と業績評価について、ちょっと触れてみます。
まず、CIとは何か?それは、ある論文が別の論文で何回引用されたかを指数としてまとめたもので、こういう集計をしている会社がいくつかあります。このシステムでは、引用されればされるほど、インパクトが高い論文という位置づけになります。このCIを個人の発表論文についてまとめて、その研究者の影響力に関する「物差し」にしようというわけです。
私の所属する研究所でも、すべての教授陣について集計されたCIを「監視する」部署があります。そして、毎年の業績評価を割り出す際に、部門長や研究所長はその数字をある程度参考にしています。ただし、この簡単な物差しには、様々な落とし穴があり、一概にこれだけで評価を下すことは危険です。
たとえば、ある研究者はほんとうに価値のある論文を、主たる研究者として単独で、年に一報しか出さないとします。一方ある研究者は多数の研究者に協力して、共著者として年に50報の論文に自分の名前を連ねるとします。論文あたりのCIが、前者が100で後者が平均10だったとすると、合計では前者が100ポイント、後者は500ポイントとなります。
さて、どちらが本当の意味で科学に貢献したのでしょうか?単純にCIのみで言うと、後者の研究者は前者の研究者よりも5倍も「働いた」もしくは「価値がある」ということになります。これでいいのでしょうか?
ここで、もう一つ注意しないといけないのは、後者の場合、共著者は多数いて、CIポイントは共著者となった他の研究者へも同様に配分されています。1ポイントの「比重」が、前者と後者では異なります。
ちょっとこの例は極端ですが、一つの問題点を浮き彫りにするためにあえて選びました。念のため付け加えますが、私は共同研究が悪いとか、共著で論文を出すことが悪いと言っているのではありません。CIをどう読むべきかを考えるときの「落とし穴」の例を述べたまでです。
要するに、CIだけで研究者を評価することは危険なのです。それではどうするべきか?やはり、専門家による専門家の評価が必要です。そして、そこには公正で厳粛な評価の精神がなくてはなりません。以前にも書きましたが、「conflict of interest」を完全に除去した真の「peer review」が必要なのです。評価の問題は簡単ではありません。
まず、CIとは何か?それは、ある論文が別の論文で何回引用されたかを指数としてまとめたもので、こういう集計をしている会社がいくつかあります。このシステムでは、引用されればされるほど、インパクトが高い論文という位置づけになります。このCIを個人の発表論文についてまとめて、その研究者の影響力に関する「物差し」にしようというわけです。
私の所属する研究所でも、すべての教授陣について集計されたCIを「監視する」部署があります。そして、毎年の業績評価を割り出す際に、部門長や研究所長はその数字をある程度参考にしています。ただし、この簡単な物差しには、様々な落とし穴があり、一概にこれだけで評価を下すことは危険です。
たとえば、ある研究者はほんとうに価値のある論文を、主たる研究者として単独で、年に一報しか出さないとします。一方ある研究者は多数の研究者に協力して、共著者として年に50報の論文に自分の名前を連ねるとします。論文あたりのCIが、前者が100で後者が平均10だったとすると、合計では前者が100ポイント、後者は500ポイントとなります。
さて、どちらが本当の意味で科学に貢献したのでしょうか?単純にCIのみで言うと、後者の研究者は前者の研究者よりも5倍も「働いた」もしくは「価値がある」ということになります。これでいいのでしょうか?
ここで、もう一つ注意しないといけないのは、後者の場合、共著者は多数いて、CIポイントは共著者となった他の研究者へも同様に配分されています。1ポイントの「比重」が、前者と後者では異なります。
ちょっとこの例は極端ですが、一つの問題点を浮き彫りにするためにあえて選びました。念のため付け加えますが、私は共同研究が悪いとか、共著で論文を出すことが悪いと言っているのではありません。CIをどう読むべきかを考えるときの「落とし穴」の例を述べたまでです。
要するに、CIだけで研究者を評価することは危険なのです。それではどうするべきか?やはり、専門家による専門家の評価が必要です。そして、そこには公正で厳粛な評価の精神がなくてはなりません。以前にも書きましたが、「conflict of interest」を完全に除去した真の「peer review」が必要なのです。評価の問題は簡単ではありません。