私は現役のころは色々な科学雑誌に論文を投稿していましたが、その査読者からのコメントに対応するのは大変でした。
それがたぶん40代ぐらいになると、査読を頼まれるようになってきました。もちろん有名ではなくどこかの国の化学会誌というようん雑誌ですが、ボランティアのような扱いで時間と手間が非常にかかるものでした。
勤務していた研究所はこういったいわば公的な仕事を優先して良いという了解がありましたが、年に1.2回とはいえ結構負担に感じていました。最近この査読を将来的にAIが行う可能性が議論されているようです。
査読は学術論文を掲載する前に、独立した専門家が内容や学術的な意義をチェックする仕組みです。査読者は先行文献と比べ、どこに新規性があるのか、論理的な矛盾はないか、適切な方法で適切なデータを集めているかなどを見てコメントし、著者に書き換えや追加実験を求めたりします。
科学の質を保つために不可欠な手続きといえます。ただ科学者の善意に頼るところもあり、時間がかかる査読への忌避感や、専門分野が細分化する中で、査読者の確保が課題になっています。
スタンフォード大学などがGPT4に査読させた場合と人間の査読者の場合で差があるか調べた論文によると、査読を受けた人の半数以上がGPT4の査読について「役立つ」「非常に役立つ」と回答し、8割が「少なくとも一部の人間の査読者からのコメントより有益だった」と答えています。
これを受けて研究者にとっては朗報で、人間の研究者とAIの役割分担が進むだろうとしています。一方で生成AIによって画像やデータの修正が簡単になったことで、捏造などの不正が起こりやすくなることへの懸念も相次ぎました。
今年5月に公正研究推進協会は、研究者向けにAI利用の注意点をまとめたオンライン教材を整備しました。意図せず研究不正の疑義が生じる恐れもあり、検証ができる様、AIの回答などの記録を残しておくことを推奨しています。
また生成AIを使うとしても、研究者は最終的に自分の研究について頭で理解し、きちんと世の中に説明できるないといけません。研究のプロセスをどこまでならAIに任せてよいのか、学術界で議論していく必要があるとしています。
AIの革命的な進歩が「科学自体の変革の瞬間を迎えた」と期待を示す一方で、研究の透明性や結果の再現性、著者の責任など科学の在り方に新しい困難を生むことになると指摘しています。
指針案では、研究者は使用したAIツールやアルゴリズムを開示し、AIが導き出した答えでも研究者が結論に責任を持つことなどを推奨しています。
AIが進歩することによってこれからの研究はいろいろ難しいことが出てきそうな気がします。
それがたぶん40代ぐらいになると、査読を頼まれるようになってきました。もちろん有名ではなくどこかの国の化学会誌というようん雑誌ですが、ボランティアのような扱いで時間と手間が非常にかかるものでした。
勤務していた研究所はこういったいわば公的な仕事を優先して良いという了解がありましたが、年に1.2回とはいえ結構負担に感じていました。最近この査読を将来的にAIが行う可能性が議論されているようです。
査読は学術論文を掲載する前に、独立した専門家が内容や学術的な意義をチェックする仕組みです。査読者は先行文献と比べ、どこに新規性があるのか、論理的な矛盾はないか、適切な方法で適切なデータを集めているかなどを見てコメントし、著者に書き換えや追加実験を求めたりします。
科学の質を保つために不可欠な手続きといえます。ただ科学者の善意に頼るところもあり、時間がかかる査読への忌避感や、専門分野が細分化する中で、査読者の確保が課題になっています。
スタンフォード大学などがGPT4に査読させた場合と人間の査読者の場合で差があるか調べた論文によると、査読を受けた人の半数以上がGPT4の査読について「役立つ」「非常に役立つ」と回答し、8割が「少なくとも一部の人間の査読者からのコメントより有益だった」と答えています。
これを受けて研究者にとっては朗報で、人間の研究者とAIの役割分担が進むだろうとしています。一方で生成AIによって画像やデータの修正が簡単になったことで、捏造などの不正が起こりやすくなることへの懸念も相次ぎました。
今年5月に公正研究推進協会は、研究者向けにAI利用の注意点をまとめたオンライン教材を整備しました。意図せず研究不正の疑義が生じる恐れもあり、検証ができる様、AIの回答などの記録を残しておくことを推奨しています。
また生成AIを使うとしても、研究者は最終的に自分の研究について頭で理解し、きちんと世の中に説明できるないといけません。研究のプロセスをどこまでならAIに任せてよいのか、学術界で議論していく必要があるとしています。
AIの革命的な進歩が「科学自体の変革の瞬間を迎えた」と期待を示す一方で、研究の透明性や結果の再現性、著者の責任など科学の在り方に新しい困難を生むことになると指摘しています。
指針案では、研究者は使用したAIツールやアルゴリズムを開示し、AIが導き出した答えでも研究者が結論に責任を持つことなどを推奨しています。
AIが進歩することによってこれからの研究はいろいろ難しいことが出てきそうな気がします。