Zeltzer D, Kugler Z, Hayat L, et al.
Comparison of Initial Artificial Intelligence (AI) and Final Physician Recommendations in AI-Assisted Virtual Urgent Care Visits.
Ann Intern Med. 2025 Apr;178(4):498-506. PMID: 40183679.
こういう研究を読んだり、AIが理IIIに合格できる記事を読んだりしていつも考えるのは、ICUの診療をAIがするようになるのはいつだろう、ということ。
まず基本的なこととして、「ICUでの診療は複雑なのでAIには無理だ」と考えるのは間違い。僕が生きている間にそういう時代が来てもおかしくないくらい、当然起こること。それと、いつ、ということを考える時に、何年後かを考えるのはちょっと無理がある。そこには色々な要素があるので必ず不正確になるから。それよりもどんな条件がそろえばAIがICUの診療をできるようになるか、を考えたい。
今回の研究では、患者診療に必要な情報が全てテキストとして提供される。それをAIと医師が見て、さらに判定する”エキスパート"が見て、診療プランを決定し、評価している。つまりまとまったテキスト情報があり、それを一つの問題に対して利用すれば済む。でもICUでは、患者さんの病態を把握するための情報がいろいろなところにある。具体的には、
・電子カルテの診療記録
・部門システムの経過表(バイタル、使用薬剤、医療機器、インアウト、血液ガス)
・血液検査結果、培養結果、その他の検査の実施と結果
・画像、読影レポート
・(まだ)文章化されていない伝聞情報(担当科の医師がこう言っていた、家族がこう言っていた、数日前に抗菌薬を中止した理由をカルテに書かなかった)
・記録されていない患者情報(見た目、診察で得られる情報)
まず複数のシステムが存在している点が問題。部門システムは比較的容易だが、電子カルテの相当量の情報を定期的に出力する仕組みが利用可能になるにはしばらく時間がかかるし、画像は別個にAIが読影する必要がある。
次の問題は、検討するべきアウトカムが無限と言ってくらいたくさんあること。例えばGPTが上昇しただけで、経過観察するかどうか、エコーするかどうか、薬剤を中止するかどうか、の全てを判断する必要がある。この無限の問題に対する判断をAIがどう行うか。教師あり学習や強化学習ではほぼ無理なので、multimodalなLLMが多量の情報を飲み込んで、何を判断する必要があるかについて考えてくれないといけない。
そして最後の問題は文章化されていない情報。これって結構多いし、知らないと判断できないくらい重要な情報が含まれていたりする。その対応には病室とICUの各所にカメラとマイクを設置して、それを評価できるようになる必要がある。
どれもある程度は現状でも可能だけど、まだAIがそのレベルに達していないところもあるし、金銭的に導入が難しいところもあるし。これらをすべてクリアして、ICUでAIが診療するのが普通になるには、結構時間がかかりそう。週3でICUのカンファに参加(ほぼ見学)していてるのだけど、いつもこんなことを考えている。でも、東ロボくんの失敗から10年を経たずに理IIIに合格できるようになったことを考えると、もしかしたら思いのほか早かったりして?
Comparison of Initial Artificial Intelligence (AI) and Final Physician Recommendations in AI-Assisted Virtual Urgent Care Visits.
Ann Intern Med. 2025 Apr;178(4):498-506. PMID: 40183679.
こういう研究を読んだり、AIが理IIIに合格できる記事を読んだりしていつも考えるのは、ICUの診療をAIがするようになるのはいつだろう、ということ。
まず基本的なこととして、「ICUでの診療は複雑なのでAIには無理だ」と考えるのは間違い。僕が生きている間にそういう時代が来てもおかしくないくらい、当然起こること。それと、いつ、ということを考える時に、何年後かを考えるのはちょっと無理がある。そこには色々な要素があるので必ず不正確になるから。それよりもどんな条件がそろえばAIがICUの診療をできるようになるか、を考えたい。
今回の研究では、患者診療に必要な情報が全てテキストとして提供される。それをAIと医師が見て、さらに判定する”エキスパート"が見て、診療プランを決定し、評価している。つまりまとまったテキスト情報があり、それを一つの問題に対して利用すれば済む。でもICUでは、患者さんの病態を把握するための情報がいろいろなところにある。具体的には、
・電子カルテの診療記録
・部門システムの経過表(バイタル、使用薬剤、医療機器、インアウト、血液ガス)
・血液検査結果、培養結果、その他の検査の実施と結果
・画像、読影レポート
・(まだ)文章化されていない伝聞情報(担当科の医師がこう言っていた、家族がこう言っていた、数日前に抗菌薬を中止した理由をカルテに書かなかった)
・記録されていない患者情報(見た目、診察で得られる情報)
まず複数のシステムが存在している点が問題。部門システムは比較的容易だが、電子カルテの相当量の情報を定期的に出力する仕組みが利用可能になるにはしばらく時間がかかるし、画像は別個にAIが読影する必要がある。
次の問題は、検討するべきアウトカムが無限と言ってくらいたくさんあること。例えばGPTが上昇しただけで、経過観察するかどうか、エコーするかどうか、薬剤を中止するかどうか、の全てを判断する必要がある。この無限の問題に対する判断をAIがどう行うか。教師あり学習や強化学習ではほぼ無理なので、multimodalなLLMが多量の情報を飲み込んで、何を判断する必要があるかについて考えてくれないといけない。
そして最後の問題は文章化されていない情報。これって結構多いし、知らないと判断できないくらい重要な情報が含まれていたりする。その対応には病室とICUの各所にカメラとマイクを設置して、それを評価できるようになる必要がある。
どれもある程度は現状でも可能だけど、まだAIがそのレベルに達していないところもあるし、金銭的に導入が難しいところもあるし。これらをすべてクリアして、ICUでAIが診療するのが普通になるには、結構時間がかかりそう。週3でICUのカンファに参加(ほぼ見学)していてるのだけど、いつもこんなことを考えている。でも、東ロボくんの失敗から10年を経たずに理IIIに合格できるようになったことを考えると、もしかしたら思いのほか早かったりして?
※コメント投稿者のブログIDはブログ作成者のみに通知されます