• AIチャットボット(例:ChatGPT)が臨床的意思決定の有用なツールとなりうるかどうかについて研究が行われている。
  • AIチャットボットは一部の能力を示しているが、これらのツールはまだ信頼性が不足しており、病院や医療システムで行われる迅速かつ複雑な意思決定には信頼できないという一致した見解がある。
  • 研究では、Beth Israel Deaconess Medical Center(BIDMC)の医師科学者が、大規模言語モデル(LLM)を使用してAIチャットボットと医師のパフォーマンスを比較。
  • 研究によると、AIチャットボットはLLMの中央値スコアが10で最も高く、診断の正確性や正しい臨床推論については医師との間で引き分け。
  • AIは人間の推論プロセスを補完するツールとして最も有用である可能性が高い。
  • 医師たちは一般的なLMMを使用して臨床的意思決定にAIツールを使用している。
  • 医師は一般的なLMMを使用して臨床的意思決定にAIチャットボットを利用している。
  • AIチャットボットは簡単にアクセスし、照会できるため、魅力的であるが、更新されず、情報の信頼性に問題がある。
  • 医療の経験にAIなどの技術がますます中心的であるが、技術だけではなく人間性との結合が重要である。

私の考え:
AIチャットボットが臨床的意思決定において医師を支援するツールとしての可能性がある一方で、その信頼性や正確性にはまだ課題があります。AIは医療分野で重要な役割を果たす可能性がありますが、人間の経験と知識を補完するものとして位置付けることが重要だと感じます。

元記事: https://www.aha.org/aha-center-health-innovation-market-scan/2024-10-15-are-ai-chatbots-ready-aid-clinical-decision-making