要約:
- 新しい研究では、医療知識に基づく問題を使い、Kahunの独自の知識グラフに基づいたデータセットを利用したClaude3がGPT-4を凌駕する結果が出たが、人間の医療専門家が両方のAIモデルよりも優れていた。
- クロード3はGPT-4よりも精度が高かったが、両方とも人間の医療専門家や客観的な医学知識に比べると劣っていた。
- 医師の91%が適切な生成AIモデルを選択する方法に懸念を表明し、医師や医療機関は生成AIモデルの制限に対処する必要があると述べている。
- Kahunは、Kahunの知識グラフから抽出された医学的根拠に基づくQ&Aを使用して、GPT-4とClaude3の医学的精度を比較する研究をリードした。
- 研究結果によると、クロード3はGPT-4を上回ったが、両方とも人間の医療専門家や客観的な医学知識に比べると劣っていた。
感想:
生成AIモデルの精度向上が重要であるという結果から、医療分野におけるAIの活用は進化しているが、まだまだ医療専門家には及ばない部分があることが示唆されました。生成AIモデルの限界について議論することで、臨床業務におけるモデルの正確性と安全性を確保するための取り組みが必要です。