2025-07-22 マウントサイナイ医療システム (MSHS)

マウントサイナイ医科大学などの研究により、大規模言語モデル(LLM)が医療倫理問題に対し「飛びつき思考(直感優先)」を示す傾向が明らかになった。直感的誤答を選びやすく、文脈を明示してもバイアスに基づく判断に陥ることが多かった。これは医療現場での誤判断リスクを示唆しており、AIは医師の代替ではなく補完すべき存在と強調。今後は臨床での安全性確保へ、AIの倫理判断能力を検証する「AIアシュアランスラボ」構築が計画されている。
<関連情報>
- https://www.mountsinai.org/about/newsroom/2025/like-humans-ai-can-jump-to-conclusions-mount-sinai-study-finds
- https://www.nature.com/articles/s41746-025-01792-y
医療倫理推論における大規模言語モデルの落とし穴
Pitfalls of large language models in medical ethics reasoning
Shelly Soffer,Vera Sorin,Girish N. Nadkarni & Eyal Klang
npj Digital Medicine Published:22 July 2025
DOI:https://doi.org/10.1038/s41746-025-01792-y
Large language models (LLMs), such as ChatGPT-o1, display subtle blind spots in complex reasoning tasks. We illustrate these pitfalls with lateral thinking puzzles and medical ethics scenarios. Our observations indicate that patterns in training data may contribute to cognitive biases, limiting the models’ ability to navigate nuanced ethical situations. Recognizing these tendencies is crucial for responsible AI deployment in clinical contexts.


