AI診断モデルにおける不確実性の可視化(Making AI Models More Trustworthy in High-Stakes Settings)

ad

2025-05-01 マサチューセッツ工科大学(MIT)

MITの研究チームは、医療などの高リスク分野でAIの信頼性を高める新手法を開発しました。従来の「コンフォーマル分類」は、予測結果の中に正解が含まれる保証を提供しますが、予測セットが大きくなりすぎる問題がありました。今回の改良により、予測セットのサイズを最大30%削減しつつ、信頼性を維持することに成功しました。これにより、医師はより少ない選択肢から正確な診断を迅速に行える可能性が高まり、患者の治療効率の向上が期待されます。この手法は、動物種の識別など他の分類タスクにも応用可能です。研究成果は、2025年6月開催のコンピュータビジョンとパターン認識に関する国際会議(CVPR)で発表予定です。

<関連情報>

テスト時間増大はコンフォーマル予測における効率を改善する Test-time augmentation improves efficiency in conformal prediction

Divya Shanmugam, Helen Lu, Swami Sankaranarayanan, John Guttag

AI診断モデルにおける不確実性の可視化(Making AI Models More Trustworthy in High-Stakes Settings)

Abstract

A conformal classifier produces a set of predicted classes and provides a probabilistic guarantee that the set includes the true class. Unfortunately, it is often the case that conformal classifiers produce uninformatively large sets. In this work, we show that test-time augmentation (TTA)–a technique that introduces inductive biases during inference– reduces the size of the sets produced by conformal classifiers. Our approach is flexible, computationally efficient, and effective. It can be combined with any conformal score, requires no model retraining, and reduces prediction set sizes by 10%-14% on average. We conduct an evaluation of the approach spanning three datasets, three models, two established conformal scoring methods, different guarantee strengths, and several distribution shifts to show when and why test-time augmentation is a useful addition to the conformal pipeline.

医療・健康
ad
ad
Follow
ad
タイトルとURLをコピーしました