ディープニューラルネットワークとAIの限界を明らかにする研究 (Evaluating how brains generalize: Data from macaque monkeys reveals flaws in deep neural networks)

ad

2025-01-06 ハーバード大学

ハーバード大学の研究者たちは、マカクザルの脳データを用いて、視覚野をモデル化するためのディープニューラルネットワーク(DNN)の限界を明らかにしました。彼らは、サルに数千枚の画像を提示し、その際の神経発火率を記録することで、約30万の画像と反応のペアを収集しました。このデータを基に、DNNモデルが新規の条件下(例:コントラストや色相の変化)でどの程度一般化できるかを評価したところ、既知のデータに対しては高い予測精度を示したものの、未知のデータに対しては性能が約20%に低下することが判明しました。この結果は、DNNが脳の機能を完全には再現できておらず、特に訓練データに存在しない条件下での一般化能力に課題があることを示しています。研究者たちは、AIと神経科学の分野が協力してこの問題に取り組む必要性を強調しています。

<関連情報>

腹側視覚野のDNNに基づく符号化モデルの分布外汎化能力のベンチマーキング Benchmarking Out-of-Distribution Generalization Capabilities of DNN-based Encoding Models for the Ventral Visual Cortex

Spandan Madan, Will Xiao, Mingran Cao, Hanspeter Pfister, Margaret Livingstone, Gabriel Kreiman
arXiv  Submitted on 16 Jun 2024
DOI:https://doi.org/10.48550/arXiv.2406.16935

ディープニューラルネットワークとAIの限界を明らかにする研究 (Evaluating how brains generalize: Data from macaque monkeys reveals flaws in deep neural networks)

Abstract

We characterized the generalization capabilities of DNN-based encoding models when predicting neuronal responses from the visual cortex. We collected \textit{MacaqueITBench}, a large-scale dataset of neural population responses from the macaque inferior temporal (IT) cortex to over 300,000 images, comprising 8,233 unique natural images presented to seven monkeys over 109 sessions. Using \textit{MacaqueITBench}, we investigated the impact of distribution shifts on models predicting neural activity by dividing the images into Out-Of-Distribution (OOD) train and test splits. The OOD splits included several different image-computable types including image contrast, hue, intensity, temperature, and saturation. Compared to the performance on in-distribution test images — the conventional way these models have been evaluated — models performed worse at predicting neuronal responses to out-of-distribution images, retaining as little as 20% of the performance on in-distribution test images. The generalization performance under OOD shifts can be well accounted by a simple image similarity metric — the cosine distance between image representations extracted from a pre-trained object recognition model is a strong predictor of neural predictivity under different distribution shifts. The dataset of images, neuronal firing rate recordings, and computational benchmarks are hosted publicly at: this https URL.

生物工学一般
ad
ad
Follow
ad
タイトルとURLをコピーしました