生態系研究を支援するマルチモーダルAIツール (Multimodal AI Tool Supports Study of Ecosystems)

ad

2025-03-10 ワシントン大学セントルイス校

ワシントン大学のコンピュータ科学者たちは、TaxaBindという人工知能ツールを開発しました。このツールは、複数の情報源を組み合わせて生態系のモデリングを行うマルチモーダルAI技術を活用しています。TaxaBindは、テキストデータ、画像、地理的情報など、異なる形式のデータを統合し、より包括的で正確な生態系の理解を可能にします。これにより、生物多様性の評価や環境保護の取り組みが強化され、持続可能な生態系管理に貢献することが期待されています。

<関連情報>

TaxaBind: 生態学アプリケーションのための統一された埋め込み空間 TaxaBind: A Unified Embedding Space for Ecological Applications

Srikumar Sastry, Subash Khanal, Aayush Dhakal, Adeel Ahmad, Nathan Jacobs
arxive  Submitted on 1 Nov 2024
DOI:https://doi.org/10.48550/arXiv.2411.00683

Abstract

We present TaxaBind, a unified embedding space for characterizing any species of interest. TaxaBind is a multimodal embedding space across six modalities: ground-level images of species, geographic location, satellite image, text, audio, and environmental features, useful for solving ecological problems. To learn this joint embedding space, we leverage ground-level images of species as a binding modality. We propose multimodal patching, a technique for effectively distilling the knowledge from various modalities into the binding modality. We construct two large datasets for pretraining: iSatNat with species images and satellite images, and iSoundNat with species images and audio. Additionally, we introduce TaxaBench-8k, a diverse multimodal dataset with six paired modalities for evaluating deep learning models on ecological tasks. Experiments with TaxaBind demonstrate its strong zero-shot and emergent capabilities on a range of tasks including species classification, cross-model retrieval, and audio classification.

生物環境工学
ad
ad
Follow
ad
タイトルとURLをコピーしました