AIがオオカミの遠吠えを解読:イエローストーンのクライ・ウルフ・プロジェクトがオオカミのコミュニケーションの秘密を解き明かす

Edited by: Anna 🎨 Krasko

クライ・ウルフ・プロジェクトの言語学者でありAI専門家でもあるジェフリー・T・リードは、グレーター・イエローストーン生態系におけるオオカミのコミュニケーションを解読するために人工知能を活用しています。このイニシアチブは、オオカミの遠吠えを分析して、その構造、意図、および文脈を理解します。

オオカミは集団で遠吠えを使い、多くの場合、アルファメスが開始して、縄張りをマークしたり、子犬を保護したり、再編成したりします。彼らは視覚的な接触なしに互いの声を認識できます。リードによれば、特定の「吠え声」の発声は「危険、助けが必要」と解釈できます。AIアルゴリズムは、これらの遠吠えの音声分析に基づいて、パックのサイズを推定できるようになりました。

自律型録音ユニットは、遠隔地で広範なオーディオをキャプチャし、密猟の検出に役立ち、オオカミのコミュニケーションの複雑さを明らかにします。ある例では、ボディマイクロホンで録音された野生のオオカミは、1日に平均的な人間と同じくらいの声を出しました。リードはバンクーバーのTED 2025で彼の研究を発表しました。彼は、野生生物のコミュニケーションを理解することが、生態系における私たちの場所を認識するために重要であることを強調しています。クライ・ウルフ・プロジェクトは、一度に最大60台のレコーダーから、一年中24時間オオカミの音声を録音します。リードはまた、スペクトログラムを使用して、AIにオオカミの音がどのように聞こえるかを教え、画像認識を通じて他の音からそれらを区別できるようにします。

エラーや不正確な情報を見つけましたか?

できるだけ早くコメントを考慮します。