過去 15,000 年にわたり、犬と人間は共進化してきました。現在、犬はペットとして人間の環境に生息することが多くなっています。時々、犬も人間と同じように家でビデオを見て、理解しているようです。
それでは、犬の目には世界はどのように見えるのでしょうか?
最近、エモリー大学の研究により、犬の脳から視覚画像が解読され、犬の脳が見たものをどのように再構成するのかが初めて明らかになりました。この研究は、Journal of Visualized Experiments に掲載されました。
論文アドレス: https://www.jove.com/t/64442/through-dog-s-eyes-fmri-decoding-naturalistic-videos -from-dog
研究者らは、覚醒した拘束されていない 2 匹の犬から 30 分間のビデオを 3 回、合計 90 分間視聴しながら、fMRI 神経データを記録しました。次に、機械学習アルゴリズムを使用して、ニューラル データのパターンを分析しました。
エモリー大学の心理学教授で論文著者の一人であるグレゴリー・バーンズ氏は、「犬がビデオを見ている間の脳活動を監視し、その活動をある程度再構築することができる」と述べた。
バーンズらは、犬における fMRI スキャン技術の使用の先駆けとなり、神経活動を測定している間完全に静止するように犬を訓練しました。無制限。 10年前、研究チームは完全に覚醒し拘束されていない犬のfMRI脳画像を初めて公開し、バーンズが「犬プロジェクト」と呼ぶものの扉を開いた。
バーンズとカリーは、完全に覚醒し拘束されていない状態で脳活動をスキャンされた最初の犬です。
バーンズ博士の研究室は、長年にわたり、犬の脳が視覚、言語、匂い、報酬(賞賛や食べ物を受け取るなど)をどのように処理するかに関する複数の研究を発表してきました。
同時に、機械学習テクノロジーは進歩を続けており、科学者は人間の脳活動のパターンの一部を解読できるようになりました。その後、バーンズ氏は同様の技術を犬の脳に応用できないか考え始めた。
この新しい研究は、機械学習と fMRI テクノロジーに基づいています。 fMRI は、磁気共鳴画像法を使用して神経活動によって引き起こされる血行動態の変化を測定する神経画像技術です。この技術は非侵襲的であり、脳機能の位置特定の分野で重要な役割を果たします。人間に加えて、この技術は一部の霊長類を含む他の少数の種でのみ使用されています。
実験には2頭の犬が使用され、機械学習やfMRIなどの技術が犬の分析に一般的に使用できることが証明されました。この研究は、他の人がさまざまな動物がどのように考えるかをより深く理解するのに役立つことを意味します。
実験プロセスは大まかに次のとおりです:
実験参加者: ブボ、4 歳、デイジー、11 歳。両犬とも、これまでにいくつかの fMRI トレーニング セッション (ブーボ: 8 セッション、デイジー: 11 セッション) に参加しており、その一部にはスクリーンに投影された視覚刺激の観察が含まれていました。 2 匹の犬が選ばれたのは、飼い主に見られずに動き回ることなく、スキャナー内に長時間留まることができたからです。
ビデオ撮影: 犬の視点からビデオを撮影し、犬の生活の日常シーンを捉えます。これらのシナリオには、散歩、餌を食べる、遊ぶ、人間との交流、犬と犬の交流などが含まれます。このビデオは 256 のユニークなシーンに編集されており、各シーンには犬が人間に寄り添う、犬が走る、散歩するなどの出来事が描かれています。各シーンには、その内容に基づいて一意の番号とラベルが割り当てられます。その後、シーンはそれぞれ約 6 分の 5 つの大きなコンピレーション ビデオに編集されました。
#実験デザイン: 参加者はまず、MRI ボアの後ろのスクリーンに投影されたコンピレーション ビデオを見ながら、3T MRI を使用してスキャンを受けました。犬の場合、事前訓練は、以下の写真のような安定した頭の位置を達成するために特注のあご当てに頭を置くことによって達成されます。は 3 回の視聴に分かれており、各回 30 分のビデオが視聴され、合計時間は 90 分になります。
実験では、fMRI を使用して犬を同時にスキャンし、データを分析しました。実験では、ツイン ニューラルに基づく非線形手法である Ivis 機械学習アルゴリズムが使用されました。ネットワーク (SNN) は、高次元の生物学的データの解析に成功しました。さらに、実験では scikit-learn や RFC などの機械学習アルゴリズムも使用されました。
スキャンを受けているデイジーは、騒音を消すために耳栓を固定するために耳にテープを貼っています。
この研究では、人間と犬の脳がどのように機能するかを比較しました。 2人の人間の被験者からの結果は、ニューラルネットワークを使用して開発されたモデルが脳データを99%の精度でオブジェクトベースおよびアクションベースの分類子にマッピングしたことを示しました;同じモデルは、犬の脳パターンを解読する際に良好に機能しました。アクション分類、精度は 75% ~ 88% に達しました。これは、以下の人間 (A) と犬 (B) の実験結果に示すように、人間と犬の脳の働きに大きな違いがあることを示しています。これに関してバーンズ博士は、「私たち人間は、自分が見ているものを非常に気にしますが、犬は、誰が見ているか、何を見ているかということよりも、行動の行動を気にしているようです。」
以上が犬は世界をどのように見ていますか?人間の研究者が犬の脳の視覚認知の解読に着手の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。