脳内トランスフォーマーもあるよ! 「海馬」と同じ仕組み
作成できません、理解できません —— フェイマン
## 人工知能を作成したい場合は、まず理解する必要があります。人間の脳の原因はなんと賢いのでしょう。
ニューラル ネットワークの誕生とその後の輝かしい発展により、研究者はニューラル ネットワークの 生物学的説明と生物学的進歩を模索してきました。新しいモデルを開発するため。
しかし、人工知能分野の研究者たちは、実際にはもっと野心的な目標を掲げています。AI モデルを使用して脳の理解を助ける 。
最近の研究では、最も人気のある Transformer モデルは 生物学的知識の助けを借りずに開発されたものであるにもかかわらず、その構造は非常によく似ていることが判明しました。人間の脳の海馬構造に。
紙のリンク: https://arxiv.org/pdf/2112.04035.pdf
研究者らは、Transformer に再帰的位置エンコーディングを装備した後、モデルが海馬形成の 空間表現を正確に再現できることを発見しました。
しかし、著者は、Transformer は神経科学における現在の 海馬モデル (最も明白なモデル) と密接に関連しているため、この結果には驚かないとも述べています。 配置セル
(配置セル)とグリッドセル(グリッドセル)です。 さらに、実験を通じて、Transformer モデルは神経科学バージョンで提供されるモデルと比較してパフォーマンスが大幅に向上していることがわかりました。
この研究は、人工ニューラル ネットワークと計算脳ネットワークを組み合わせて、海馬と大脳皮質の間の相互作用について新たな理解を提供し、皮質領域がどのように広範囲の機能を実行するかを示唆しています。言語理解など、現在の神経科学モデルを超えた複雑なタスク。Transformer は海馬をシミュレートしますか?
人間が自分自身の脳を理解することは依然として困難です。たとえば、「私たちがどこにいるのか、角を曲がったところに何があるのか、そこにどうやって行くのか」を解決するために、脳がどのように空間情報を整理してアクセスするかを研究することは、 「まだまだ気の遠くなるような課題です。課題です。」 プロセス全体には、メモリ ネットワーク全体と、それぞれが他の数千のニューロンに接続されている数百億のニューロンからの保存された空間データの呼び出しが含まれる場合があります。
神経科学者は、位置をマッピングするグリッド細胞やニューロンなど、いくつかの重要な要素を特定しましたが、さらに深く進む方法は依然として不明です。研究者は移動できません。人間の灰白質のスライスを分割して研究して見ることができます。画像、音、匂いの位置ベースの記憶がどのように流れ、相互に結びつくのか。人工知能モデルは、人間の脳を理解する別の方法を提供します。長年にわたり、神経科学者はさまざまな種類のニューラル ネットワークを使用して、脳内のニューロンの発火をシミュレートしてきました。
最近の研究では、海馬 (記憶に重要な脳の構造) が基本的にトランスフォーマー モデルに似ていることが示されています。
研究者らは、新しいモデルを使用して、脳の内部動作と同様の方法で空間情報を追跡し、いくつかの注目すべき結果を達成しました。
オックスフォード大学とスタンフォード大学の認知神経科学者であるジェームス・ウィッティントン氏は、これらの脳モデルがトランスフォーマーと同等であることがわかれば、次のように述べています。これは、新しいモデルのパフォーマンスが向上し、トレーニングが容易になることを意味します。
Whittington らの研究で見られるように、Transformer は、グリッド セルや脳の他の部分によって実行されるさまざまな計算を模倣するニューラル ネットワーク モデルの能力を大幅に向上させることができます。
Whittington 氏は、このようなモデルによって、人工ニューラル ネットワークがどのように機能するか、さらには脳内で計算がどのように実行されるかについての理解が進む可能性があると述べています。
Google Brain のコンピューター科学者で、主に Transformer モデルの研究に従事している David Ha 氏は、「私たちは新しい脳を作り直そうとしているわけではないが、新しい脳を作り直すメカニズムは作れるだろうか」と述べています。脳は何ができるの?
Transformer は、自然言語を処理する人工知能の新しいモデルとして 5 年前に初めて提案され、BERT や GPT-3 などの「スター モデル」の秘密兵器でもありました。 。これらのモデルは、説得力のある歌詞を生成したり、シェイクスピアのソネットを作曲したり、人間による顧客サービス業務を行ったりすることができます。
Transformer の中核となるメカニズムは自己注意であり、各入力 (単語、ピクセル、シーケンス内の数値など) が常に他のすべての入力に接続されます。その他 一般的なニューラル ネットワークは、入力を特定の入力に接続するだけです。
Transformer は自然言語タスク専用に設計されましたが、その後の研究により、Transformer が画像の分類などの他のタスクでもうまく機能することが証明され、現在では脳がモデル化されています。
2020年、オーストリアのリンツにあるヨハン・ケプラー大学のコンピューター科学者ゼップ・ホッホライター氏(LSTM論文の筆頭著者)が率いるチームは、トランスフォーマーを使用して強力で長寿命のシステムを再利用しました。用語 既存のメモリ検索モデルのホップフィールド ネットワーク。
プリンストンの物理学者ジョン ホップフィールドによって 40 年前に最初に提案されたこれらのネットワークは、同時に活動するニューロンが相互に強い接続を確立するという一般規則に従っています。
ホッホライターと彼の共同研究者らは、研究者は常に記憶回復のより良いモデルを探しており、新しいクラスのホップフィールドネットワークがどのように記憶を回復し、トランスフォーマーがどのように注意を実行するかを観察したと述べました。 。
MIT-IBM ワトソン人工知能研究所のホップフィールドとドミトリー クロトフによって開発されたこれらの新しいホップフィールド ネットワークは、標準のホップフィールド ネットワークよりも効率的な接続を特徴としており、より多くのメモリを保存および取得できます。
論文リンク: https://papers.nips.cc/paper/2016/hash/eaae339c4d89fc102edd9dbdb6a28915-Abstract.html
Hochreiter のチームは、Transformer のアテンション メカニズムと同様のルールを追加することで、これらのネットワークをアップグレードしました。
2022 年に、この新しい論文は Hochreiter の方法をさらに調整し、Transformer を修正して、メモリを線形シーケンスとして扱うのではなく、文中の単語の文字列のように扱い、メモリを次のようにエンコードするようにしました。高次元空間の座標。
研究者らは、この「ひねり」により、神経科学タスクにおけるモデルのパフォーマンスがさらに向上すると述べています。実験結果は、このモデルが神経科学者が fMRI スキャンで見るグリッド細胞の発火パターンのモデルと数学的に同等であることも示しました。
ユニバーシティ・カレッジ・ロンドンの神経科学者キャズウェル・バリー氏によると、グリッド細胞は、印象的なパターンを持つ刺激的で美しく規則的な構造をしており、ランダムに出現する可能性が高すぎるという。
この新しい研究は、トランスフォーマーが海馬で観察されたパターンをどのように正確に再現するかを示しています。
また、Transformer モデルは、以前の状態とどのように移動したかに基づいて、重要な方法で、モデルがどこにあるのかを把握できることにも気づきました。従来のグリッドセルモデルに組み込まれます。
他の最近の研究でも、トランスフォーマーが他の脳機能の理解を進めることができることが示唆されています。
昨年、MIT の計算神経科学者 Martin Schrimpf は、fMRI と皮質電図検査によって報告される人間の神経活動測定に対するそれらの影響を理解するために、43 の異なるニューラル ネットワーク モデルを分析しました。
彼は、Transformer が現在最先端の最先端のニューラル ネットワークであり、画像処理で見られるほぼすべての変化を予測できることを発見しました。
David Ha 氏と Yujin Tang 氏はコンピューター科学者でもあり、最近、意図的に大量のデータをランダムかつ無秩序な方法で Transformer に入力し、人体がどのように変化するかをシミュレートできるモデルを設計しました。データを脳に送信し、感覚観察を送信します。 Transformer は、私たちの脳と同じように、無秩序な情報の流れをうまく処理できることが判明しました。
紙のリンク: https://arxiv.org/abs/2111.14377
Yujin Tang 氏は、ニューラル ネットワークは配線されており、特定の入力しか受信できないと述べました。しかし現実では、データセットは急速に変化することが多く、ほとんどの AI には調整する方法がありません。将来的には、すぐに適応できるアーキテクチャを試してみたいと考えています。
以上が脳内トランスフォーマーもあるよ! 「海馬」と同じ仕組みの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ホットAIツール

Undresser.AI Undress
リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover
写真から衣服を削除するオンライン AI ツール。

Undress AI Tool
脱衣画像を無料で

Clothoff.io
AI衣類リムーバー

AI Hentai Generator
AIヘンタイを無料で生成します。

人気の記事

ホットツール

メモ帳++7.3.1
使いやすく無料のコードエディター

SublimeText3 中国語版
中国語版、とても使いやすい

ゼンドスタジオ 13.0.1
強力な PHP 統合開発環境

ドリームウィーバー CS6
ビジュアル Web 開発ツール

SublimeText3 Mac版
神レベルのコード編集ソフト(SublimeText3)

ホットトピック









従来のコンピューティングを超える能力を備えているだけでなく、より低コストでより効率的なパフォーマンスを実現する人工知能モデルを想像してみてください。これは SF ではありません。世界で最も強力なオープンソース MoE モデルである DeepSeek-V2[1] が登場しました。 DeepSeek-V2 は、経済的なトレーニングと効率的な推論の特徴を備えた強力な専門家混合 (MoE) 言語モデルです。これは 236B のパラメータで構成されており、そのうち 21B は各マーカーをアクティブにするために使用されます。 DeepSeek67B と比較して、DeepSeek-V2 はパフォーマンスが優れていると同時に、トレーニング コストを 42.5% 節約し、KV キャッシュを 93.3% 削減し、最大生成スループットを 5.76 倍に高めます。 DeepSeek は一般的な人工知能を研究する会社です

AI は確かに数学を変えつつあります。最近、この問題に細心の注意を払っている陶哲軒氏が『米国数学協会会報』(米国数学協会会報)の最新号を送ってくれた。 「機械は数学を変えるのか?」というテーマを中心に、多くの数学者が意見を述べ、そのプロセス全体は火花に満ち、ハードコアで刺激的でした。著者には、フィールズ賞受賞者のアクシャイ・ベンカテシュ氏、中国の数学者鄭楽軍氏、ニューヨーク大学のコンピューター科学者アーネスト・デイビス氏、その他業界で著名な学者を含む強力な顔ぶれが揃っている。 AI の世界は劇的に変化しています。これらの記事の多くは 1 年前に投稿されたものです。

Google が推進する JAX のパフォーマンスは、最近のベンチマーク テストで Pytorch や TensorFlow のパフォーマンスを上回り、7 つの指標で 1 位にランクされました。また、テストは最高の JAX パフォーマンスを備えた TPU では行われませんでした。ただし、開発者の間では、依然として Tensorflow よりも Pytorch の方が人気があります。しかし、将来的には、おそらくより大規模なモデルが JAX プラットフォームに基づいてトレーニングされ、実行されるようになるでしょう。モデル 最近、Keras チームは、ネイティブ PyTorch 実装を使用して 3 つのバックエンド (TensorFlow、JAX、PyTorch) をベンチマークし、TensorFlow を使用して Keras2 をベンチマークしました。まず、主流のセットを選択します

今月初め、MIT やその他の機関の研究者らは、MLP に代わる非常に有望な代替案である KAN を提案しました。 KAN は、精度と解釈可能性の点で MLP よりも優れています。また、非常に少数のパラメーターを使用して、多数のパラメーターを使用して実行する MLP よりも優れたパフォーマンスを発揮できます。たとえば、著者らは、KAN を使用して、より小規模なネットワークと高度な自動化で DeepMind の結果を再現したと述べています。具体的には、DeepMind の MLP には約 300,000 個のパラメーターがありますが、KAN には約 200 個のパラメーターしかありません。 KAN は、MLP が普遍近似定理に基づいているのに対し、KAN はコルモゴロフ-アーノルド表現定理に基づいているのと同様に、強力な数学的基礎を持っています。以下の図に示すように、KAN は

Boston Dynamics Atlas は正式に電動ロボットの時代に突入します!昨日、油圧式アトラスが歴史の舞台から「涙ながらに」撤退したばかりですが、今日、ボストン・ダイナミクスは電動式アトラスが稼働することを発表しました。ボストン・ダイナミクス社は商用人型ロボットの分野でテスラ社と競争する決意を持っているようだ。新しいビデオが公開されてから、わずか 10 時間ですでに 100 万人以上が視聴しました。古い人が去り、新しい役割が現れるのは歴史的な必然です。今年が人型ロボットの爆発的な年であることは間違いありません。ネットユーザーは「ロボットの進歩により、今年の開会式は人間のように見え、人間よりもはるかに自由度が高い。しかし、これは本当にホラー映画ではないのか?」とコメントした。ビデオの冒頭では、アトラスは仰向けに見えるように地面に静かに横たわっています。次に続くのは驚くべきことです

今日は、時系列予測のパフォーマンスを向上させるために、時系列データを潜在空間上の大規模な自然言語処理 (NLP) モデルと整合させる方法を提案するコネチカット大学の最近の研究成果を紹介したいと思います。この方法の鍵は、潜在的な空間ヒント (プロンプト) を使用して時系列予測の精度を高めることです。論文タイトル: S2IP-LLM: SemanticSpaceInformedPromptLearningwithLLMforTimeSeriesForecasting ダウンロードアドレス: https://arxiv.org/pdf/2403.05798v1.pdf 1. 大きな問題の背景モデル

目標検出は自動運転システムにおいて比較的成熟した問題であり、その中でも歩行者検出は最も初期に導入されたアルゴリズムの 1 つです。ほとんどの論文では非常に包括的な研究が行われています。ただし、サラウンドビューに魚眼カメラを使用した距離認識については、あまり研究されていません。放射状の歪みが大きいため、標準のバウンディング ボックス表現を魚眼カメラに実装するのは困難です。上記の説明を軽減するために、拡張バウンディング ボックス、楕円、および一般的な多角形の設計を極/角度表現に探索し、これらの表現を分析するためのインスタンス セグメンテーション mIOU メトリックを定義します。提案された多角形モデルの FisheyeDetNet は、他のモデルよりも優れたパフォーマンスを示し、同時に自動運転用の Valeo 魚眼カメラ データセットで 49.5% の mAP を達成しました。

テスラのロボット「オプティマス」の最新映像が公開され、すでに工場内で稼働可能となっている。通常の速度では、バッテリー(テスラの4680バッテリー)を次のように分類します:公式は、20倍の速度でどのように見えるかも公開しました - 小さな「ワークステーション」上で、ピッキング、ピッキング、ピッキング:今回は、それがリリースされたハイライトの1つビデオの内容は、オプティマスが工場内でこの作業を完全に自律的に行い、プロセス全体を通じて人間の介入なしに完了するというものです。そして、オプティマスの観点から見ると、自動エラー修正に重点を置いて、曲がったバッテリーを拾い上げたり配置したりすることもできます。オプティマスのハンドについては、NVIDIA の科学者ジム ファン氏が高く評価しました。オプティマスのハンドは、世界の 5 本指ロボットの 1 つです。最も器用。その手は触覚だけではありません
