1965 年、ゴードン ムーアは、集積回路上に収容できるトランジスタの数は約 18 ~ 24 か月ごとに 2 倍になるという経験則を要約しました。つまり、プロセッサのパフォーマンスは約 2 年ごとに 2 倍になります。
この経験則は「ムーアの法則」と呼ばれ、その後の 40 年間で、半導体チップの製造プロセスは確かに目まぐるしい速度で進歩しました。 . 速度が2倍になります。しかし、近年はムーアの法則の倍増効果が鈍化しており、近い将来にムーアの法則が期限切れになるとの予測もある。
業界は、この開発のボトルネックに対処するためにさまざまな解決策を提案してきました。スタンフォード大学のニューロモーフィックエンジニアであるクワベナ・ボアヘン氏は最近、新しいアイデアを提案しました:人工ニューロンは生物学的ニューロンの機能を模倣すべきである. シナプスではなく樹状突起。研究論文はNature誌に掲載された。
論文アドレス: https://www.nature.com/articles/s41586-022-05340-6
現在、ニューロモーフィック コンピューティングは、人間の脳を構成するニューロンとシナプスのメカニズムを模倣することで人工知能 (AI) を実現することを目指しています。人工ニューラル ネットワークは、ニューロンを接続するシナプスを繰り返し調整して、各シナプスの「重み」、つまり 1 つのニューロンが別のニューロンに与える影響の強さを変更します。その後、ニューラル ネットワークは、結果として得られる行動パターンがパターンを見つけるのに優れているかどうかを判断します。時間の経過とともに、システムは結果の計算に最適なモードを検出し、それらのモードをデフォルトとして採用します。
ニューラル ネットワークには、通常、多数のニューロン層が含まれています。たとえば、GPT-3 には 1,750 億の重み、830 万個のニューロンに相当する接続、および 384 層の深さがあります。ニューラル ネットワークのサイズと機能が増大し続けるにつれて、そのコストとエネルギー消費量はますます増加しています。 GPT-3 を例に挙げると、OpenAI はこの大規模モデルをトレーニングするために 460 万ドルを費やして 9,200 個の GPU を 2 週間実行しました。 Kwabena Boahen 氏は、「トレーニング中に GPT-3 が消費するエネルギーは、車 1,300 台分に相当する二酸化炭素排出量に変換されます。」
これが、Boahen がニューラル ネットワークの次のステップを提案した理由です。重要な理由をグラフで学習してみることです。ニューラル ネットワークで樹状突起を模倣すると、送信信号で伝達される情報量が増加し、AI システムが GPU クラウドでメガワットの電力を必要とせず、携帯電話などのモバイル デバイス上で実行できるようになります。
樹状突起は大規模に分岐することができ、1 つのニューロンが他の多くのニューロンと接続できるようになります。研究により、樹状突起がその枝から信号を受け取る順序が、その応答の強さを決定することがわかっています。
Boahen によって提案された樹状突起の計算モデルは、ニューロンから正確な一連の信号を受信した場合にのみ決定を行います。反応。これは、各樹状突起が 0/1 のような単純な電気信号だけでなく、データをエンコードできることを意味します。基本システムは、接続数と受信する信号シーケンスの長さに応じてより強力になります。
実際の構造に関して、ボアヘン氏は、樹状突起をシミュレートするために強誘電体 FET (FeFET) を使用することを提案しました。5 つのゲートを備えた 1.5 ミクロン長の FeFET は、15 ミクロン長の樹状突起の 5 つのシナプスをシミュレートできます。 。このビルドのバージョンは「3D チップ」に実装される可能性があるとボアエン氏は語った。
#興味のある読者は、論文の原文を読んで研究の詳細を学ぶことができます。 参考リンク: https://spectrum.ieee.org/dendrocentric-learning以上がムーアの法則が失敗した場合はどうすればよいでしょうか?ニューロモーフィック コンピューティングの専門家: 樹状学習に焦点を当てるの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。