汎用人工知能 (AGI): 人工知能の次の段階
人工知能 (AI) の改善と新しい応用に加えて、汎用人工知能 (AGI) が出現すると、人工知能の次の飛躍が起こるということにほとんどの人が同意しています。私たちは、AGI を、人間が実行できるあらゆる知的作業を理解または学習する機械またはコンピューター プログラムの仮説的な能力として広く定義します。しかし、これがいつ、どのように達成されるかについてはほとんど合意がありません。
1 つの見方は、それぞれが特定の問題を解決する十分な異なる AI アプリケーションを構築できれば、これらのアプリケーションは最終的に AGI の形式に成長するということです。このアプローチの問題は、このいわゆる「狭い」AI アプリケーションが情報を汎用形式で保存できないことです。したがって、他の範囲の狭い AI アプリケーションは、この情報を使用して範囲を拡大することはできません。したがって、言語処理と画像処理のアプリケーションをつなぎ合わせることができますが、人間の脳が聴覚と視覚を統合するのと同じ方法でこれらのアプリケーションを統合することはできません。
他の人工知能研究者は、十分な規模の機械学習 (ML) システムを構築でき、十分なコンピューター能力が与えられれば、自発的に AGI を発揮できると考えています。 ML が実際にどのように機能するかをさらに深く掘り下げる場合、これは、仮想の ML システムが遭遇する可能性のあるすべての状況を含むトレーニング セットを用意することを意味します。エキスパート システムはドメイン固有の知識を取得しようとしますが、システムの根本的な理解の欠如を克服するのに十分なケースとサンプル データを作成することは不可能であることが数十年前に明確に証明されています。
これらのアプローチの両方の問題は、せいぜい、知的に見える人工知能しか作成できないことです。彼らは依然として、あらかじめ決められたスクリプトと何百万ものトレーニング例に依存しています。そのような AI は、言葉や画像が物理宇宙に存在する物理的なものを表すことをまだ理解できません。彼らはまだ複数の感覚からの情報を組み合わせることができません。したがって、言語と画像処理アプリケーションを組み合わせることは可能ですが、人間の脳のように視覚、聴覚、環境との直接的な相互作用をシームレスに統合する方法はまだありません。
AGI が成功するには何が必要ですか?
真の AGI を達成するには、研究者は、拡大し続けるデータセットから、意識の 3 つの基本構成要素を含む、より生物学的に意味のある構造に焦点を移す必要があります。 :環境の実体中心の内部メンタルモデル、現在の行動に基づいて将来の結果を認識できる時間の認識、および複数の潜在的な行動を検討し、その結果を評価および選択できる想像力。つまり、AGI は周囲の世界を体験するために、人間と同じ状況認識と常識的理解を示さなければなりません。
この目標を達成するには、人工知能のコンピューティング システムは人間の脳内の生物学的プロセスに近づける必要があり、そのアルゴリズムは今日の人工知能よりも無限の接続を持つ抽象的な「もの」を構築できるようにする必要があります。知能には巨大な配列が必要です。 、トレーニングセット、コンピューターの能力。このような統合された知識ベースは、視覚、聴覚、運動、および音声モジュールを含むモバイル認識ポッドと統合される可能性があります。このようなポッドにより、システム全体が実行されるすべてのアクションで迅速な感覚フィードバックを体験できるようになり、時間が経つにつれて、真の AGI に近づくにつれて機能し始めるエンドツーエンド システムにつながります。人々とより良く仕事ができるようになります。
このようなシステムがあっても、AGI の実際の出現は、主に 2 つの理由により、一夜にしてではなく徐々に起こる可能性があります。まず、おそらく最も重要なことですが、AGI の開発は明らかに非常に複雑で困難な作業であり、コンピューター科学、神経科学、心理学など、いくつかの異なる分野での大幅な進歩が必要です。これは、多数の科学者や技術者の貢献による数年間の研究開発を意味しますが、幸いなことに、現在多くの研究が進行中です。 AGI のさまざまなコンポーネントは、多くの分野で研究されるにつれて明らかになるでしょう。
そして、AGI の機能の多くにはそれ自体が市場価値があるため、瞬時に満足することが AGI の出現を遅らせる可能性があります。開発された機能は Alexa の理解方法を改善することができ、新しいビジョン機能は自動運転車を改善することができ、個々の開発は商業的に実行可能であるため、すぐに市場に投入されます。しかし、これらのより専門的で個別に市場性のある AI システムを共通の基盤となるデータ構造上に構築できれば、相互に対話し始め、真に理解して学習できるより広範なコンテキストを構築できるようになります。これらのシステムがより高度になるにつれて、連携してより広範なインテリジェンスを作成できるようになります。
これらの側面が増加するにつれて、人工知能システムは個々の領域でより人間に近いパフォーマンスを示し、システムが強化されるにつれて超人的なパフォーマンスに発展するでしょう。ただし、すべての領域で同時にパフォーマンスを同じにすることはできません。これは、ある時点で AGI のしきい値に近づき、その後しきい値と等しくなり、その後しきい値を超えることを示唆しています。この後のある時点で、人間よりもはるかに優れた知能を持つ機械が登場し、おそらくAGIは存在するのではないかと人々は同意し始めるでしょう。最終的には、市場が要求しているため、AGI を実装する必要があります。
以上が汎用人工知能 (AGI): 人工知能の次の段階の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ホットAIツール

Undresser.AI Undress
リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover
写真から衣服を削除するオンライン AI ツール。

Undress AI Tool
脱衣画像を無料で

Clothoff.io
AI衣類リムーバー

Video Face Swap
完全無料の AI 顔交換ツールを使用して、あらゆるビデオの顔を簡単に交換できます。

人気の記事

ホットツール

メモ帳++7.3.1
使いやすく無料のコードエディター

SublimeText3 中国語版
中国語版、とても使いやすい

ゼンドスタジオ 13.0.1
強力な PHP 統合開発環境

ドリームウィーバー CS6
ビジュアル Web 開発ツール

SublimeText3 Mac版
神レベルのコード編集ソフト(SublimeText3)

ホットトピック











このサイトは6月27日、JianyingはByteDanceの子会社であるFaceMeng Technologyによって開発されたビデオ編集ソフトウェアであり、Douyinプラットフォームに依存しており、基本的にプラットフォームのユーザー向けに短いビデオコンテンツを作成すると報告しました。 Windows、MacOS、その他のオペレーティング システム。 Jianyingは会員システムのアップグレードを正式に発表し、インテリジェント翻訳、インテリジェントハイライト、インテリジェントパッケージング、デジタルヒューマン合成などのさまざまなAIブラックテクノロジーを含む新しいSVIPを開始しました。価格的には、クリッピングSVIPの月額料金は79元、年会費は599元(当サイト注:月額49.9元に相当)、継続月額サブスクリプションは月額59元、継続年間サブスクリプションは、年間499元(月額41.6元に相当)です。さらに、カット担当者は、ユーザーエクスペリエンスを向上させるために、オリジナルのVIPに登録している人は、

検索強化生成およびセマンティック メモリを AI コーディング アシスタントに組み込むことで、開発者の生産性、効率、精度を向上させます。 JanakiramMSV 著者の EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG から翻訳。基本的な AI プログラミング アシスタントは当然役に立ちますが、ソフトウェア言語とソフトウェア作成の最も一般的なパターンに関する一般的な理解に依存しているため、最も適切で正しいコードの提案を提供できないことがよくあります。これらのコーディング アシスタントによって生成されたコードは、彼らが解決する責任を負っている問題の解決には適していますが、多くの場合、個々のチームのコーディング標準、規約、スタイルには準拠していません。これにより、コードがアプリケーションに受け入れられるように修正または調整する必要がある提案が得られることがよくあります。

AIGC について詳しくは、51CTOAI.x コミュニティ https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou を参照してください。これらの質問は、インターネット上のどこでも見られる従来の質問バンクとは異なります。既成概念にとらわれずに考える必要があります。大規模言語モデル (LLM) は、データ サイエンス、生成人工知能 (GenAI)、および人工知能の分野でますます重要になっています。これらの複雑なアルゴリズムは人間のスキルを向上させ、多くの業界で効率とイノベーションを推進し、企業が競争力を維持するための鍵となります。 LLM は、自然言語処理、テキスト生成、音声認識、推奨システムなどの分野で幅広い用途に使用できます。 LLM は大量のデータから学習することでテキストを生成できます。

大規模言語モデル (LLM) は巨大なテキスト データベースでトレーニングされ、そこで大量の現実世界の知識を取得します。この知識はパラメータに組み込まれており、必要なときに使用できます。これらのモデルの知識は、トレーニングの終了時に「具体化」されます。事前トレーニングの終了時に、モデルは実際に学習を停止します。モデルを調整または微調整して、この知識を活用し、ユーザーの質問により自然に応答する方法を学びます。ただし、モデルの知識だけでは不十分な場合があり、モデルは RAG を通じて外部コンテンツにアクセスできますが、微調整を通じてモデルを新しいドメインに適応させることが有益であると考えられます。この微調整は、ヒューマン アノテーターまたは他の LLM 作成物からの入力を使用して実行され、モデルは追加の実世界の知識に遭遇し、それを統合します。

機械学習は人工知能の重要な分野であり、明示的にプログラムしなくてもコンピューターにデータから学習して能力を向上させる機能を提供します。機械学習は、画像認識や自然言語処理から、レコメンデーションシステムや不正行為検出に至るまで、さまざまな分野で幅広く応用されており、私たちの生活様式を変えつつあります。機械学習の分野にはさまざまな手法や理論があり、その中で最も影響力のある 5 つの手法は「機械学習の 5 つの流派」と呼ばれています。 5 つの主要な学派は、象徴学派、コネクショニスト学派、進化学派、ベイジアン学派、およびアナロジー学派です。 1. 象徴主義は、象徴主義とも呼ばれ、論理的推論と知識の表現のためのシンボルの使用を強調します。この学派は、学習は既存の既存の要素を介した逆演繹のプロセスであると信じています。

編集者 |ScienceAI 質問応答 (QA) データセットは、自然言語処理 (NLP) 研究を促進する上で重要な役割を果たします。高品質の QA データ セットは、モデルの微調整に使用できるだけでなく、大規模言語モデル (LLM) の機能、特に科学的知識を理解し推論する能力を効果的に評価することもできます。現在、医学、化学、生物学、その他の分野をカバーする多くの科学 QA データ セットがありますが、これらのデータ セットにはまだいくつかの欠点があります。まず、データ形式は比較的単純で、そのほとんどが多肢選択式の質問であり、評価は簡単ですが、モデルの回答選択範囲が制限され、科学的な質問に回答するモデルの能力を完全にテストすることはできません。対照的に、自由回答型の Q&A

編集者 | KX 医薬品の研究開発の分野では、タンパク質とリガンドの結合親和性を正確かつ効果的に予測することが、医薬品のスクリーニングと最適化にとって重要です。しかし、現在の研究では、タンパク質とリガンドの相互作用における分子表面情報の重要な役割が考慮されていません。これに基づいて、アモイ大学の研究者らは、初めてタンパク質の表面、3D 構造、配列に関する情報を組み合わせ、クロスアテンション メカニズムを使用して異なるモダリティの特徴を比較する、新しいマルチモーダル特徴抽出 (MFE) フレームワークを提案しました。アライメント。実験結果は、この方法がタンパク質-リガンド結合親和性の予測において最先端の性能を達成することを実証しています。さらに、アブレーション研究は、この枠組み内でのタンパク質表面情報と多峰性特徴の位置合わせの有効性と必要性を実証しています。 「S」で始まる関連研究

8月1日の本サイトのニュースによると、SKハイニックスは本日(8月1日)ブログ投稿を発表し、8月6日から8日まで米国カリフォルニア州サンタクララで開催されるグローバル半導体メモリサミットFMS2024に参加すると発表し、多くの新世代の製品。フューチャー メモリおよびストレージ サミット (FutureMemoryandStorage) の紹介。以前は主に NAND サプライヤー向けのフラッシュ メモリ サミット (FlashMemorySummit) でしたが、人工知能技術への注目の高まりを背景に、今年はフューチャー メモリおよびストレージ サミット (FutureMemoryandStorage) に名前が変更されました。 DRAM およびストレージ ベンダー、さらに多くのプレーヤーを招待します。昨年発売された新製品SKハイニックス
