人工知能の「常識」問題をどう解決するか
翻訳者 | Li Rui
レビュアー | Sun Shujuan
近年、深層学習は、コンピューター ビジョン、音声など、人工知能の最も困難な分野のいくつかで大きな進歩を遂げています。認識と自然言語処理。
しかし、深層学習システムはまだいくつかの問題を解決していません。深層学習システムは新しい状況に対処するのが苦手なため、トレーニングには大量のデータが必要であり、作成者さえ混乱させるような奇妙な間違いを犯すこともあります。
科学者の中には、ますます大規模なニューラル ネットワークを作成し、ますます大規模なデータ セットでトレーニングすることで、これらの問題を解決できると信じている人もいます。また、人工知能の分野に必要なのは人間の「常識」であると信じている人もいます。
コンピューター科学者のロナルド・J・ブラックマンとヘクター・J・レベスクは、新著「Machines Like Us」の中で、人工知能のパズルに欠けているこのピースと考えられる解決策についての考えを述べています。何十年も研究者を悩ませてきました。ブラックマン氏は業界メディアのインタビューで、常識とは何か、常識ではないのか、なぜ機械には常識がないのか、そして「知識表現」の概念が人工知能コミュニティをどのように正しい方向に導くことができるのかについて語った。 「知識表現」の概念は何十年も前から存在していましたが、ディープラーニングの流行の間に棚上げされました。
Machins Like Us は依然として仮説の領域にとどまっていますが、1970 年代から協力してきた 2 人の研究のおかげで、潜在的な研究分野について新たな視点を提供しています。深く。
優れた AI システムは奇妙な間違いを犯す
ブラッハマン氏は次のように述べています。
AI の初期の頃、ビジョンは、おそらく次のような形式で、自立した自律システムを作成することでした。ロボットは、人間の介入をほとんどまたはまったく受けずに、独立して物事を行うことができます。
ブラッハマン氏は、「今日、ディープラーニングが何を達成できるかについて多くの人が興奮している中、研究の範囲は大幅に狭まっています。特に産業分野では、多額の資金と人材の採用が研究の推進力となっています」と述べた。 「経験に基づいた研究。あるいは、多くの人が一般的な人工知能に近いと主張する例で訓練されたシステム、または『古き良き人工知能』 (GOFAI) や記号的アプローチに重点を置くことは、単に時代遅れか不必要です。」
当たり前のこと しかし、ディープ ラーニング システムは、その印象深いものと同様に、まだ解決されていない不可解な問題に直面しています。ニューラル ネットワークは敵対的攻撃の影響を受けやすく、入力値に対する特別に細工された変更により、機械学習モデルがその出力に突然誤った変更を加えます。ディープラーニングは、単純な因果関係を理解するのにも苦労し、概念を考えてそれをまとめるのが苦手です。大規模な言語モデルは最近特に注目されている分野ですが、一貫性のある印象的なテキストを生成する際に非常に愚かな間違いを犯すことがあります。
ブラッハマン氏は、「人工知能が犯すこうした間違いに対する人々の認識は、人工知能が愚かで無知であるように見えるというものであり、人間がこうした間違いを犯すことはめったにない。しかし重要なことは、こうした間違いにつながる何らかの理由があるということだ」と述べた。説明するのは難しい。」
これらのエラーをきっかけに、Brachman 氏と Levesque 氏は、今日の AI テクノロジーに何が欠けているのか、ニューラル ネットワークをトレーニングするためのサンプル駆動システムを補完または置き換えるには何が必要なのかを考えるようになりました。
ブラッハマン氏は、「よく考えてみると、これらのシステムに明らかに欠けているのは、人間が常識と呼ぶもの、つまり、多くの人にとって明白なことを見て、簡単かつ明白な結論にすぐに達する能力である」 「そして、愚かなことや間違った選択だとすぐにわかることをやろうとしたときに、自分を止めることができるようにしてください。」
常識とは何ですか?
人工知能コミュニティは、初期の頃から常識について話してきました。実際、1958 年にジョン マッカーシーによって書かれた最も初期の人工知能に関する論文の 1 つは、「常識を備えたプログラム」というタイトルでした。
ブラッハマン氏は、「これは何も新しいことではなく、私たちが考え出した名前でもありませんが、この分野は人工知能の先駆者たちが言ったことの核心的な意味を見失っています。常識とは何かをさらに理解すれば、そして、それが何を持っているのか、それが何を意味するのか、そして私たちにとってさらに重要なこと、それがどのように機能し、どのように実行されるのかについては、心理学の文献にはほとんど指針がありません。」
「私たちと同じような機械」の本, ブラックマンとレベスクは、常識を「日常的で日常的な実践的な目標を達成するために、日常的で経験的な知識を効果的に使用する能力」と説明しています。
常識は生き残るために不可欠です。人間や高等動物は経験を通じて学習するように進化し、毎日直面するほとんどの状況に対処できるルーチンスキルや自動操縦スキルを発達させてきました。しかし、日常生活は、人々が何度も目にする単なるルーチンではありません。人々は、これまで見たことのない新しい状況に直面することがよくあります。中には通常とは大きく異なるものもあるかもしれませんが、ほとんどの場合、人々は物事を自分が慣れているものとは少し違って見ています。 AI の議論では、これは「ロングテール」と呼ばれることもあります。
ブラッハマン氏は、「これらのルーチンが中断されると、実際には常識が最初に活性化され、人々が新しい状況をすぐに理解し、以前に何をしたかを思い出し、すぐに調整できるようになるように思えます」と述べました。あなたの記憶を新しい状況に適用して、次に進んでください。」
ある意味で、常識は、心理学者でノーベル賞受賞者のダニエル・カーネマンによって広められた二重システム思考パラダイムとは多少異なります。常識とは、人々が意図的に集中することなく実行できるほとんどの日常作業(たとえば、歯を磨く、靴の紐を結ぶ、ボタンをかける、慣れ親しんだ場所での運転など)を実行する、高速で自動操縦のシステム 1 の考え方ではありません。現在のルーチンから抜け出すには、ポジティブな思考が必要です。
同時に、常識はシステム 2 思考ではありません。システム 2 思考は、完全な集中力と段階的な思考を必要とする遅い思考モードです (たとえば、6 週間の旅行の計画、デザインの設計など)ソフトウェア、複雑な問題の解決など) 数式)。
ブラッハマンは、「人は課題に対処して深く考えることができます。この種の思考は人々の脳を疲れさせ、遅くします。常識では、ほとんどすべての日常生活でこの状況を避けることができます。」
ブラッハマンとレベスクは出版した著作の中で、常識は思慮深く系統的な分析と比較すると「表面的な認知現象」であり、実行速度が速いと強調しました。
「それを理解するのに多くの思考が必要となるのは常識ではありません。それを『反省的思考』と考えることができます。『反省的』は『思考』と同じくらい重要です。」
常識のない人工知能の危険性
常識には、予測可能性、信頼性、説明可能性、説明責任が必要です。
ブラッハマンは、「ほとんどの人は奇妙な間違いを犯しません。人は愚かなことをするかもしれませんが、熟考した後、そのような間違いを回避する可能性があります。人間は完璧ではありませんが、一部のエラーはある程度予測可能です。」と述べています。
常識のない AI システムの課題は、トレーニングの限界に達したときに間違いを犯す可能性があることです。ブラックマン氏は、エラーは完全に予測不可能で説明できないものだと述べた。
ブラッハマン氏は、「常識のない AI システムにはこの視点がなく、奇妙なことをするのを防ぐフォールバックがなく、脆弱になるでしょう。彼らが間違いを犯しても、その間違いは彼らにとって何の意味もありません」と述べました。 " ."
これらのエラーは、画像のラベルの誤りなどの無害なものから、自動運転車が間違った車線に進入するなどの非常に有害なものまで多岐にわたります。
ブラッハマンとレベスクは本の中で、「人工知能システムがチェスのプレイの問題に遭遇し、その関心がゲームに勝つことである場合、常識は彼らにとって役に立たないでしょう。
したがって、AI システムが車の運転や人間との共同作業、さらにはオープンな会話など、オープン ドメインの機密性の高いアプリケーションに移行すると、常識が生まれるでしょう。非常に重要な役割を果たします。これらの地域では常に何か新しくてエキサイティングなことが起こっています。
ブラッハマンとレベスクは、著書『Machins Like Us』の中で次のように書いています。 「すでに起こったことをサンプリングすることから始めます。過去に起こったことを見て内面化することだけに基づいて未来を予測することは機能しません。常識が必要です。」
シンボリック人工知能の再考
ほとんどの科学者現在の人工知能システムには常識が欠けていることに同意します。ただし、解決策に関しては意見の相違が生じることもよくあります。人気の傾向として、ニューラル ネットワークはますます大きくなり続けています。大規模なニューラル ネットワークが段階的に改善を続けているという証拠があります。場合によっては、大規模なニューラル ネットワークがゼロショット学習スキルを示し、トレーニングされていないタスクを実行することがあります。
しかし、より多くのデータと計算が常識のない人工知能システムの問題を解決するのではなく、より大きくて混乱を招く数値の重みや数値の中にそれらを隠すだけであることを示す研究や実験も多数あります。行列演算中。
ブラッハマンは、「これらのシステムは相関関係やパターンに気づき、それを内面化します。それらは『概念』を形成しません。たとえこれらのシステムが言語と相互作用するとしても、人々が持っていると考えているものを持たずに、単に人間の行動を模倣するだけです。」と述べています。
ブラッハマンとレベスクは、常識的な知識と世界の常識的な理解をコード化するシステムの作成を主張しています。
彼らは本の中で次のように書いています。「常識知識とは、世界の物事と、それらが持つ特性に関するものです。それは、私たちが概念的構造と呼ぶものによって媒介されます。それは、存在する可能性のあるさまざまな物事と、それらが持つさまざまな特性に関するものです」プロパティに関する一連のアイデア。この知識は、記号表現と、これらの記号構造に対する計算操作の実行によって使用されます。何をすべきかについての常識的な決定は、この表現知識を使用して、目標を達成する方法と対応方法を検討することに相当します。 Brachman氏とLevesque氏は、コンピュータに常識をもたらすために、この分野は記号人工知能に関する初期の研究の一部を振り返って再検討する必要があると考えている。彼らはこれを「知識表現」仮説と呼んでいます。この本では、知識表現 (KR) システムを構築する方法と、さまざまな知識を組み合わせてより複雑な形式の知識と推論を形成する方法について詳しく説明します。
知識表現 (KR) 仮説によると、常識知識の表現は 2 つの部分に分けられます。「1 つは世界状態を表す世界モデルであり、もう 1 つは世界状態を表す概念モデルです」概念構造、そしてこれは世界のアイテムを分類するための一般的な枠組みです。」
ブラッハマン氏は、「私たちのポイントは、人工知能に関する初期の考え方に戻ることです。シンボル操作手順 (人々が推論と呼んでいたもの) エンジン) を使用して、人々が常識と呼んでいる世界の基本的な知識、つまり直観的または単純な物理学、人間や他のエージェントがどのように行動し、意図を持っているかについての基本的な理解、をエンコードして使用することができます。信念、時間と出来事の仕組み、原因と結果など。これが最初の 1 ~ 2 年で私たちが獲得する知識のすべてです。形式的に表現された世界の知識は、実際に機械の動作に因果関係を与える可能性があり、 「また、シンボルを操作することで構成性などのあらゆることも行います。そして、物事が新しい方法で提示されることに人々を慣れさせるでしょう。」
ブラッハマンは、彼らが本の中で提唱した仮定は将来覆される可能性があると強調しました。
ブラッハマン氏は、「長期的には、このすべての知識を事前に構築するか、事前にコード化するか、それとも人工知能システムに別の方法で学習させるかはわかりません。仮説と実験だと私は思う」
ブラッハマンとレベスクの仮説は、1980年代に遡り、世界に関する何百万ものルールと概念を収集したプロジェクトであるCycのような、大規模な象徴的な常識知識ベースを作成するという以前の取り組みに基づいています。
ブラッハマン氏は、「私たちはさらに前進する必要があると思います。自律的な意思決定マシンが日常の意思決定の場面でこれらのものをどのように利用できるかを検討する必要があります。事実の知識を蓄積することと、事実の知識を蓄積することは別のことです。」 「しかし、この騒がしい世界で働くことと、予期せぬ驚きに合理的かつ迅速に対応できることは、まったく別のことです。」
機械学習は常識の中で役割を果たしていますか?
ブラッハマン氏は、機械学習に基づいたシステムが人工知能の認識において重要な役割を果たし続けるだろうと述べた。
彼は、「人工網膜上のピクセルを処理するために一次述語計算を使用することや、信号処理速度を向上させるためのシンボリック オペレーティング システムを使用することは推奨しません。これらの機械学習システムは、低感覚レベルでは非常に優れています」と述べました。認識タスクと現時点では、これらのものが認知連鎖のどのくらい上位にあるのかは明らかではありませんが、シーンで人々が見ているものと自然言語の間に概念やつながりが形成されないため、最後まで到達することはできません。」
ニューラル ネットワークとシンボル システムの組み合わせは、近年ますます注目を集めているアイデアです。ゲイリー・マーカス氏、ルイス・ラム氏、ジョシュア・テネンバウム氏らは、人工知能における現在の課題に対処するために、記号システムと学習ベースのシステムの長所を組み合わせた「神経記号」システムの開発を提案している。
ブラッハマン氏は、この分野で行われている研究の多くには同意しているものの、ハイブリッド人工知能に対する現在の見解にはある程度の調整が必要であるとも述べた。
現在の神経象徴システムでは、常識と、数学、綿密な計画、深い分析を伴う、より構造化されたより深い象徴的推論との違いを説明するのは難しいと思います、と彼は言いました。このハイブリッド AI の世界は常識を真に考慮したものであり、人間と同じように機械に常識を利用させ、人間が行うのと同じことを機械に行わせます。」
原題:
AI の「常識」問題を解決する方法 、著者: Ben Dickson #
以上が人工知能の「常識」問題をどう解決するかの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ホットAIツール

Undresser.AI Undress
リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover
写真から衣服を削除するオンライン AI ツール。

Undress AI Tool
脱衣画像を無料で

Clothoff.io
AI衣類リムーバー

AI Hentai Generator
AIヘンタイを無料で生成します。

人気の記事

ホットツール

メモ帳++7.3.1
使いやすく無料のコードエディター

SublimeText3 中国語版
中国語版、とても使いやすい

ゼンドスタジオ 13.0.1
強力な PHP 統合開発環境

ドリームウィーバー CS6
ビジュアル Web 開発ツール

SublimeText3 Mac版
神レベルのコード編集ソフト(SublimeText3)

ホットトピック









このサイトは6月27日、JianyingはByteDanceの子会社であるFaceMeng Technologyによって開発されたビデオ編集ソフトウェアであり、Douyinプラットフォームに依存しており、基本的にプラットフォームのユーザー向けに短いビデオコンテンツを作成すると報告しました。 Windows、MacOS、その他のオペレーティング システム。 Jianyingは会員システムのアップグレードを正式に発表し、インテリジェント翻訳、インテリジェントハイライト、インテリジェントパッケージング、デジタルヒューマン合成などのさまざまなAIブラックテクノロジーを含む新しいSVIPを開始しました。価格的には、クリッピングSVIPの月額料金は79元、年会費は599元(当サイト注:月額49.9元に相当)、継続月額サブスクリプションは月額59元、継続年間サブスクリプションは、年間499元(月額41.6元に相当)です。さらに、カット担当者は、ユーザーエクスペリエンスを向上させるために、オリジナルのVIPに登録している人は、

検索強化生成およびセマンティック メモリを AI コーディング アシスタントに組み込むことで、開発者の生産性、効率、精度を向上させます。 JanakiramMSV 著者の EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG から翻訳。基本的な AI プログラミング アシスタントは当然役に立ちますが、ソフトウェア言語とソフトウェア作成の最も一般的なパターンに関する一般的な理解に依存しているため、最も適切で正しいコードの提案を提供できないことがよくあります。これらのコーディング アシスタントによって生成されたコードは、彼らが解決する責任を負っている問題の解決には適していますが、多くの場合、個々のチームのコーディング標準、規約、スタイルには準拠していません。これにより、コードがアプリケーションに受け入れられるように修正または調整する必要がある提案が得られることがよくあります。

AIGC について詳しくは、51CTOAI.x コミュニティ https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou を参照してください。これらの質問は、インターネット上のどこでも見られる従来の質問バンクとは異なります。既成概念にとらわれずに考える必要があります。大規模言語モデル (LLM) は、データ サイエンス、生成人工知能 (GenAI)、および人工知能の分野でますます重要になっています。これらの複雑なアルゴリズムは人間のスキルを向上させ、多くの業界で効率とイノベーションを推進し、企業が競争力を維持するための鍵となります。 LLM は、自然言語処理、テキスト生成、音声認識、推奨システムなどの分野で幅広い用途に使用できます。 LLM は大量のデータから学習することでテキストを生成できます。

大規模言語モデル (LLM) は巨大なテキスト データベースでトレーニングされ、そこで大量の現実世界の知識を取得します。この知識はパラメータに組み込まれており、必要なときに使用できます。これらのモデルの知識は、トレーニングの終了時に「具体化」されます。事前トレーニングの終了時に、モデルは実際に学習を停止します。モデルを調整または微調整して、この知識を活用し、ユーザーの質問により自然に応答する方法を学びます。ただし、モデルの知識だけでは不十分な場合があり、モデルは RAG を通じて外部コンテンツにアクセスできますが、微調整を通じてモデルを新しいドメインに適応させることが有益であると考えられます。この微調整は、ヒューマン アノテーターまたは他の LLM 作成物からの入力を使用して実行され、モデルは追加の実世界の知識に遭遇し、それを統合します。

編集者 |ScienceAI 質問応答 (QA) データセットは、自然言語処理 (NLP) 研究を促進する上で重要な役割を果たします。高品質の QA データ セットは、モデルの微調整に使用できるだけでなく、大規模言語モデル (LLM) の機能、特に科学的知識を理解し推論する能力を効果的に評価することもできます。現在、医学、化学、生物学、その他の分野をカバーする多くの科学 QA データ セットがありますが、これらのデータ セットにはまだいくつかの欠点があります。まず、データ形式は比較的単純で、そのほとんどが多肢選択式の質問であり、評価は簡単ですが、モデルの回答選択範囲が制限され、科学的な質問に回答するモデルの能力を完全にテストすることはできません。対照的に、自由回答型の Q&A

機械学習は人工知能の重要な分野であり、明示的にプログラムしなくてもコンピューターにデータから学習して能力を向上させる機能を提供します。機械学習は、画像認識や自然言語処理から、レコメンデーションシステムや不正行為検出に至るまで、さまざまな分野で幅広く応用されており、私たちの生活様式を変えつつあります。機械学習の分野にはさまざまな手法や理論があり、その中で最も影響力のある 5 つの手法は「機械学習の 5 つの流派」と呼ばれています。 5 つの主要な学派は、象徴学派、コネクショニスト学派、進化学派、ベイジアン学派、およびアナロジー学派です。 1. 象徴主義は、象徴主義とも呼ばれ、論理的推論と知識の表現のためのシンボルの使用を強調します。この学派は、学習は既存の既存の要素を介した逆演繹のプロセスであると信じています。

編集者 | KX 医薬品の研究開発の分野では、タンパク質とリガンドの結合親和性を正確かつ効果的に予測することが、医薬品のスクリーニングと最適化にとって重要です。しかし、現在の研究では、タンパク質とリガンドの相互作用における分子表面情報の重要な役割が考慮されていません。これに基づいて、アモイ大学の研究者らは、初めてタンパク質の表面、3D 構造、配列に関する情報を組み合わせ、クロスアテンション メカニズムを使用して異なるモダリティの特徴を比較する、新しいマルチモーダル特徴抽出 (MFE) フレームワークを提案しました。アライメント。実験結果は、この方法がタンパク質-リガンド結合親和性の予測において最先端の性能を達成することを実証しています。さらに、アブレーション研究は、この枠組み内でのタンパク質表面情報と多峰性特徴の位置合わせの有効性と必要性を実証しています。 「S」で始まる関連研究

エディター | Radish Skin 2021 年の強力な AlphaFold2 のリリース以来、科学者はタンパク質構造予測モデルを使用して、細胞内のさまざまなタンパク質構造をマッピングし、薬剤を発見し、既知のあらゆるタンパク質相互作用の「宇宙地図」を描いてきました。ちょうど今、Google DeepMind が AlphaFold3 モデルをリリースしました。このモデルは、タンパク質、核酸、小分子、イオン、修飾残基を含む複合体の結合構造予測を実行できます。 AlphaFold3 の精度は、これまでの多くの専用ツール (タンパク質-リガンド相互作用、タンパク質-核酸相互作用、抗体-抗原予測) と比較して大幅に向上しました。これは、単一の統合された深層学習フレームワーク内で、次のことを達成できることを示しています。
