ホームページ テクノロジー周辺機器 AI Google の科学者が個人的に語る: 身体化された推論を実装するにはどうすればよいですか?大きなモデルにロボットの言語を「話させる」

Google の科学者が個人的に語る: 身体化された推論を実装するにはどうすればよいですか?大きなモデルにロボットの言語を「話させる」

Apr 12, 2023 pm 12:25 PM
ロボット 機械学習

大規模な言語モデルの開発により、その機能を利用してロボットが複雑な命令を理解し、より高度なタスクを完了できるように導くことができるでしょうか?そして、この過程で私たちはどのような課題に直面するのでしょうか?最近、Zhiyuan Community は Google の研究科学者である Xia Fei 博士を招待し、「言語と視覚に基づく身体的推論」に関するレポートを発表し、この新興分野におけるチームの最先端の研究について詳しく説明しました。

著者について: Xia Fei は現在、ロボット工学チームの研究員として働いています。 Google Brainの。彼の主な研究方向は、構造化されていない複雑な環境へのロボットの応用です。代表作にGibsonEnv、iGibson、SayCanなど。彼の研究は『WIRED』、ワシントン・ポスト、ニューヨーク・タイムズ、その他のメディアで報じられています。 Xia Fei 博士はスタンフォード大学を卒業し、シルビオ・サバレーゼ氏とレオニダス・ギバス氏に師事しました。彼は、CVPR、CoRL、IROS、ICRA、Neurips、RA-L、Nature Communications などの会議や雑誌に多くの論文を発表しています。彼の最近の研究の方向性は、インテリジェント エージェントの意思決定プロセスに基盤モデル (Foundation Model) を使用することです。彼のチームは最近、PaLM-SayCan モデルを提案しました。

01

背景

ロボットの機械学習は近年大きな成果を上げています進歩は見られましたが、比較的大きな問題がまだ残っています。機械学習のトレーニングには大量のデータが必要ですが、ロボットによって生成されるデータは非常に高価であり、ロボット自体も損失の可能性があります。

#人間は子供の頃、遊びを通じて物理世界と関わり、多くの物理法則を学びます。これに触発されて、ロボットも環境と対話してこの物理情報を取得し、さまざまなタスクを完了できるでしょうか?機械学習をロボットに適用するには、シミュレーション環境に大きく依存します。

これに関して、Xia Fei 博士と彼の同僚は、Gibson Env (環境) や iGibson などの研究を提案しています。視覚環境、後者 その他は物理シミュレーションに焦点を当てています。現実世界を3次元スキャンして再構成し、ニューラルネットワークを通じて視覚信号をレンダリングすることでシミュレーション環境を構築し、さまざまなロボットが物理シミュレーションを実行し、時間センサーからアクチュエーターに至るまでの制御を学習できるようにします。 iGibson 環境では、ロボットは食器洗い機の使い方を学ぶなど、環境とのより豊かな相互作用を学習できます。

Google の科学者が個人的に語る: 身体化された推論を実装するにはどうすればよいですか?大きなモデルにロボットの言語を「話させる」

## Xia Fei 博士は、上記の研究がインターネット AI から身体型 AI への変革を表していると信じています。これまでの AI トレーニングは、主にインターネット タスクである ImageNet や MS COCO などのデータセットに基づいていました。身体化された AI では、AI の認識とアクションが閉ループを形成する必要があります。AI は認識された結果に基づいて次のアクションを決定する必要があります。 Xia Fei の博士論文「身体化された知覚とロボット学習のための大規模シミュレーション」は、学習、知覚、推論のための大規模なロボット シミュレーションに関するものです。

#近年、人工知能の分野では基本モデルが急速に発展しています。研究者の中には、シミュレーション環境に依存する代わりに、基本モデルから情報を抽出してロボットの意思決定を支援できると考えている人もいます。 Xia Fei 博士は、この新しい方向性を「意思決定のための基礎モデル」と呼び、彼と彼のチームは PaLM-SayCan などの研究を提案しました。 02

PaLM-SayCan: 言語モデルでロボットをガイドしましょう

1. なぜそうなるのかロボットは複雑で長距離のタスクを扱うのが難しいですか?

PaLM-SayCan チームには 45 人の著者がいます。これは、Google Robotics チームと Everyday Robots の共同プロジェクトであり、次のことを目的としています。機械学習を使用してロボットの分野を変更し、ロボットにデータを提供して機械学習の機能を向上させます。研究は、構造化されていない複雑な環境と、ロボットを日常生活でより便利にするという 2 つの問題に焦点を当てています。

人々はすでに Siri や Alexa のようなパーソナル アシスタントを持っていますが、ロボット工学の分野にはそのような存在はありません。 Xia 博士は次の例を挙げました。飲み物をこぼしたとき、私たちはロボットに状況を説明して助けを求めたいと考えます。または、運動後に疲れている場合は、飲み物や軽食を提供してもらいます。研究では、ロボットがこれらのタスクを理解して実行できるようになることを期待しています。

現在の問題は、ロボットが長時間または長距離の作業を行うことが依然として難しく、複雑な作業を必要とする作業をロボットが実行できないことです。計画性、常識、理論性、その理由は 2 つの側面があります。 1 つ目は、ロボット工学の分野では優れたユーザー インタラクション インターフェイスが不足していることです。従来のロボットがピック アンド プレイス タスクを実行する場合、通常はゴール コンディショニングまたはワンホット コンディショニング手法を使用します。 ゴールコンディショニングでは、ロボットに目標が何であるかを伝え、初期条件を目標条件に変更するタスクをロボットに実行させる必要があります。これには、まずロボットに、目標が何であるかを示す必要があります。タスクの条件は完了後になります。

Google の科学者が個人的に語る: 身体化された推論を実装するにはどうすればよいですか?大きなモデルにロボットの言語を「話させる」

また、ワンホット コンディショニングでは、ロボットが完了できるすべてのタスクに適したワンホット コーディングを使用します ( 100 個のタスクなど)には 0 から 99 までの番号が付けられます。実行する必要があるたびにロボットに番号が提供され、ロボットはどのタスクを完了する必要があるかを認識します。ただし、ワンホット条件の問題は、ユーザーが各タスクに対応するエンコーディングを覚えておく必要があり、ワンホット エンコーディングではタスク間の依存関係情報 (目標に対応するタスク エンコーディング シーケンスの完了など) が取得できないことです。 )。

結果として、現在の ロボットは、通常は掴んだり置いたりする近距離タスクのみを実行できます。そしてロボット自体は可動ではなく静止しています。 さらに、環境も研究室などのシーンに限定されており、人間がいないことがよくあります。

#2. 言語モデルはロボットに使用されます: ロボットの言語を「話す」にはどうすればよいでしょうか?

これらの問題を解決するために、チームは基本モデルの使用を考えました。言語モデルは、目標条件付けを置き換え、言語を通じてタスクを明確かつ明確に記述することができます。同時に、言語には、ロボットの学習に役立つ、レシピの最初のステップ、2 番目のステップなどのタスク ステップ間の依存関係情報も含まれています。さらに、言語は長期的なタスクを定義し、模倣学習方法の限界を解決することもできます。

Google の科学者が個人的に語る: 身体化された推論を実装するにはどうすればよいですか?大きなモデルにロボットの言語を「話させる」

ロボットで大規模なモデルを使用すると、いくつかの課題に直面する可能性があります。最も重要なことは、ロボットの出力を対象とした言語を決定することです。大規模なモデルは人間の自然言語に基づいてトレーニングされており、それが出力するタスクはロボットには不可能な可能性があります。また、言語モデルはロボットのデータに基づいてトレーニングされていないため、ロボットの機能の範囲がわかりません。 2 つ目はグラウンディングの問題で、大きなモデルは物理世界を個人的に経験しておらず、具体化された情報が不足しています。 3 つ目は、大型モデルの誘導下でのロボット自体の安全性と解釈可能性です。言語モデルのバイアスは、物理システムとの関連付けによって増幅され、現実世界に影響を与える可能性があります。

Google の科学者が個人的に語る: 身体化された推論を実装するにはどうすればよいですか?大きなモデルにロボットの言語を「話させる」

信頼性の例として、人間のユーザーが Google の LaMDA モデルと通信するとき、ユーザーがモデルに「好きな島」と尋ねると、モデルはギリシャのクレタ島と答え、また答えることもできます。いくつかの理由。しかし、AIが与えるべき結果は「どの島にも行ったことがないので、どの島が一番好きかわからない」であるため、この結果は信憑性がありません。言語モデルの問題は、現実世界と対話しておらず、統計ルールに基づいて最も可能性の高い次の文のみを出力することです。

#言語モデルがロボットで使用される場合、モデルが異なれば結果も異なりますが、その一部はロボットにタスクを実行させるのに役に立ちません。たとえば、ユーザーがロボットに「こぼした飲み物を掃除して」と頼んだ場合、GPT-3 は「掃除機を使ってもいいよ」と言うかもしれません。掃除機では液体を掃除できないため、この結果は完全に正しいわけではありません。

LaMDA モデルの場合、LaMDA は「清掃業者を見つけるのを手伝ってほしいですか?」と言うかもしれません。この答えは正常ですが、そうではありません。 LaMDA は対話素材を微調整し、その目的機能は対話の長さをできるだけ長くすることであり、タスクの完了を支援することではないため、便利です。 FLANモデルだと「ごめんなさい、そんなつもりはありませんでした」とユーザーの意図を理解できず、会話なのか?まだ問題を解決する必要がありますか?したがって、ロボット上で大規模な言語モデルを使用するには一連の問題が発生します。

PaLM-SayCan は、これらの課題の解決に取り組んでいます。 1 つ目は、Few-shot Prompting (少数ショット学習) を通じて、大きなモデルがロボットの言語を話せるようにすることです。たとえば、「コーヒーを食器棚に持ってくる」、「オレンジをください」などのタスクを作成し、対応するステップ (1 ~ 5 や 1 ~ 3 など) を示します。次に、ユーザーはモデルに「テーブルの上にリンゴを置きなさい」という指示を与えます。前のステップのプロンプトが表示された後、モデルは適切なタスク ステップを独自に見つけて組み合わせ、タスクをステップごとに完了するための計画を生成します。

Google の科学者が個人的に語る: 身体化された推論を実装するにはどうすればよいですか?大きなモデルにロボットの言語を「話させる」

##大規模なモデルを操作するには、主に 2 つの方法があることに注意してください。1 つは入力に基づいて次のトークンを生成する生成インターフェイスであり、もう 1 つは特定のトークンの尤度関数を計算するスコアリング インターフェイスです。 PaLM-SayCan はスコアリング方式を使用するため、言語モデルがより安定し、望ましい結果を出力しやすくなります。リンゴを配置するタスクでは、モデルはさまざまなステップをスコアリングし、適切な結果を選択します。

3. 言語モデルと現実世界の間のギャップを埋める: ロボットに環境のアフォーダンスを探索させます

解決する必要がある別の問題があります。言語モデルがタスク ステップを生成するとき、ロボットが現在何ができるかを認識していません。ロボットの前にリンゴがない場合、ロボットはリンゴを置くタスクを完了できません。したがって、これには、現在の環境と状態でロボットがどのようなタスクを実行できるかを言語モデルに知らせる必要があります。ここでは、ロボット アフォーダンス と呼ばれる新しい概念を導入する必要があります。これは、この研究の核心でもあります。

Google の科学者が個人的に語る: 身体化された推論を実装するにはどうすればよいですか?大きなモデルにロボットの言語を「話させる」

##アフォーダンスを中国語に訳すとアフォーダンスといい、アメリカの心理学者ジェームス・Jの名前です。ギブソンが提唱した概念です。 1977 年頃、 は、現在の状態の環境でエージェントが実行できるタスクとして定義され、エージェントのアフォーダンスを表します。 アフォーダンスは教師あり学習を使用して取得できますが、これには大量のデータとラベル付けが必要です。

これに関して、チームは強化学習手法を採用し、ポリシーの価値関数を使用してアフォーダンスを近似しました。たとえば、環境内のさまざまな物を掴むようにロボットを訓練します。訓練後、ロボットに部屋を探索させます。ロボットが目の前にある物を見つけると、その物を拾う価値関数が非常に高くなり、その結果、利用可能なアイテム、性的予測。

Google の科学者が個人的に語る: 身体化された推論を実装するにはどうすればよいですか?大きなモデルにロボットの言語を「話させる」

アフォーダンスと言語モデルを組み合わせると、PaLM-SayCan アルゴリズムが得られます。上の図に示すように、左側は言語モデルで、ユーザーの指示に従ってロボットが完了できるタスクをスコア化し、サブタスクを完了することがタスク全体の完了に役立つ確率を計算します。右側は値関数で、現在の状態で各タスクが完了する確率を表します。 2 つの積は、ロボットがタスク全体に寄与するサブタスクを正常に完了する確率を表します。 Apple の例では、現在の状態ではロボットの前にリンゴがありません。このタスクを完了するには、まずリンゴを見つける必要があるため、リンゴを見つけるアフォーダンス スコアは比較的高く、リンゴを掴むスコアが低い。リンゴを見つけた後、リンゴをつかむためのアフォーダンス スコアが増加し、リンゴをつかむタスクが実行されます。このプロセスは、タスク全体が完了するまで繰り返されます。

Google の科学者が個人的に語る: 身体化された推論を実装するにはどうすればよいですか?大きなモデルにロボットの言語を「話させる」


#03

さらに具体化されたインテリジェンス作業: モデル推論能力の向上、環境フィードバックを使用して閉ループを形成する

#1.思考の連鎖を促す: 複雑な常識を理解する

#PaLM-SayCan に加えて、Xia 博士と同僚​​は他の関連研究も完了しました。プロンプトに関して、チームは、言語モデルにより多くの推論機能を与えるために、思考連鎖プロンプティング (問題解決のアイデアとして理解できます) を提案しました。

Google の科学者が個人的に語る: 身体化された推論を実装するにはどうすればよいですか?大きなモデルにロボットの言語を「話させる」

標準のプロンプト モードでは、質問テンプレートをデザインし、回答を提供します。モデルは推論中に答えを出力しますが、モデルによって与えられた答えが間違っている場合があります。したがって、思考連鎖プロンプトの目標は、問題を提供しながらモデルに説明を提供することです。これにより、モデルの結果が大幅に向上し、一部のタスクでは人間のレベルを超えることさえあります。

Google の科学者が個人的に語る: 身体化された推論を実装するにはどうすればよいですか?大きなモデルにロボットの言語を「話させる」

#モデルは、否定的な文を処理するときにエラーが発生する傾向があります。 たとえば、人間のユーザーが「リンゴではなく果物をください」と提案します。質問と実行可能オプションの両方にリンゴが含まれるため、モデルはリンゴを提供する傾向があります。 Chain of Thought Prompting を使用すると、いくつかの説明を提供できます。たとえば、モデルは「ユーザーは果物を望んでいますが、リンゴは望んでいません。バナナはリンゴではなく果物です。私はユーザーにバナナを与えることができます。」を出力します。

思考連鎖プロンプトは、より微妙な否定的な要件も解決できます。たとえば、ユーザーがカフェインに対するアレルギーを表明し、ロボットに飲み物を持ってくるように頼みます。アレルギーも否定の微妙な形であり、従来の方法を使用すると、ロボットは (アレルギーが表す否定を理解せずに) カフェイン入りの飲み物に手を伸ばす可能性があります。思考の連鎖プロンプトにより、アレルギーなどを説明し、推論効果を高めることができます。

2.内なる独白: エラーを修正し、正しい実行トラックに戻る

大規模なモデルを使用してロボットの意思決定を行い、環境相互作用の組み合わせも研究の重要な方向性です。研究チームは、言語モデルが環境の変化に基づいて過去の決定を見直し、環境によって引き起こされた誤った指示や事故から回復できるようにすることを目的とした、Inner Monologue の作業を提案しました。

Google の科学者が個人的に語る: 身体化された推論を実装するにはどうすればよいですか?大きなモデルにロボットの言語を「話させる」

## たとえば、人間が家に帰って、選択した鍵ではドアを開けることができないことがわかった場合、人は選択するでしょう。別のキーを試すか、回転方向を変更してください。これが具体化しているのは、環境からのフィードバックに基づいてエラーを修正し、新しいアクションを更新することです。 Inner Monologue はこのように機能します。例えば、ロボットがコーラを掴んでいる間にコーラが落ちてしまうと、その後のタスクが完了できなくなるため、タスクが正常に完了したかどうかを検知し、意思決定プロセスにフィードバックを加え、新たな判断を下すにはインナー・モノローグが必要となります。フィードバック情報の決定です。

Google の科学者が個人的に語る: 身体化された推論を実装するにはどうすればよいですか?大きなモデルにロボットの言語を「話させる」

Google の科学者が個人的に語る: 身体化された推論を実装するにはどうすればよいですか?大きなモデルにロボットの言語を「話させる」

Google の科学者が個人的に語る: 身体化された推論を実装するにはどうすればよいですか?大きなモデルにロボットの言語を「話させる」

##図に示すように、Inner Monologue ワークには、アクティブ シーン記述 (Active Scene description) とタスク成功検出器 (Success Detector) が含まれています。人間が指示を与えると、モデルはその指示を実行し、シナリオの記述をアクティブにして、ロボットの意思決定を支援します。トレーニング プロセスでは依然として Few-shot Prompt メソッドが使用されているため、1 つの例から推論を引き出すことができます。たとえば、ロボットが飲み物を飲むように指示されると、ロボットは人間にコーラを飲むか炭酸飲料を飲むかを尋ねます。

Google の科学者が個人的に語る: 身体化された推論を実装するにはどうすればよいですか?大きなモデルにロボットの言語を「話させる」 もう 1 つのケースは、言語モデルによる歴史情報の推論です。多くの場合、人間は考えを変えたり、指示を複数回変更した後、ロボットに「ただのタスク」を完了するように依頼します。ここでは、「単なるタスク」が指定されていないため、モデルは履歴を遡って以前のタスクが何であったかを確認する必要があります。 Inner Monologue は現在、英語に加えて中国語やその他の言語でも利用できます。他の分野での実験の後、チームは、この環境フィードバック手法により、非常に複雑で閉ループの計画タスクを完了できることを発見しました。

04 Q&A

Q: PaLM-SayCan の大規模言語モデルは最初からトレーニングされたものですか?まだモデルのみを使用しています。

A: 大きな予測モデルを微調整する必要はありません。すでに多くの予測モデルが含まれています。決定情報。たとえば、1,750 億個のパラメーターを備えた GPT-3 や、すでに十分なミッション計画とシーケンス情報が含まれている PaLM を使用できます。

Q: Inner Monologue に取り組むとき、エージェントも率先して質問をすることになりますか?これはどのように吸収されたのでしょうか?

#A: 言語モデルと Prompt メソッドを使用します。ロボットがタスクを完了すると、 「そして尋ねる」と「そして続ける」の 2 つのオプションが表示されます。質問するか続行するかは、文脈の意味論に曖昧さがあるかどうかによって決まります。

Q: ロボットはアイテム (引き出しの中のポテトチップスなど) がどこにあるのかをどのようにして知るのでしょうか?今後、ロボットの能力が徐々に上がってきた場合、探索時の探索空間が大きくなりすぎることはないでしょうか?

#A: アイテムの保管場所に関するロボットの知識は現在ハードコーディングされており、そうではありません。自動プロセス。ただし、大規模な言語モデルには、アイテムがどこにあるかなど、特定の意味論的な知識も含まれています。この意味論的な知識により、検索スペースを削減できます。同時に、アイテムが見つかる確率に基づいて探索することもできます。現在、Xia Fei のチームは、この問題を解決するための新しい研究を発表しており、その中心となるアイデアは、自然言語のインデックス付きシーン表現を確立することです。参考サイト nlmap-saycan.github.io

Google の科学者が個人的に語る: 身体化された推論を実装するにはどうすればよいですか?大きなモデルにロボットの言語を「話させる」

##Q: また、最近登場した階層型強化学習複雑なタスクの計画にインスピレーションを与えるでしょうか?

PaLM-SayCan は、基礎となるスキルと上位レベルのタスクを備えた階層型強化学習に似ています。計画は階層的な手法であると言えますが、階層的な強化学習ではありません。私は個人的にこの階層化されたアプローチを好みます。タスクを計画するときに、必ずしもすべての詳細な手順を実行する必要はなく、時間の無駄だからです。ミッション計画は大量のインターネット データを使用してトレーニングできますが、基礎となるスキルには物理データが必要なため、環境と対話して学習する必要があります。

Q: PaLM-SayCan を実際にロボットに使用する場合、未解決の根本的な問題はありますか?毎日の乳母の代わりとして使えるとしたら、実現までどれくらいかかりますか?

#A: まだ解決されていない根本的な問題がいくつかあります。単純なエンジニアリングの問題です。原理的には、ロボットの根本的な動作制御と把持が大きな課題であり、未だに100%の把持を成功させることができていないことが大きな課題となっています。

#もちろん、移動が制限されている人々にすでにある程度の価値を提供できます。しかし、本当に商用製品となるかというと、まだ不可能であり、ミッション成功率は90%程度で商用要件を満たしていない。

#Q: ロボット計画の成功率はトレーニング データ セットによって制限されますか?

A: ロボットの計画能力はトレーニング コーパスによって制限されます。 「ゴミを捨てなさい」などの指示をコーパス内で見つけるのは簡単です。しかし、「ロボットの2本指の爪を右に10センチ動かす」といったコーパスはインターネット上に残さないため、コーパスにはほとんど存在しません。これには粒度の高い情報の問題が関係しており、現時点ではコーパスの制限により、ロボットは粗粒度のタスクしか実行できません。

一方、詳細な計画自体は言語モデルによって実行されるべきではありません。言語モデルには物理的な情報が多すぎて使用できない可能性が高いためです。人間の言語で説明されています。 1 つのアイデアは、模倣学習 (BC-Z の研究を参照) またはコード生成 (チームの最新の研究 https://code-as-policies.github.io/ を参照) を使用して、きめの細かい操作を実装できるということです。大型モデルのより大きな役割は、ユーザーの対話型インターフェイスとして機能し、人間がロボットに与えた指示を解釈し、それらをマシンが実行できるステップに分解することです。

#さらに、この言語は、物理的な計画を必要とせずに、高レベルの意味論的な計画を実行できます。きめの細かい計画タスクを達成したい場合は、やはり模倣学習または強化学習に頼る必要があります。

以上がGoogle の科学者が個人的に語る: 身体化された推論を実装するにはどうすればよいですか?大きなモデルにロボットの言語を「話させる」の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。

ホットAIツール

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

写真から衣服を削除するオンライン AI ツール。

Undress AI Tool

Undress AI Tool

脱衣画像を無料で

Clothoff.io

Clothoff.io

AI衣類リムーバー

AI Hentai Generator

AI Hentai Generator

AIヘンタイを無料で生成します。

ホットツール

メモ帳++7.3.1

メモ帳++7.3.1

使いやすく無料のコードエディター

SublimeText3 中国語版

SublimeText3 中国語版

中国語版、とても使いやすい

ゼンドスタジオ 13.0.1

ゼンドスタジオ 13.0.1

強力な PHP 統合開発環境

ドリームウィーバー CS6

ドリームウィーバー CS6

ビジュアル Web 開発ツール

SublimeText3 Mac版

SublimeText3 Mac版

神レベルのコード編集ソフト(SublimeText3)

この記事では、SHAP: 機械学習のモデルの説明について説明します。 この記事では、SHAP: 機械学習のモデルの説明について説明します。 Jun 01, 2024 am 10:58 AM

機械学習とデータ サイエンスの分野では、モデルの解釈可能性が常に研究者や実務家に焦点を当ててきました。深層学習やアンサンブル手法などの複雑なモデルが広く適用されるようになったことで、モデルの意思決定プロセスを理解することが特に重要になってきました。 Explainable AI|XAI は、モデルの透明性を高めることで、機械学習モデルに対する信頼と自信を構築するのに役立ちます。モデルの透明性の向上は、複数の複雑なモデルの普及や、モデルを説明するための意思決定プロセスなどの方法によって実現できます。これらの方法には、特徴重要度分析、モデル予測間隔推定、ローカル解釈可能性アルゴリズムなどが含まれます。特徴重要度分析では、入力特徴に対するモデルの影響度を評価することで、モデルの意思決定プロセスを説明できます。モデルの予測間隔の推定

学習曲線を通じて過学習と過小学習を特定する 学習曲線を通じて過学習と過小学習を特定する Apr 29, 2024 pm 06:50 PM

この記事では、学習曲線を通じて機械学習モデルの過学習と過小学習を効果的に特定する方法を紹介します。過小適合と過適合 1. 過適合 モデルがデータからノイズを学習するためにデータ上で過学習されている場合、そのモデルは過適合していると言われます。過学習モデルはすべての例を完璧に学習するため、未確認の新しい例を誤って分類してしまいます。過適合モデルの場合、完璧/ほぼ完璧なトレーニング セット スコアとひどい検証セット/テスト スコアが得られます。若干修正: 「過学習の原因: 複雑なモデルを使用して単純な問題を解決し、データからノイズを抽出します。トレーニング セットとしての小さなデータ セットはすべてのデータを正しく表現できない可能性があるため、2. 過学習の Heru。」

宇宙探査と人類居住工学における人工知能の進化 宇宙探査と人類居住工学における人工知能の進化 Apr 29, 2024 pm 03:25 PM

1950 年代に人工知能 (AI) が誕生しました。そのとき、研究者たちは、機械が思考などの人間と同じようなタスクを実行できることを発見しました。その後、1960 年代に米国国防総省は人工知能に資金を提供し、さらなる開発のために研究所を設立しました。研究者たちは、宇宙探査や極限環境での生存など、多くの分野で人工知能の応用を見出しています。宇宙探査は、地球を超えた宇宙全体を対象とする宇宙の研究です。宇宙は地球とは条件が異なるため、極限環境に分類されます。宇宙で生き残るためには、多くの要素を考慮し、予防策を講じる必要があります。科学者や研究者は、宇宙を探索し、あらゆるものの現状を理解することが、宇宙の仕組みを理解し、潜在的な環境危機に備えるのに役立つと信じています。

C++ での機械学習アルゴリズムの実装: 一般的な課題と解決策 C++ での機械学習アルゴリズムの実装: 一般的な課題と解決策 Jun 03, 2024 pm 01:25 PM

C++ の機械学習アルゴリズムが直面する一般的な課題には、メモリ管理、マルチスレッド、パフォーマンスの最適化、保守性などがあります。解決策には、スマート ポインター、最新のスレッド ライブラリ、SIMD 命令、サードパーティ ライブラリの使用、コーディング スタイル ガイドラインの遵守、自動化ツールの使用が含まれます。実践的な事例では、Eigen ライブラリを使用して線形回帰アルゴリズムを実装し、メモリを効果的に管理し、高性能の行列演算を使用する方法を示します。

AI はどのようにロボットをより自律的で順応性のあるものにすることができるのでしょうか? AI はどのようにロボットをより自律的で順応性のあるものにすることができるのでしょうか? Jun 03, 2024 pm 07:18 PM

産業オートメーション技術の分野では、人工知能 (AI) と Nvidia という無視できない 2 つの最近のホットスポットがあります。元のコンテンツの意味を変更したり、コンテンツを微調整したり、コンテンツを書き換えたり、続行しないでください。「それだけでなく、Nvidia はオリジナルのグラフィックス プロセッシング ユニット (GPU) に限定されていないため、この 2 つは密接に関連しています。」このテクノロジーはデジタル ツインの分野にまで広がり、新たな AI テクノロジーと密接に関係しています。「最近、NVIDIA は、Aveva、Rockwell Automation、Siemens などの大手産業オートメーション企業を含む多くの産業企業と提携に至りました。シュナイダーエレクトリック、Teradyne Robotics とその MiR および Universal Robots 企業も含まれます。最近、Nvidiahascoll

説明可能な AI: 複雑な AI/ML モデルの説明 説明可能な AI: 複雑な AI/ML モデルの説明 Jun 03, 2024 pm 10:08 PM

翻訳者 | Li Rui によるレビュー | 今日、人工知能 (AI) および機械学習 (ML) モデルはますます複雑になっており、これらのモデルによって生成される出力はブラックボックスになっており、関係者に説明することができません。 Explainable AI (XAI) は、利害関係者がこれらのモデルがどのように機能するかを理解できるようにし、これらのモデルが実際に意思決定を行う方法を確実に理解できるようにし、AI システムの透明性、信頼性、およびこの問題を解決するための説明責任を確保することで、この問題を解決することを目指しています。この記事では、さまざまな説明可能な人工知能 (XAI) 手法を検討して、その基礎となる原理を説明します。説明可能な AI が重要であるいくつかの理由 信頼と透明性: AI システムが広く受け入れられ、信頼されるためには、ユーザーは意思決定がどのように行われるかを理解する必要があります

機械学習における Golang テクノロジーの今後の動向の展望 機械学習における Golang テクノロジーの今後の動向の展望 May 08, 2024 am 10:15 AM

機械学習の分野における Go 言語の応用可能性は次のとおりです。 同時実行性: 並列プログラミングをサポートし、機械学習タスクにおける計算量の多い操作に適しています。効率: ガベージ コレクターと言語機能により、大規模なデータ セットを処理する場合でもコードの効率が保証されます。使いやすさ: 構文が簡潔なので、機械学習アプリケーションの学習と作成が簡単です。

あなたが知らない機械学習の 5 つの流派 あなたが知らない機械学習の 5 つの流派 Jun 05, 2024 pm 08:51 PM

機械学習は人工知能の重要な分野であり、明示的にプログラムしなくてもコンピューターにデータから学習して能力を向上させる機能を提供します。機械学習は、画像認識や自然言語処理から、レコメンデーションシステムや不正行為検出に至るまで、さまざまな分野で幅広く応用されており、私たちの生活様式を変えつつあります。機械学習の分野にはさまざまな手法や理論があり、その中で最も影響力のある 5 つの手法は「機械学習の 5 つの流派」と呼ばれています。 5 つの主要な学派は、象徴学派、コネクショニスト学派、進化学派、ベイジアン学派、およびアナロジー学派です。 1. 象徴主義は、象徴主義とも呼ばれ、論理的推論と知識の表現のためのシンボルの使用を強調します。この学派は、学習は既存の既存の要素を介した逆演繹のプロセスであると信じています。

See all articles