目次
現在のゴールドスタンダード: 進化的手法
ディープ ニューラル ネットワークを関数近似器として使用したシンボリック回帰
自然言語モデルに基づく第一世代のシンボリック回帰
自然言語モデルに基づく第 2 世代のシンボリック回帰
シンボリック回帰の時代がやってくる
シンボリック回帰アルゴリズムの今後の開発
ホームページ テクノロジー周辺機器 AI 神経象徴回帰: データから科学を抽出する

神経象徴回帰: データから科学を抽出する

Apr 12, 2023 pm 05:46 PM
ディープラーニング 神経記号


神経象徴回帰: データから科学を抽出する

訳者|李瑞

校閲者|孫樹娟

宇宙は騒々しく混沌としており、十分に複雑です予測を困難にするため。人間の知性と直観は、周囲の世界のいくつかの活動の基本的な理解に貢献しており、個人や小グループの限られた視点から、巨視的な空間および時間スケールでの個々の出来事についての基本的な理解を得るには十分です。

人類の先史時代や古代における自然哲学者は、ほとんどが常識的な合理化と推測テストに限定されていました。これらの方法には大きな制限があり、特に大規模すぎるものや複雑なものの場合には、迷信的または魔術的な思考が蔓延する原因となります。

これは、推測と確認(現代の科学的手法の基礎である)を軽視するものではなく、調査し理解する人間の能力の変化は、物理現象を数学的に抽出したいという欲求とツールによって引き起こされるということを理解するためです。表現 原因。

これは、古代にも分析的還元主義の痕跡が残っていますが、ニュートンや他の科学者が主導した啓蒙主義以降に特に顕著でした。観察から数学の方程式 (およびそれらの方程式から得られる予測) に移行する能力は、科学の探求と進歩に不可欠です。

人間の科学者が入力と出力の間の関数関係を数式の形で学ぼうとするのと同じように、深層学習も基本的には入出力の観察に関連する変換を学習することです。

もちろん、違いは、ディープ ニューラル ネットワークによって学習される入出力関係 (普遍近似定理の結果) が、主に重み、バイアス、およびそれらの数値パラメーターの解釈できない「ブラック ボックス」で構成されていることです。接続されたノード。

普遍近似定理では、非常に緩和された基準を満たすニューラル ネットワークは、適切に動作する関数に非常に近づくことができるはずであると述べています。実際には、ニューラル ネットワークは、単純かつ正確な基礎となる方程式から生じる入出力関係を表す、脆弱で漏れやすい抽象概念です。

不確実性を予測するためのモデル (またはモデルのアンサンブル) のトレーニングに特別な注意を払わない限り、ニューラル ネットワークは、トレーニングされた分布の外で予測を行う場合、パフォーマンスが非常に低下する傾向があります。

ディープ ラーニングの予測は、反証可能な予測、つまり科学的手法の基礎を形成する独創的な仮定を行うことも苦手です。したがって、ディープラーニングはデータの適合に優れていることが実証されたツールではありますが、その有用性は、人類の最も重要な追求の 1 つである、科学的手法を通じて私たちの周囲の宇宙を探索することにおいて限定されています。

人間の科学的取り組みにおいてディープラーニングにはさまざまな欠点がありますが、科学分野におけるディープラーニングの巨大な適合能力と数多くの成功は無視できません。

現代科学は大量のデータを生成しますが、その出力は個人 (またはチーム) が観察することはできず、ノイズの多いデータから明確な数式に直観的に変換することもできません。

これを行うには、データを方程式に変換する自動または半自動の方法であるシンボリック回帰を利用します。

現在のゴールドスタンダード: 進化的手法

最新の深層学習を記号回帰に適用するという興味深い最近の研究に入る前に、まずデータセットを方程式に変換する進化を理解することが重要です。メソッドの現在の状態。最も一般的に言及されるシンボリック回帰パッケージは、遺伝的アルゴリズムに基づく Eureqa です。

Eureqa はもともとコーネル大学の Hod Lipson のチームによって研究プロジェクトとして開発され、Nutonian から独自のソフトウェアとして提供されましたが、Nutonian は後に DataRobot Corporation に買収されました。 Eureqa は、Eureqa の共著者で Datarobot の CTO である Michael Schmidt の主導のもと、Datarobot プラットフォームに統合されました。

Eureqa および類似のシンボリック回帰ツールは、遺伝的アルゴリズムを使用して、精度と簡素化のために方程式系を同時に最適化します。

TuringBot は、シミュレーテッド アニーリングに基づく代替シンボリック回帰パッケージです。模擬焼鈍は、金属の物理的特性を変更するために使用される冶金焼鈍に似た最適化アルゴリズムです。

シミュレートされたアニーリングでは、最適化問題に対する候補解を選択するときに「温度」が低下します。温度が高いほど、より劣った解が受け入れられることに対応し、早期探索を促進するために使用され、全体的な最適解の検索が可能になります。 . メリットがあり、局所最適から脱出するためのエネルギーを提供します。

TuringBot は、シミュレーテッド アニーリングに基づくもう 1 つのシンボリック回帰パッケージです。模擬焼鈍は、金属の物理的特性を変更するために使用される冶金焼鈍に似た最適化アルゴリズムです。

シミュレートされたアニーリングでは、最適化問題に対する候補解を選択するときに「温度」が低下します。温度が高いほど、より劣った解が受け入れられることに対応し、早期探索を促進するために使用され、全体的な最適解の検索が可能になります。 . メリットがあり、局所最適から脱出するためのエネルギーを提供します。

TuringBot は無料バージョンですが、データ セットのサイズと複雑さに大きな制限があり、コードの変更は許可されていません。

商用シンボリック回帰ソフトウェア (特に Eureqa) は、シンボリック回帰用の新しいツールを開発する際の比較のための重要なベースラインを提供しますが、クローズド ソース プログラムの役割は限られています。

PySR と呼ばれるもう 1 つのオープンソースの代替案は、A​​pache 2.0 ライセンスの下でリリースされており、プリンストン大学博士課程の学生 Miles Cranmer が主導しており、精度と倹約 (単純さ) という最適化目標を Eureqa と共有し、使用される組み合わせ方法を共有しています。チューリングボットによる。

PySR は、シンボリック回帰を実行するための無料で自由に変更可能なソフトウェア ライブラリを提供することに加えて、ソフトウェアの観点からも興味深いものです。Python で書かれていますが、高速バックエンドとして Julia プログラミング言語を使用します。

一般に、遺伝的アルゴリズムがシンボリック回帰の最新技術であると考えられていますが、ここ数年、新しいシンボリック回帰戦略が爆発的に増加しています。

これらの新しい開発の多くは、複数ステップのプロセスにおける関数近似コンポーネントとして、またはもともと自然言語処理用に開発された大規模な Transformer モデルに基づくエンドツーエンドの方法で、最新の深層学習モデルを活用しています。そしてその間の何か。

深層学習に基づく新しいシンボリック回帰ツールに加えて、確率的および統計的手法、特にベイズ統計的手法も復活しています。

最新のコンピューティング能力と組み合わせることで、新世代のシンボリック回帰ソフトウェアは、それ自体が興味深い研究であるだけでなく、大規模なデータセットや包括的な実験などの科学分野への実際の有用性と貢献も提供します。

ディープ ニューラル ネットワークを関数近似器として使用したシンボリック回帰

1980 年代後半から 1990 年代前半に Cybenko と Hornik によって説明および研究された普遍近似定理により、少なくとも 1 つの近似定理が期待できます。隠れ層の非線形活性化を備えたニューラル ネットワークは、適切に動作するあらゆる数学関数を近似できます。

実際には、より深いニューラル ネットワークは、より複雑な問題に対してより優れたパフォーマンスを達成する傾向があります。ただし、原理的にはさまざまな関数を近似するには隠れ層が必要です。

物理学にヒントを得た AI ファインマン アルゴリズムは、より複雑なパズルの一部として普遍近似定理を使用します。

AI ファインマン (およびその後継 AI ファインマン 2.0) は、物理学者の Silviu-Marian Udrescu 氏と Max Tegmark 氏 (および数人の同僚) によって開発されました。 AI ファインマンは、滑らかさ、対称性、構成性など、多くの物理方程式に見られる機能的特性を利用します。

ニューラル ネットワークは関数近似器として機能し、データ セットで表される入出力変換ペアを学習し、同じ関数変換の下で合成データを生成することでこれらの特性の研究を容易にします。

AI ファインマンが問題を解くために使用する関数特性は、物理方程式では一般的ですが、考えられるすべての数学関数の空間に任意に適用することはできません。ただし、これらは依然として、現実世界に対応するさまざまな機能を探すのに合理的な仮定です。

前述の遺伝的アルゴリズムやシミュレーテッド アニーリング手法と同様に、AI ファインマンは新しいデータセットを最初から適合させます。一般化や事前トレーニングは必要なく、ディープ ニューラル ネットワークは、より大規模で物理的に情報が豊富なシステムの調整された部分のみを形成します。

AI ファインマン記号回帰は、ファインマンの物理学の講義にある 100 の方程式 (またはパズル) を解読するという優れた仕事をしましたが、一般化が欠けていたため、新しいデータセット (新しい方程式に対応する) ごとに大規模な計算が必要でした。予算。

シンボリック回帰のための新しい一連の深層学習戦略は、もともと Vaswani らによって自然言語モデルとして導入され、非常に成功した Transformer モデルのファミリーを活用しています。これらの新しい方法は完璧ではありませんが、事前トレーニングを使用すると、推論中の計算時間を大幅に節約できます。

自然言語モデルに基づく第一世代のシンボリック回帰

注意ベースの非常に大規模な Transformer モデルが、コンピューター ビジョン、オーディオ、強化学習、レコメンデーション システムなどで広く使用されていることを考えると、 (自然言語処理における本来の役割であるテキストベースに加えて) 他の分野でもさまざまなタスクで大きな成功を収めているため、Transformer モデルが最終的には記号回帰にも適用されることは驚くべきことではありません。

シンボリック シーケンスに対する数値入出力ペアの領域では、慎重なエンジニアリングが必要ですが、数式のシーケンス ベースの性質は、当然のことながら、Transformer メソッドに適しています。

重要なのは、Transformer を使用して数式を生成することで、自動生成された何百万もの方程式の構造と数値的意味についての事前トレーニングを活用できるようになったということです。

これは、スケールアップを通じてモデルを改善するための基礎も築きます。スケーリングはディープ ラーニングの主な利点の 1 つであり、モデルの規模が大きくなり、より多くのデータが追加されることで、過剰適合による古典的な統計学習の制限をはるかに超えてモデルのパフォーマンスが向上し続けます。

スケーリングは、NSRTS と呼ばれる Biggio らの論文「スケーラブル ニューラル シンボリック回帰」で言及されている主な利点です。 NSRTS Transformer モデルは、専用のエンコーダーを使用して、データセットの各入出力ペアを潜在空間に変換します。エンコードされた潜在空間は、エンコーダーの入力サイズとは独立した固定サイズを持ちます。

NSRTS デコーダは、エンコードされた潜在空間とこれまでに生成されたシンボルを条件として、方程式を表すトークンのシーケンスを構築します。重要なのは、デコーダーは数値定数のプレースホルダーのみを出力しますが、それ以外の点では、事前トレーニングされた方程式データセットと同じ語彙を使用します。

NSRTS は PyTorch と PyTorch Lightning を使用し、寛容なオープンソース MIT ライセンスを持っています。

定数を含まない方程式 (方程式スケルトンと呼ばれる) を生成した後、NSRTS は勾配降下法を使用して定数を最適化します。このアプローチは、シーケンス生成の上に一般的な最適化アルゴリズムを重ねます。これは、Valipour らによって同時に開発された、いわゆる「SymbolicGPT」によって共有されます。

Valipour らは、NSRTS 法のようなアテンションベースのエンコーダを使用しませんでした。代わりに、スタンフォード点群モデル PointNet に基づくモデルを使用して、Transformer デコーダが方程式を生成するために使用する固定次元の特徴セットを生成します。 NSRT と同様、シンボリック GPT は BFGS を使用して、Transformer デコーダによって生成された方程式スケルトンの数値定数を見つけます。

自然言語モデルに基づく第 2 世代のシンボリック回帰

いくつかの最近の記事では、シンボリック回帰の一般化とスケーラビリティを実現するための自然言語処理 (NLP) トランスフォーマーの使用について説明していますが、上記のモデルはそうではありません。数値定数を推定しないため、真にエンドツーエンドです。

これは重大な欠陥である可能性があります。異なる周波数の 1000 個の正弦波基底を含む方程式を生成するモデルを想像してください。 BFGS を使用して各項の係数を最適化することは、おそらくほとんどの入力データ セットに適していますが、実際にはフーリエ解析を実行するには時間がかかり、回りくどい方法にすぎません。

ちょうど 2022 年の春に、第 2 世代の Transformer ベースのシンボリック回帰モデルが Vastl らによって SymFormer で ArXiv にリリースされ、別のエンドツーエンドの Transformer が Kamienny らによってリリースされました。

これらのモデルと以前の Transformer ベースのシンボリック回帰モデルの重要な違いは、シンボリック数学的シーケンスだけでなく数値定数も予測することです。

SymFormer は、双頭の Transformer デコーダを使用して、エンドツーエンドのシンボル回帰を完了します。 1 つのヘッドは数学記号を生成し、2 つ目のヘッドは数値回帰のタスク、つまり方程式に現れる数値定数の推定を学習します。

Kamienny と Vastl のエンドツーエンド モデルは、数値推定の精度などの細部で異なりますが、両方のグループのソリューションは依然として、改良のための後続の最適化ステップに依存しています。

それでも、著者らによると、以前の方法よりも推論時間が短縮され、より正確な結果が生成され、より優れた方程式のスケルトンが生成され、最適化ステップと定数の推定の優れた開始点が提供されます。

シンボリック回帰の時代がやってくる

ほとんどの場合、シンボリック回帰は洗練された計算集約型の機械学習手法であり、過去 10 年間でその注目度ははるかに低くなりました。一般的な深層学習のことです。

これは、遺伝的手法または確率的手法の「使ったら失われる」というアプローチに部分的に起因しており、新しいデータセットごとに最初から開始する必要があり、ディープラーニングからシンボリック学習までの中間アプリケーションとは矛盾する特性です。回帰(AIファインマンなど)も同様です。

シンボリック回帰の統合コンポーネントとして Transformer を使用すると、最近のモデルで大規模な事前トレーニングを利用できるようになり、推論時のエネルギー、時間、計算ハードウェア要件が削減されます。

この傾向は、数値定数を推定し数学記号を予測できる新しいモデルによってさらに拡張され、より高速な推論とより高い精度を可能にします。

記号式を生成するタスクは、テスト可能な仮説を生成するために使用できますが、これは非常に人間的なタスクであり、科学の中心です。記号回帰の自動化手法は、過去 20 年間にわたって興味深い技術的進歩を続けてきましたが、本当の試練は、それらが実際の科学を行う研究者にとって役立つかどうかです。

シンボリック回帰は、技術的な実証を超えて、出版可能な科学的結果をますます生み出し始めています。ベイズ記号回帰アプローチにより、細胞分裂を予測するための新しい数学モデルが得られます。

別の研究チームは、スパース回帰モデルを使用して海洋乱流の合理的な方程式を生成し、改良されたマルチスケール気候モデルへの道を切り開きました。

グラフ ニューラル ネットワークと記号回帰を Eureqa の遺伝的アルゴリズムと組み合わせたプロジェクトは、多体重力を記述する式を一般化し、従来のシミュレーターから暗黒物質の分布を記述する新しい方程式を導き出します。

シンボリック回帰アルゴリズムの今後の開発

シンボリック回帰は、科学者のツールボックスの強力なツールになりつつあります。 Transformer ベースの手法の一般化とスケーラビリティは依然としてホットなトピックであり、一般的な科学的実践にはまだ浸透していません。より多くの研究者がこのモデルを適応させ、改良することで、科学的発見がさらに前進することが期待されます。

これらのプロジェクトの多くはオープンソース ライセンスの下で実施されているため、数年以内に影響を与えることが期待でき、その用途は Eureqa や TuringBot などのプロプライエタリ ソフトウェアよりも広範囲になる可能性があります。

シンボリック回帰は、多くの場合謎めいて解釈が難しい深層学習モデルの出力を自然に補完するものですが、数学的言語でより理解できる出力は、新しいテスト可能な仮説を生成し、直感的な飛躍を促進するのに役立ちます。

これらの特性と、最新世代のシンボリック回帰アルゴリズムの直接的な機能により、重要な発見の瞬間がより多くなる機会が提供されることが約束されています。

以上が神経象徴回帰: データから科学を抽出するの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。

ホットAIツール

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

写真から衣服を削除するオンライン AI ツール。

Undress AI Tool

Undress AI Tool

脱衣画像を無料で

Clothoff.io

Clothoff.io

AI衣類リムーバー

AI Hentai Generator

AI Hentai Generator

AIヘンタイを無料で生成します。

ホットツール

メモ帳++7.3.1

メモ帳++7.3.1

使いやすく無料のコードエディター

SublimeText3 中国語版

SublimeText3 中国語版

中国語版、とても使いやすい

ゼンドスタジオ 13.0.1

ゼンドスタジオ 13.0.1

強力な PHP 統合開発環境

ドリームウィーバー CS6

ドリームウィーバー CS6

ビジュアル Web 開発ツール

SublimeText3 Mac版

SublimeText3 Mac版

神レベルのコード編集ソフト(SublimeText3)

Python での感情分析に BERT を使用する方法と手順 Python での感情分析に BERT を使用する方法と手順 Jan 22, 2024 pm 04:24 PM

BERT は、2018 年に Google によって提案された事前トレーニング済みの深層学習言語モデルです。正式名は BidirectionEncoderRepresentationsfromTransformers で、Transformer アーキテクチャに基づいており、双方向エンコードの特性を備えています。従来の一方向コーディング モデルと比較して、BERT はテキストを処理するときにコンテキスト情報を同時に考慮できるため、自然言語処理タスクで優れたパフォーマンスを発揮します。その双方向性により、BERT は文内の意味関係をより深く理解できるようになり、それによってモデルの表現能力が向上します。事前トレーニングおよび微調整方法を通じて、BERT は感情分析、命名などのさまざまな自然言語処理タスクに使用できます。

一般的に使用される AI 活性化関数の分析: Sigmoid、Tanh、ReLU、Softmax のディープラーニングの実践 一般的に使用される AI 活性化関数の分析: Sigmoid、Tanh、ReLU、Softmax のディープラーニングの実践 Dec 28, 2023 pm 11:35 PM

活性化関数は深層学習において重要な役割を果たしており、ニューラル ネットワークに非線形特性を導入することで、ネットワークが複雑な入出力関係をより適切に学習し、シミュレートできるようになります。活性化関数の正しい選択と使用は、ニューラル ネットワークのパフォーマンスとトレーニング結果に重要な影響を与えます。この記事では、よく使用される 4 つの活性化関数 (Sigmoid、Tanh、ReLU、Softmax) について、導入、使用シナリオ、利点、欠点と最適化ソリューション アクティベーション関数を包括的に理解できるように、次元について説明します。 1. シグモイド関数 シグモイド関数の公式の概要: シグモイド関数は、任意の実数を 0 と 1 の間にマッピングできる一般的に使用される非線形関数です。通常は統一するために使用されます。

ORB-SLAM3を超えて! SL-SLAM: 低照度、重度のジッター、弱いテクスチャのシーンはすべて処理されます。 ORB-SLAM3を超えて! SL-SLAM: 低照度、重度のジッター、弱いテクスチャのシーンはすべて処理されます。 May 30, 2024 am 09:35 AM

以前に書きましたが、今日は、深層学習テクノロジーが複雑な環境におけるビジョンベースの SLAM (同時ローカリゼーションとマッピング) のパフォーマンスをどのように向上させることができるかについて説明します。ここでは、深部特徴抽出と深度マッチング手法を組み合わせることで、低照度条件、動的照明、テクスチャの弱い領域、激しいセックスなどの困難なシナリオでの適応を改善するように設計された多用途のハイブリッド ビジュアル SLAM システムを紹介します。当社のシステムは、拡張単眼、ステレオ、単眼慣性、ステレオ慣性構成を含む複数のモードをサポートしています。さらに、他の研究にインスピレーションを与えるために、ビジュアル SLAM と深層学習手法を組み合わせる方法も分析します。公開データセットと自己サンプリングデータに関する広範な実験を通じて、測位精度と追跡堅牢性の点で SL-SLAM の優位性を実証しました。

潜在空間の埋め込み: 説明とデモンストレーション 潜在空間の埋め込み: 説明とデモンストレーション Jan 22, 2024 pm 05:30 PM

潜在空間埋め込み (LatentSpaceEmbedding) は、高次元データを低次元空間にマッピングするプロセスです。機械学習と深層学習の分野では、潜在空間埋め込みは通常、高次元の入力データを低次元のベクトル表現のセットにマッピングするニューラル ネットワーク モデルです。このベクトルのセットは、「潜在ベクトル」または「潜在ベクトル」と呼ばれることがよくあります。エンコーディング」。潜在空間埋め込みの目的は、データ内の重要な特徴をキャプチャし、それらをより簡潔でわかりやすい形式で表現することです。潜在空間埋め込みを通じて、低次元空間でデータの視覚化、分類、クラスタリングなどの操作を実行し、データをよりよく理解して活用できます。潜在空間埋め込みは、画像生成、特徴抽出、次元削減など、多くの分野で幅広い用途があります。潜在空間埋め込みがメイン

1 つの記事で理解: AI、機械学習、ディープラーニングのつながりと違い 1 つの記事で理解: AI、機械学習、ディープラーニングのつながりと違い Mar 02, 2024 am 11:19 AM

今日の急速な技術変化の波の中で、人工知能 (AI)、機械学習 (ML)、および深層学習 (DL) は輝かしい星のようなもので、情報技術の新しい波をリードしています。これら 3 つの単語は、さまざまな最先端の議論や実践で頻繁に登場しますが、この分野に慣れていない多くの探検家にとって、その具体的な意味や内部のつながりはまだ謎に包まれているかもしれません。そこで、まずはこの写真を見てみましょう。ディープラーニング、機械学習、人工知能の間には密接な相関関係があり、進歩的な関係があることがわかります。ディープラーニングは機械学習の特定の分野であり、機械学習

超強い!深層学習アルゴリズムのトップ 10! 超強い!深層学習アルゴリズムのトップ 10! Mar 15, 2024 pm 03:46 PM

2006 年にディープ ラーニングの概念が提案されてから、ほぼ 20 年が経過しました。ディープ ラーニングは、人工知能分野における革命として、多くの影響力のあるアルゴリズムを生み出してきました。では、ディープラーニングのトップ 10 アルゴリズムは何だと思いますか?私の考えでは、ディープ ラーニングのトップ アルゴリズムは次のとおりで、いずれもイノベーション、アプリケーションの価値、影響力の点で重要な位置を占めています。 1. ディープ ニューラル ネットワーク (DNN) の背景: ディープ ニューラル ネットワーク (DNN) は、多層パーセプトロンとも呼ばれ、最も一般的なディープ ラーニング アルゴリズムです。最初に発明されたときは、コンピューティング能力のボトルネックのため疑問視されていました。最近まで長年にわたる計算能力、データの爆発的な増加によって画期的な進歩がもたらされました。 DNN は、複数の隠れ層を含むニューラル ネットワーク モデルです。このモデルでは、各層が入力を次の層に渡し、

CNN と Transformer のハイブリッド モデルを使用してパフォーマンスを向上させる方法 CNN と Transformer のハイブリッド モデルを使用してパフォーマンスを向上させる方法 Jan 24, 2024 am 10:33 AM

畳み込みニューラル ネットワーク (CNN) と Transformer は、さまざまなタスクで優れたパフォーマンスを示した 2 つの異なる深層学習モデルです。 CNN は主に、画像分類、ターゲット検出、画像セグメンテーションなどのコンピューター ビジョン タスクに使用されます。畳み込み演算を通じて画像上の局所的な特徴を抽出し、プーリング演算を通じて特徴の次元削減と空間的不変性を実行します。対照的に、Transformer は主に、機械翻訳、テキスト分類、音声認識などの自然言語処理 (NLP) タスクに使用されます。セルフアテンション メカニズムを使用してシーケンス内の依存関係をモデル化し、従来のリカレント ニューラル ネットワークにおける逐次計算を回避します。これら 2 つのモデルは異なるタスクに使用されますが、シーケンス モデリングでは類似点があるため、

RMSprop アルゴリズムの改善 RMSprop アルゴリズムの改善 Jan 22, 2024 pm 05:18 PM

RMSprop は、ニューラル ネットワークの重みを更新するために広く使用されているオプティマイザーです。これは、2012 年に Geoffrey Hinton らによって提案され、Adam オプティマイザーの前身です。 RMSprop オプティマイザの登場は主に、勾配の消失や勾配の爆発など、SGD 勾配降下法アルゴリズムで発生するいくつかの問題を解決することを目的としています。 RMSprop オプティマイザーを使用すると、学習率を効果的に調整し、重みを適応的に更新できるため、深層学習モデルのトレーニング効果が向上します。 RMSprop オプティマイザの中心となるアイデアは、異なるタイム ステップでの勾配が重みの更新に異なる影響を与えるように、勾配の加重平均を実行することです。具体的には、RMSprop は各パラメータの 2 乗を計算します。

See all articles