


Yann LeCun が Google Research について語る: ターゲットを絞ったコミュニケーションは長い間存在してきましたが、あなたのイノベーションはどこにありますか?
最近、学術チューリング賞受賞者のヤン・ルカン氏がGoogleの調査に疑問を呈した。
少し前に、Google AI は、新しい研究「LocoProp: ローカル損失最適化による BackProp の強化」フレームワーク LocoProp で、多層ニューラル ネットワークの一般的な階層損失構造を提案しました。これにより、1 次オプティマイザーのみを使用しながら、2 次メソッドに近いパフォーマンスが実現されます。
より具体的には、このフレームワークはニューラル ネットワークを複数のレイヤーのモジュール構成として再考し、各レイヤーが独自の重み正則化機能、ターゲット出力、損失関数を使用し、最終的にパフォーマンスと効率を同時に達成します。
Google は、ベンチマーク モデルとデータセットに対するアプローチの有効性を実験的に検証し、1 次オプティマイザーと 2 次オプティマイザーの間のギャップを狭めました。さらに、Googleの研究者らは、ローカル損失構築法がローカル損失として二乗損失を使用するのは初めてであると述べています。
出典: @Google AI
Google によるこの研究について、素晴らしい、興味深いというコメントをしている人もいます。しかし、チューリング賞受賞者のヤン・ルカン氏を含め、異なる見解を表明する人もいた。
彼は、現在ターゲット プロップと呼ばれるものには多くのバージョンがあり、その一部は 1986 年に遡ると考えています。では、Google の LocoProp とそれらの違いは何でしょうか?
写真出典: @Yann LeCun
UIUC の助教授に就任予定の Haohan Wang 氏も、LeCun 氏の質問に同意します。彼は、一部の著者がなぜこのような単純なアイデアがこの種の最初のものであると考えたのか、時々驚くべきだと述べた。おそらく彼らは何か違うことをしたのでしょうが、宣伝チームは出てきてすべてを主張するのを待ちきれませんでした...
写真出典: @HaohanWang
ただし、一部の人々は、ルカンが競争上の考慮から疑問を提起したり、さらには「戦争を始めたりする」と考えて、ルカンに対して「冷たくありません」。 LeCun氏は、彼の質問は競争とは何の関係もないと主張し、マルク・アウレリオ・ランザート氏、カロル・グレゴール氏、コライ・カヴククオグル氏など、ターゲット伝播のいくつかのバージョンを使用した研究室の元メンバーの例を挙げて答えた。そして今では全員が Google DeepMind で働いています。
写真出典: @Gabriel Jimenez@Yann LeCun
ヤン・ルカンをからかう人もいて、「ユルゲン・シュミットフーバーに勝てないなら、彼になれ。 》
ヤン・ルカンは正しいですか?まず、この Google の調査の内容を見てみましょう。目立ったイノベーションはありますか?
Google LocoProp: 局所損失最適化によるバックプロパゲーションの強化
この研究は、Google の 3 人の研究者、Ehsan Amid、Rohan Anil、Manfred K. Warmuth によって完了しました。
論文アドレス: https://proceedings.mlr.press/v151/amid22a/amid22a.pdf
この記事では、ディープ ニューラル ネットワーク (DNN) ) 成功には、モデル設計とトレーニング データという 2 つの重要な要素がありますが、モデル パラメーターを更新するための最適化方法について議論している研究者はほとんどいません。 DNN のトレーニングには、真の値とモデルの予測値の差を予測するために使用される損失関数の最小化と、バックプロパゲーションを使用したパラメーターの更新が含まれます。
最も単純な重み更新方法は確率的勾配降下法です。つまり、各ステップで重みが勾配に対して負の方向に移動します。さらに、モーメンタム オプティマイザー、AdaGrad などの高度な最適化手法もあります。これらのオプティマイザーは、通常、更新方向を変更するために一次導関数からの情報のみを使用するため、一次メソッドと呼ばれることがよくあります。
また、シャンプー、K-FAC などのより高度な最適化手法もあり、収束を向上させ、反復回数を削減することが証明されており、これらの手法は勾配の変化を捉えることができます。この追加情報を使用すると、高次のオプティマイザーは、異なるパラメーター グループ間の相関関係を考慮して、トレーニングされたモデルのより効率的な更新方向を発見できます。欠点は、高次の更新方向の計算が一次更新よりも計算コストがかかることです。
Google は論文の中で、DNN モデルをトレーニングするためのフレームワークである LocoProp を紹介しました。LocoProp は、ニューラル ネットワークをレイヤーのモジュール式の組み合わせとして考えています。一般に、ニューラル ネットワークの各層は入力に対して線形変換を実行し、その後に非線形活性化関数を実行します。この研究では、ネットワークの各層に独自の重み正則化装置、出力ターゲット、および損失関数が割り当てられました。各層の損失関数は、その層の活性化関数と一致するように設計されています。この形式を使用すると、レイヤー間で並行して反復して、ローカル損失の特定の小さなバッチのトレーニングを最小限に抑えることができます。
Google は、パラメータの更新にこの 1 次オプティマイザーを使用することで、高次オプティマイザーに必要な計算コストを回避します。
調査によると、LocoProp はディープ オートエンコーダー ベンチマークで一次メソッドを上回り、高いメモリや計算要件を必要とせずに、シャンプーや K-FAC などの高次オプティマイザーと同等のパフォーマンスを発揮します。
LocoProp: 局所損失最適化によるバックプロパゲーションの強化
通常、ニューラル ネットワークは、各層の入力を出力表現に変換する複合関数として見なされます。 LocoProp は、ネットワークをレイヤーに分解するときにこの観点を採用しています。特に、LocoProp は、出力の損失関数を最小化するためにレイヤーの重みを更新する代わりに、各レイヤーに固有の事前定義されたローカル損失関数を適用します。特定の層に対して、活性化関数と一致するように損失関数が選択されます。たとえば、tanh 活性化のある層には Tanh 損失が選択されます。さらに、正則化項により、更新された重みが現在の値から大きく逸脱しないことが保証されます。
バックプロパゲーションと同様に、LocoProp はアクティベーションを計算するためにフォワード パスを適用します。バックワード パスでは、LocoProp は各層のニューロンのターゲットを設定します。最後に、LocoProp はモデル トレーニングをレイヤー全体の独立した問題に分解し、複数のローカル更新を各レイヤーの重みに並行して適用できます。
Google は、最適化アルゴリズムのパフォーマンスを評価するための一般的なベンチマークであるディープ オートエンコーダー モデルの実験を実施しました。彼らは、SGD、モーメンタム付き SGD、AdaGrad、RMSProp、Adam、および Shampoo、K-FAC などの高次オプティマイザーを含む複数の一般的に使用される 1 次オプティマイザーで広範な最適化を実行し、その結果を LocoProp と比較しました。結果は、LocoProp メソッドのパフォーマンスが 1 次オプティマイザーよりも大幅に優れており、高次オプティマイザーと同等であると同時に、単一 GPU で実行すると大幅に高速であることを示しています。
以上がYann LeCun が Google Research について語る: ターゲットを絞ったコミュニケーションは長い間存在してきましたが、あなたのイノベーションはどこにありますか?の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ホットAIツール

Undresser.AI Undress
リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover
写真から衣服を削除するオンライン AI ツール。

Undress AI Tool
脱衣画像を無料で

Clothoff.io
AI衣類リムーバー

AI Hentai Generator
AIヘンタイを無料で生成します。

人気の記事

ホットツール

メモ帳++7.3.1
使いやすく無料のコードエディター

SublimeText3 中国語版
中国語版、とても使いやすい

ゼンドスタジオ 13.0.1
強力な PHP 統合開発環境

ドリームウィーバー CS6
ビジュアル Web 開発ツール

SublimeText3 Mac版
神レベルのコード編集ソフト(SublimeText3)

ホットトピック









vue.jsのオブジェクトに文字列を変換する場合、標準のjson文字列にはjson.parse()が推奨されます。非標準のJSON文字列の場合、文字列は正規表現を使用して処理し、フォーマットまたはデコードされたURLエンコードに従ってメソッドを削減できます。文字列形式に従って適切な方法を選択し、バグを避けるためにセキュリティとエンコードの問題に注意してください。

概要:Vue.js文字列配列をオブジェクト配列に変換するための次の方法があります。基本方法:定期的なフォーマットデータに合わせてマップ関数を使用します。高度なゲームプレイ:正規表現を使用すると、複雑な形式を処理できますが、慎重に記述して考慮する必要があります。パフォーマンスの最適化:大量のデータを考慮すると、非同期操作または効率的なデータ処理ライブラリを使用できます。ベストプラクティス:コードスタイルをクリアし、意味のある変数名とコメントを使用して、コードを簡潔に保ちます。

MySQLの起動が失敗する理由はたくさんあり、エラーログをチェックすることで診断できます。一般的な原因には、ポートの競合(ポート占有率をチェックして構成の変更)、許可の問題(ユーザー許可を実行するサービスを確認)、構成ファイルエラー(パラメーター設定のチェック)、データディレクトリの破損(テーブルスペースの復元)、INNODBテーブルスペースの問題(IBDATA1ファイルのチェック)、プラグインロード障害(エラーログのチェック)が含まれます。問題を解決するときは、エラーログに基づいてそれらを分析し、問題の根本原因を見つけ、問題を防ぐために定期的にデータをバックアップする習慣を開発する必要があります。

この記事では、MySQLデータベースの操作を紹介します。まず、MySQLWorkBenchやコマンドラインクライアントなど、MySQLクライアントをインストールする必要があります。 1. mysql-uroot-pコマンドを使用してサーバーに接続し、ルートアカウントパスワードでログインします。 2。CreatedAtaBaseを使用してデータベースを作成し、データベースを選択します。 3. createTableを使用してテーブルを作成し、フィールドとデータ型を定義します。 4. INSERTINTOを使用してデータを挿入し、データをクエリし、更新することでデータを更新し、削除してデータを削除します。これらの手順を習得することによってのみ、一般的な問題に対処することを学び、データベースのパフォーマンスを最適化することでMySQLを効率的に使用できます。

700万のレコードを効率的に処理し、地理空間技術を使用したインタラクティブマップを作成します。この記事では、LaravelとMySQLを使用して700万を超えるレコードを効率的に処理し、それらをインタラクティブなマップの視覚化に変換する方法について説明します。最初の課題プロジェクトの要件:MySQLデータベースに700万のレコードを使用して貴重な洞察を抽出します。多くの人は最初に言語をプログラミングすることを検討しますが、データベース自体を無視します。ニーズを満たすことができますか?データ移行または構造調整は必要ですか? MySQLはこのような大きなデータ負荷に耐えることができますか?予備分析:キーフィルターとプロパティを特定する必要があります。分析後、ソリューションに関連している属性はわずかであることがわかりました。フィルターの実現可能性を確認し、検索を最適化するためにいくつかの制限を設定しました。都市に基づくマップ検索

Vue axiosのタイムアウトを設定するために、Axiosインスタンスを作成してタイムアウトオプションを指定できます。グローバル設定:Vue.Prototype。$ axios = axios.create({Timeout:5000});単一のリクエストで:this。$ axios.get( '/api/users'、{timeout:10000})。

リモートシニアバックエンジニアの求人事業者:サークル場所:リモートオフィスジョブタイプ:フルタイム給与:$ 130,000- $ 140,000職務記述書サークルモバイルアプリケーションとパブリックAPI関連機能の研究開発に参加します。ソフトウェア開発ライフサイクル全体をカバーします。主な責任は、RubyonRailsに基づいて独立して開発作業を完了し、React/Redux/Relay Front-Endチームと協力しています。 Webアプリケーションのコア機能と改善を構築し、機能設計プロセス全体でデザイナーとリーダーシップと緊密に連携します。肯定的な開発プロセスを促進し、反復速度を優先します。 6年以上の複雑なWebアプリケーションバックエンドが必要です

MySQLパフォーマンスの最適化は、インストール構成、インデックス作成、クエリの最適化、監視、チューニングの3つの側面から開始する必要があります。 1。インストール後、INNODB_BUFFER_POOL_SIZEパラメーターやclose query_cache_sizeなど、サーバーの構成に従ってmy.cnfファイルを調整する必要があります。 2。過度のインデックスを回避するための適切なインデックスを作成し、説明コマンドを使用して実行計画を分析するなど、クエリステートメントを最適化します。 3. MySQL独自の監視ツール(ShowProcessList、ShowStatus)を使用して、データベースの健康を監視し、定期的にデータベースをバックアップして整理します。これらの手順を継続的に最適化することによってのみ、MySQLデータベースのパフォーマンスを改善できます。
