目次
4. ソフトマックス関数
ホームページ テクノロジー周辺機器 AI 一般的に使用される AI 活性化関数の分析: Sigmoid、Tanh、ReLU、Softmax のディープラーニングの実践

一般的に使用される AI 活性化関数の分析: Sigmoid、Tanh、ReLU、Softmax のディープラーニングの実践

Dec 28, 2023 pm 11:35 PM
AI ディープラーニング 活性化関数

アクティベーション関数は深層学習において重要な役割を果たしており、ニューラル ネットワークに非線形特性を導入することで、ネットワークが複雑な入出力関係をより適切に学習し、シミュレートできるようになります。活性化関数の正しい選択と使用は、ニューラル ネットワークのパフォーマンスとトレーニング効果に重要な影響を与えます。

この記事では、一般的に使用される 4 つの活性化関数、Sigmoid、Tanh、ReLU、Softmax について、導入から使用方法まで紹介します。シナリオ、利点、欠点、最適化ソリューションについて 5 つの側面で説明し、アクティベーション関数を包括的に理解できるようにします。

一般的に使用される AI 活性化関数の分析: Sigmoid、Tanh、ReLU、Softmax のディープラーニングの実践

##1. シグモイド関数

一般的に使用される AI 活性化関数の分析: Sigmoid、Tanh、ReLU、Softmax のディープラーニングの実践シグモイド関数の公式

はじめに: シグモイド関数は一般的に A任意の実数を 0 と 1 の間にマッピングできる非線形関数を使用しました。

正規化されていない予測値を確率分布に変換するためによく使用されます。

一般的に使用される AI 活性化関数の分析: Sigmoid、Tanh、ReLU、Softmax のディープラーニングの実践SIgmoid 関数のイメージ

アプリケーション シナリオ:

    出力は 0 から 1 の間に制限されており、確率分布。
  • 回帰問題またはバイナリ分類問題を処理します。
次のような利点があります:

  • 入力の任意の範囲を 0 ~ 1 の間の にマッピングできるため、確率を表現するのに適しています。
  • 範囲が制限されているため、計算がより簡単かつ高速になります。
欠点: 入力値が非常に大きい場合、勾配が非常に小さくなり、勾配消失の問題が発生する可能性があります。

最適化計画:

  • ReLU などの他のアクティベーション関数を使用する: ReLU またはそのバリアント (Leaky ReLU および Parametric ReLU) などの他のアクティベーション関数を組み合わせて使用​​します。
  • 深層学習フレームワークで最適化手法を使用する: TensorFlow や PyTorch などの深層学習フレームワークによって提供される最適化手法を使用します。勾配クリッピング、学習率調整など。
2. Tanh 関数

一般的に使用される AI 活性化関数の分析: Sigmoid、Tanh、ReLU、Softmax のディープラーニングの実践Tanh 関数の公式

はじめに: T

anh 関数はシグモイドです任意の実数を -1 から 1 までにマッピングする関数の双曲線バージョン。

一般的に使用される AI 活性化関数の分析: Sigmoid、Tanh、ReLU、Softmax のディープラーニングの実践Tanh 関数のイメージ

アプリケーション シナリオ: シグモイドより急峻な関数が必要な場合、または -1 ~ の範囲が必要な場合1 は特定のアプリケーションで必要な出力です。

次のような利点があります: ダイナミック レンジが大きくなり、曲線が急勾配になるため、収束速度が向上します。

Tanh 関数の欠点は、入力が±1、その導関数は急速に 0 に近づくため、勾配消失の問題が発生します

最適化計画:

  • 他の活性化関数を使用してくださいReLU など:ReLU やそのバリアント (Leaky ReLU および Parametric ReLU) など、他のアクティベーション関数と組み合わせて使用​​します。
  • 残留接続の使用: 残留接続は、ResNet (残留ネットワーク) などの効果的な最適化戦略です。
#3、

ReLU 関数

ReLU 関数の式一般的に使用される AI 活性化関数の分析: Sigmoid、Tanh、ReLU、Softmax のディープラーニングの実践はじめに: ReLU 活性化関数は単純な非線形関数であり、その数式は f(x) = max(0,

#x) です。入力値が 0 より大きい場合、ReLU 関数はその値を出力し、入力値が 0 以下の場合、ReLU 関数は 0 を出力します。

ReLU 関数のイメージ一般的に使用される AI 活性化関数の分析: Sigmoid、Tanh、ReLU、Softmax のディープラーニングの実践 アプリケーション シナリオ: ReLU 活性化関数は、深層学習モデル、特に畳み込みニューラル ネットワーク (CNN) 中間で広く使用されています。 。その主な利点は、計算が簡単で、勾配消失問題を効果的に軽減できること、および

によりモデルのトレーニングを高速化できることです。したがって、ReLU は、ディープ ニューラル ネットワークをトレーニングする際に優先される活性化関数としてよく使用されます。

次の利点があります:

  • 勾配消失問題の軽減: Sigmoid や Tanh などの活性化関数との比較、ReLU活性化値の方が効率的です。これが正の場合、勾配が小さくならないため、勾配消失の問題が回避されます。
  • トレーニングの高速化: ReLU のシンプルさと計算効率により、モデルのトレーニング プロセスを大幅に高速化できます。

欠点:

  • 「死んだニューロン」問題: 入力値が小さい場合または 0 に等しい場合、ReLU の出力は 0 になり、ニューロンが機能しなくなります。この現象は「デッド ニューロン」と呼ばれます。
  • 非対称性: ReLU の出力範囲は [0, ∞) であり、入力値が負の数の場合、出力はこれにより、ReLU 出力の非対称分布が生じ、生成の多様性が制限されます。

最適化計画:

  • リーキー ReLU: リーキー ReLU入力が 0 以下の場合、出力の傾きは小さくなり、完全な「デッド ニューロン」問題が回避されます。
  • パラメトリック ReLU (PReLU): Leaky ReLU とは異なり、PReLU の傾きは固定されていませんが、次の条件に基づいて調整できます。データの最適化を学びます。

4. ソフトマックス関数

一般的に使用される AI 活性化関数の分析: Sigmoid、Tanh、ReLU、Softmax のディープラーニングの実践ソフトマックス関数の公式

はじめに: Softmax は一般的に使用される活性化関数であり、主に多分類問題で使用され、入力ニューロンを確率分布に変換できます。主な特徴は、出力値の範囲が 0 ~ 1 であり、すべての出力値の合計が 1 になることです。

一般的に使用される AI 活性化関数の分析: Sigmoid、Tanh、ReLU、Softmax のディープラーニングの実践ソフトマックス計算プロセス

アプリケーション シナリオ:

  • 複数分類タスクでは、Convert を使用しました。ニューラル ネットワークの出力を確率分布に変換します。
  • 自然言語処理、画像分類、音声認識などの分野で広く使用されています。

次のような利点があります: 複数分類の問題では、各カテゴリに相対確率値を提供して、その後の意思決定と分類を容易にすることができます。

欠点: グラデーションの消失またはグラデーションの爆発の問題が発生します。

最適化スキーム:

  • ReLU などの他の活性化関数を使用する: 他の活性化関数を組み合わせて使用​​します。 ReLU またはその他のバリアント (Leaky ReLU および Parametric ReLU)。
  • 深層学習フレームワークで最適化手法を使用する: バッチ正規化、重み減衰など、深層学習フレームワーク (TensorFlow や PyTorch など) によって提供される最適化手法を使用します。


以上が一般的に使用される AI 活性化関数の分析: Sigmoid、Tanh、ReLU、Softmax のディープラーニングの実践の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。

ホットAIツール

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

写真から衣服を削除するオンライン AI ツール。

Undress AI Tool

Undress AI Tool

脱衣画像を無料で

Clothoff.io

Clothoff.io

AI衣類リムーバー

AI Hentai Generator

AI Hentai Generator

AIヘンタイを無料で生成します。

ホットツール

メモ帳++7.3.1

メモ帳++7.3.1

使いやすく無料のコードエディター

SublimeText3 中国語版

SublimeText3 中国語版

中国語版、とても使いやすい

ゼンドスタジオ 13.0.1

ゼンドスタジオ 13.0.1

強力な PHP 統合開発環境

ドリームウィーバー CS6

ドリームウィーバー CS6

ビジュアル Web 開発ツール

SublimeText3 Mac版

SublimeText3 Mac版

神レベルのコード編集ソフト(SublimeText3)

Bytedance Cutting が SVIP スーパー メンバーシップを開始: 継続的な年間サブスクリプションは 499 元で、さまざまな AI 機能を提供 Bytedance Cutting が SVIP スーパー メンバーシップを開始: 継続的な年間サブスクリプションは 499 元で、さまざまな AI 機能を提供 Jun 28, 2024 am 03:51 AM

このサイトは6月27日、JianyingはByteDanceの子会社であるFaceMeng Technologyによって開発されたビデオ編集ソフトウェアであり、Douyinプラットフォームに依存しており、基本的にプラットフォームのユーザー向けに短いビデオコンテンツを作成すると報告しました。 Windows、MacOS、その他のオペレーティング システム。 Jianyingは会員システムのアップグレードを正式に発表し、インテリジェント翻訳、インテリジェントハイライト、インテリジェントパッケージング、デジタルヒューマン合成などのさまざまなAIブラックテクノロジーを含む新しいSVIPを開始しました。価格的には、クリッピングSVIPの月額料金は79元、年会費は599元(当サイト注:月額49.9元に相当)、継続月額サブスクリプションは月額59元、継続年間サブスクリプションは、年間499元(月額41.6元に相当)です。さらに、カット担当者は、ユーザーエクスペリエンスを向上させるために、オリジナルのVIPに登録している人は、

Rag と Sem-Rag を使用したコンテキスト拡張 AI コーディング アシスタント Rag と Sem-Rag を使用したコンテキスト拡張 AI コーディング アシスタント Jun 10, 2024 am 11:08 AM

検索強化生成およびセマンティック メモリを AI コーディング アシスタントに組み込むことで、開発者の生産性、効率、精度を向上させます。 JanakiramMSV 著者の EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG から翻訳。基本的な AI プログラミング アシスタントは当然役に立ちますが、ソフトウェア言語とソフトウェア作成の最も一般的なパターンに関する一般的な理解に依存しているため、最も適切で正しいコードの提案を提供できないことがよくあります。これらのコーディング アシスタントによって生成されたコードは、彼らが解決する責任を負っている問題の解決には適していますが、多くの場合、個々のチームのコーディング標準、規約、スタイルには準拠していません。これにより、コードがアプリケーションに受け入れられるように修正または調整する必要がある提案が得られることがよくあります。

GenAI および LLM の技術面接に関する 7 つのクールな質問 GenAI および LLM の技術面接に関する 7 つのクールな質問 Jun 07, 2024 am 10:06 AM

AIGC について詳しくは、51CTOAI.x コミュニティ https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou を参照してください。これらの質問は、インターネット上のどこでも見られる従来の質問バンクとは異なります。既成概念にとらわれずに考える必要があります。大規模言語モデル (LLM) は、データ サイエンス、生成人工知能 (GenAI)、および人工知能の分野でますます重要になっています。これらの複雑なアルゴリズムは人間のスキルを向上させ、多くの業界で効率とイノベーションを推進し、企業が競争力を維持するための鍵となります。 LLM は、自然言語処理、テキスト生成、音声認識、推奨システムなどの分野で幅広い用途に使用できます。 LLM は大量のデータから学習することでテキストを生成できます。

微調整によって本当に LLM が新しいことを学習できるようになるのでしょうか: 新しい知識を導入すると、モデルがより多くの幻覚を生成する可能性があります 微調整によって本当に LLM が新しいことを学習できるようになるのでしょうか: 新しい知識を導入すると、モデルがより多くの幻覚を生成する可能性があります Jun 11, 2024 pm 03:57 PM

大規模言語モデル (LLM) は巨大なテキスト データベースでトレーニングされ、そこで大量の現実世界の知識を取得します。この知識はパラメータに組み込まれており、必要なときに使用できます。これらのモデルの知識は、トレーニングの終了時に「具体化」されます。事前トレーニングの終了時に、モデルは実際に学習を停止します。モデルを調整または微調整して、この知識を活用し、ユーザーの質問により自然に応答する方法を学びます。ただし、モデルの知識だけでは不十分な場合があり、モデルは RAG を通じて外部コンテンツにアクセスできますが、微調整を通じてモデルを新しいドメインに適応させることが有益であると考えられます。この微調整は、ヒューマン アノテーターまたは他の LLM 作成物からの入力を使用して実行され、モデルは追加の実世界の知識に遭遇し、それを統合します。

新しい科学的で複雑な質問応答ベンチマークと大規模モデルの評価システムを提供するために、UNSW、アルゴンヌ、シカゴ大学、およびその他の機関が共同で SciQAG フレームワークを立ち上げました。 新しい科学的で複雑な質問応答ベンチマークと大規模モデルの評価システムを提供するために、UNSW、アルゴンヌ、シカゴ大学、およびその他の機関が共同で SciQAG フレームワークを立ち上げました。 Jul 25, 2024 am 06:42 AM

編集者 |ScienceAI 質問応答 (QA) データセットは、自然言語処理 (NLP) 研究を促進する上で重要な役割を果たします。高品質の QA データ セットは、モデルの微調整に使用できるだけでなく、大規模言語モデル (LLM) の機能、特に科学的知識を理解し推論する能力を効果的に評価することもできます。現在、医学、化学、生物学、その他の分野をカバーする多くの科学 QA データ セットがありますが、これらのデータ セットにはまだいくつかの欠点があります。まず、データ形式は比較的単純で、そのほとんどが多肢選択式の質問であり、評価は簡単ですが、モデルの回答選択範囲が制限され、科学的な質問に回答するモデルの能力を完全にテストすることはできません。対照的に、自由回答型の Q&A

SOTA パフォーマンス、厦門マルチモーダルタンパク質-リガンド親和性予測 AI 手法、初めて分子表面情報を結合 SOTA パフォーマンス、厦門マルチモーダルタンパク質-リガンド親和性予測 AI 手法、初めて分子表面情報を結合 Jul 17, 2024 pm 06:37 PM

編集者 | KX 医薬品の研究開発の分野では、タンパク質とリガンドの結合親和性を正確かつ効果的に予測することが、医薬品のスクリーニングと最適化にとって重要です。しかし、現在の研究では、タンパク質とリガンドの相互作用における分子表面情報の重要な役割が考慮されていません。これに基づいて、アモイ大学の研究者らは、初めてタンパク質の表面、3D 構造、配列に関する情報を組み合わせ、クロスアテンション メカニズムを使用して異なるモダリティの特徴を比較する、新しいマルチモーダル特徴抽出 (MFE) フレームワークを提案しました。アライメント。実験結果は、この方法がタンパク質-リガンド結合親和性の予測において最先端の性能を達成することを実証しています。さらに、アブレーション研究は、この枠組み内でのタンパク質表面情報と多峰性特徴の位置合わせの有効性と必要性​​を実証しています。 「S」で始まる関連研究

あなたが知らない機械学習の 5 つの流派 あなたが知らない機械学習の 5 つの流派 Jun 05, 2024 pm 08:51 PM

機械学習は人工知能の重要な分野であり、明示的にプログラムしなくてもコンピューターにデータから学習して能力を向上させる機能を提供します。機械学習は、画像認識や自然言語処理から、レコメンデーションシステムや不正行為検出に至るまで、さまざまな分野で幅広く応用されており、私たちの生活様式を変えつつあります。機械学習の分野にはさまざまな手法や理論があり、その中で最も影響力のある 5 つの手法は「機械学習の 5 つの流派」と呼ばれています。 5 つの主要な学派は、象徴学派、コネクショニスト学派、進化学派、ベイジアン学派、およびアナロジー学派です。 1. 象徴主義は、象徴主義とも呼ばれ、論理的推論と知識の表現のためのシンボルの使用を強調します。この学派は、学習は既存の既存の要素を介した逆演繹のプロセスであると信じています。

AlphaFold 3 が発売され、タンパク質とすべての生体分子の相互作用と構造をこれまでよりもはるかに高い精度で包括的に予測します。 AlphaFold 3 が発売され、タンパク質とすべての生体分子の相互作用と構造をこれまでよりもはるかに高い精度で包括的に予測します。 Jul 16, 2024 am 12:08 AM

エディター | Radish Skin 2021 年の強力な AlphaFold2 のリリース以来、科学者はタンパク質構造予測モデルを使用して、細胞内のさまざまなタンパク質構造をマッピングし、薬剤を発見し、既知のあらゆるタンパク質相互作用の「宇宙地図」を描いてきました。ちょうど今、Google DeepMind が AlphaFold3 モデルをリリースしました。このモデルは、タンパク質、核酸、小分子、イオン、修飾残基を含む複合体の結合構造予測を実行できます。 AlphaFold3 の精度は、これまでの多くの専用ツール (タンパク質-リガンド相互作用、タンパク質-核酸相互作用、抗体-抗原予測) と比較して大幅に向上しました。これは、単一の統合された深層学習フレームワーク内で、次のことを達成できることを示しています。

See all articles