分類モデルの評価指標を 1 つの記事で読む
モデル評価はディープラーニングと機械学習の非常に重要な部分であり、モデルのパフォーマンスと効果を測定するために使用されます。この記事では、混同マトリックス、精度、適合率、再現率、F1 スコアを段階的に詳しく説明します
混同マトリックス
##混同行列は、分類問題におけるモデルのパフォーマンスを評価するために使用され、モデルがサンプルをどのように分類するかを示す表です。行は実際のカテゴリを表し、列は予測されたカテゴリを表します。 2 分類問題の場合、混同行列の構造は次のとおりです。
- 真陽性 (TP):は実際には正の例であり、モデルは正の例の数と正の例を正しく識別するモデルの能力を予測します。通常、より高い TP が望ましいです。
- 偽陰性 (FN): 実際には陽性であり、モデルによって陰性であると予測されるサンプルの数。アプリケーションによっては、これが重要になる場合があります (たとえば、 、セキュリティ上の脅威の検出に失敗します)。
- False Positive (FP): 実際には陰性例であり、モデルが陽性例を予測するサンプルの数。モデルが陽性を予測すべきでないときに陽性例を予測する状況を強調します。これはアプリケーションに応じた結果をもたらす可能性があります (医療診断における不必要な治療など)
- 真陰性 (TN): 実際には陰性であり、モデルによって陰性であると予測されたサンプルの数、ネガティブなインスタンスを正しく識別するモデルの能力を反映しています。通常、より高い TN
- 初心者にとってはわかりにくいように思えるかもしれませんが、実際は非常に簡単です。後ろの Negative/Positive はモデルの予測値、手前の True/False はモデルの予測の精度です。たとえば、True Negative は、モデルの予測が負であり、実際の値と一致している、つまり予測が正しいことを意味します。これにより、理解しやすくなります。単純な混同行列を次に示します。
from sklearn.metrics import confusion_matrix import seaborn as sns import matplotlib.pyplot as plt # Example predictions and true labels y_true = [1, 0, 1, 1, 0, 1, 0, 0, 1, 0] y_pred = [1, 0, 1, 0, 0, 1, 0, 1, 1, 1] # Create a confusion matrix cm = confusion_matrix(y_true, y_pred) # Visualize the blueprint sns.heatmap(cm, annot=True, fmt="d", cmap="Blues", xticklabels=["Predicted 0", "Predicted 1"], yticklabels=["Actual 0", "Actual 1"]) plt.xlabel("Predicted") plt.ylabel("Actual") plt.show()
例として、スパム分類器について説明します。混同行列は、分類器が正しく識別したスパムメールの数と、誤ってスパムとしてマークされた非スパムメールの数を理解するのに役立ちます。
混同行列に基づいて、他の多くのメールを計算できます。精度、精度、再現率、F1 スコアなどの評価指標。
#精度
##上記の概要によれば、計算されるのは正しく予測できる割合です。分子は TP と TN の両方が True であり、これはモデルによる正しい予測の総数です。
精度
式をご覧ください。これは陽性の割合、つまりデータ内の陽性の数が正しく予測されることを計算するため、精度は精度率とも呼ばれます
#これは、誤検知が重大な結果やコストをもたらす状況で重要になります。医療診断モデルを例に挙げると、本当に治療が必要な人だけが治療を受けられるよう精度を確保します
Recall
Recall回収率とも呼ばれる率は感度または真陽性率であり、すべての陽性例を捕捉するモデルの能力を指します。式からわかるように、その主な目的は、モデルによって捕捉された実際の正例の数、つまり正例の割合を計算することです。したがって、再現率は再現率とも呼ばれます
F1 スコア
F1 スコアの計算式は次のとおりです。
F1 = 2 * (精度 * リコール) / (精度のリコール)
このうち、適合率とは、モデルによって陽性例として予測されたサンプルのうち、実際に陽性例であるサンプルの割合を指し、再現率とは、モデルによって陽性例として正しく予測されたサンプル数と、実際に陽性例であるサンプル数の割合を指します。ポジティブな例。 F1 スコアは精度と再現率の調和平均であり、モデルの精度と包括性を総合的に考慮してモデルのパフォーマンスを評価できます。 F1 スコアは、精度と再現率の間のトレードオフを提供するため重要です。精度と再現率のバランスを見つけたい場合、または一般的なアプリケーションの場合は、F1 スコア
總結
在本文中,我們詳細介紹了混淆矩陣、準確度、精確度、召回率和F1分數,並指出這些指標可以有效評估和提升模型的效能
以上が分類モデルの評価指標を 1 つの記事で読むの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ホットAIツール

Undresser.AI Undress
リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover
写真から衣服を削除するオンライン AI ツール。

Undress AI Tool
脱衣画像を無料で

Clothoff.io
AI衣類リムーバー

AI Hentai Generator
AIヘンタイを無料で生成します。

人気の記事

ホットツール

メモ帳++7.3.1
使いやすく無料のコードエディター

SublimeText3 中国語版
中国語版、とても使いやすい

ゼンドスタジオ 13.0.1
強力な PHP 統合開発環境

ドリームウィーバー CS6
ビジュアル Web 開発ツール

SublimeText3 Mac版
神レベルのコード編集ソフト(SublimeText3)

ホットトピック









機械学習とデータ サイエンスの分野では、モデルの解釈可能性が常に研究者や実務家に焦点を当ててきました。深層学習やアンサンブル手法などの複雑なモデルが広く適用されるようになったことで、モデルの意思決定プロセスを理解することが特に重要になってきました。 Explainable AI|XAI は、モデルの透明性を高めることで、機械学習モデルに対する信頼と自信を構築するのに役立ちます。モデルの透明性の向上は、複数の複雑なモデルの普及や、モデルを説明するための意思決定プロセスなどの方法によって実現できます。これらの方法には、特徴重要度分析、モデル予測間隔推定、ローカル解釈可能性アルゴリズムなどが含まれます。特徴重要度分析では、入力特徴に対するモデルの影響度を評価することで、モデルの意思決定プロセスを説明できます。モデルの予測間隔の推定

以前に書きましたが、今日は、深層学習テクノロジーが複雑な環境におけるビジョンベースの SLAM (同時ローカリゼーションとマッピング) のパフォーマンスをどのように向上させることができるかについて説明します。ここでは、深部特徴抽出と深度マッチング手法を組み合わせることで、低照度条件、動的照明、テクスチャの弱い領域、激しいセックスなどの困難なシナリオでの適応を改善するように設計された多用途のハイブリッド ビジュアル SLAM システムを紹介します。当社のシステムは、拡張単眼、ステレオ、単眼慣性、ステレオ慣性構成を含む複数のモードをサポートしています。さらに、他の研究にインスピレーションを与えるために、ビジュアル SLAM と深層学習手法を組み合わせる方法も分析します。公開データセットと自己サンプリングデータに関する広範な実験を通じて、測位精度と追跡堅牢性の点で SL-SLAM の優位性を実証しました。

この記事では、学習曲線を通じて機械学習モデルの過学習と過小学習を効果的に特定する方法を紹介します。過小適合と過適合 1. 過適合 モデルがデータからノイズを学習するためにデータ上で過学習されている場合、そのモデルは過適合していると言われます。過学習モデルはすべての例を完璧に学習するため、未確認の新しい例を誤って分類してしまいます。過適合モデルの場合、完璧/ほぼ完璧なトレーニング セット スコアとひどい検証セット/テスト スコアが得られます。若干修正: 「過学習の原因: 複雑なモデルを使用して単純な問題を解決し、データからノイズを抽出します。トレーニング セットとしての小さなデータ セットはすべてのデータを正しく表現できない可能性があるため、2. 過学習の Heru。」

1950 年代に人工知能 (AI) が誕生しました。そのとき、研究者たちは、機械が思考などの人間と同じようなタスクを実行できることを発見しました。その後、1960 年代に米国国防総省は人工知能に資金を提供し、さらなる開発のために研究所を設立しました。研究者たちは、宇宙探査や極限環境での生存など、多くの分野で人工知能の応用を見出しています。宇宙探査は、地球を超えた宇宙全体を対象とする宇宙の研究です。宇宙は地球とは条件が異なるため、極限環境に分類されます。宇宙で生き残るためには、多くの要素を考慮し、予防策を講じる必要があります。科学者や研究者は、宇宙を探索し、あらゆるものの現状を理解することが、宇宙の仕組みを理解し、潜在的な環境危機に備えるのに役立つと信じています。

C++ の機械学習アルゴリズムが直面する一般的な課題には、メモリ管理、マルチスレッド、パフォーマンスの最適化、保守性などがあります。解決策には、スマート ポインター、最新のスレッド ライブラリ、SIMD 命令、サードパーティ ライブラリの使用、コーディング スタイル ガイドラインの遵守、自動化ツールの使用が含まれます。実践的な事例では、Eigen ライブラリを使用して線形回帰アルゴリズムを実装し、メモリを効果的に管理し、高性能の行列演算を使用する方法を示します。

翻訳者 | Li Rui によるレビュー | 今日、人工知能 (AI) および機械学習 (ML) モデルはますます複雑になっており、これらのモデルによって生成される出力はブラックボックスになっており、関係者に説明することができません。 Explainable AI (XAI) は、利害関係者がこれらのモデルがどのように機能するかを理解できるようにし、これらのモデルが実際に意思決定を行う方法を確実に理解できるようにし、AI システムの透明性、信頼性、およびこの問題を解決するための説明責任を確保することで、この問題を解決することを目指しています。この記事では、さまざまな説明可能な人工知能 (XAI) 手法を検討して、その基礎となる原理を説明します。説明可能な AI が重要であるいくつかの理由 信頼と透明性: AI システムが広く受け入れられ、信頼されるためには、ユーザーは意思決定がどのように行われるかを理解する必要があります

MetaFAIR はハーバード大学と協力して、大規模な機械学習の実行時に生成されるデータの偏りを最適化するための新しい研究フレームワークを提供しました。大規模な言語モデルのトレーニングには数か月かかることが多く、数百、さらには数千の GPU を使用することが知られています。 LLaMA270B モデルを例にとると、そのトレーニングには合計 1,720,320 GPU 時間が必要です。大規模なモデルのトレーニングには、これらのワークロードの規模と複雑さにより、特有のシステム上の課題が生じます。最近、多くの機関が、SOTA 生成 AI モデルをトレーニングする際のトレーニング プロセスの不安定性を報告しています。これらは通常、損失スパイクの形で現れます。たとえば、Google の PaLM モデルでは、トレーニング プロセス中に最大 20 回の損失スパイクが発生しました。数値的なバイアスがこのトレーニングの不正確さの根本原因です。

機械学習は人工知能の重要な分野であり、明示的にプログラムしなくてもコンピューターにデータから学習して能力を向上させる機能を提供します。機械学習は、画像認識や自然言語処理から、レコメンデーションシステムや不正行為検出に至るまで、さまざまな分野で幅広く応用されており、私たちの生活様式を変えつつあります。機械学習の分野にはさまざまな手法や理論があり、その中で最も影響力のある 5 つの手法は「機械学習の 5 つの流派」と呼ばれています。 5 つの主要な学派は、象徴学派、コネクショニスト学派、進化学派、ベイジアン学派、およびアナロジー学派です。 1. 象徴主義は、象徴主義とも呼ばれ、論理的推論と知識の表現のためのシンボルの使用を強調します。この学派は、学習は既存の既存の要素を介した逆演繹のプロセスであると信じています。
