ホームページ > テクノロジー周辺機器 > AI > 説明可能な人工知能システム (XAI) を構築するための 6 つの推奨 Python フレームワーク

説明可能な人工知能システム (XAI) を構築するための 6 つの推奨 Python フレームワーク

WBOY
リリース: 2023-04-26 10:49:08
転載
1928 人が閲覧しました

AI は独自に意思決定できるブラック ボックスのようなものですが、その理由は人々にはわかりません。 AIモデルを構築し、データを入力し、結果を出力しますが、問題の1つは、AIがなぜそのような結論に達するのかを説明できないことです。文脈や説明なしに出力された結果をただ受け入れるのではなく、AI がどのようにして特定の結論に達するのか、その背後にある理由を理解する必要があります。

解釈可能性は人々が理解できるように設計されています:

  • どのように学習されますか?
  • 何が学習されますか?
  • なぜ特定の入力がそのようなものになるのかa Decision?
  • Is the Decision Reliable?

この記事では、解釈可能性を高めるための 6 つの Python フレームワークを紹介します。

SHAP

SHapley 加算的説明 (SHApley 加算的説明) は、機械学習モデルの出力を説明するためのゲーム理論手法です。ゲーム理論とその関連拡張からの古典的な Shapley 値を利用して、最適なクレジット割り当てをローカルな解釈に関連付けます (詳細と引用については論文を参照してください)。

データセット内の各特徴のモデル予測への寄与は、Shapley 値によって説明されます。 Lundberg と Lee の SHAP アルゴリズムは 2017 年に初めて公開され、このアルゴリズムはさまざまな分野のコミュニティで広く採用されています。

六个优秀的可解释AI (XAI)的Python框架推荐

pip または conda を使用して、shap ライブラリをインストールします。

# install with pippip install shap# install with condaconda install -c conda-forge shap
ログイン後にコピー

六个优秀的可解释AI (XAI)的Python框架推荐

Shap ライブラリを使用してウォーターフォール チャートを作成します

六个优秀的可解释AI (XAI)的Python框架推荐

##Shap ライブラリを使用して Beeswarm チャートを作成します

六个优秀的可解释AI (XAI)的Python框架推荐##Shap ライブラリを使用した部分依存関係グラフの構築

LIME

解釈可能性の分野では、最初によく知られたメソッドの 1 つは LIME です。これは、機械学習モデルがどのようなものを学習しているのか、そしてなぜ特定の方法で予測するのかを説明するのに役立ちます。 Lime は現在、表形式データ、テキスト分類子、および画像分類子の解釈をサポートしています。

モデルがそのように予測する理由を知ることは、アルゴリズムを調整する上で非常に重要です。 LIME の説明を読めば、モデルがなぜこのように動作するのかが理解できます。モデルが計画どおりに実行されない場合は、データ準備フェーズで間違いが発生した可能性があります。

#pip を使用してインストール六个优秀的可解释AI (XAI)的Python框架推荐

pip install lime
ログイン後にコピー

##LIME が作成した説明図の一部

六个优秀的可解释AI (XAI)的Python框架推荐

LIME によって構築された Beeswarm グラフ

六个优秀的可解释AI (XAI)的Python框架推荐Shapash

「Shapash は、機械学習を誰にとっても解釈可能かつ理解できるようにする Python ライブラリです。Shapash は、いくつかの種類の視覚化を提供し、明確なラベルを表示します。 「誰もが理解できます。データ サイエンティストは、より簡単にモデルを理解し、結果を共有できます。エンド ユーザーは、最も標準的な概要を使用して、モデルがどのように判断したかを理解できます。」

# #ストーリー、洞察、および情報を含む調査結果を表現するためデータ内のモデル、対話性、美しいグラフが不可欠です。ビジネスおよびデータ サイエンティスト/アナリストが AI/ML の結果を提示して操作するための最良の方法は、結果を視覚化して Web 上に公開することです。 Shapash ライブラリは、インタラクティブなダッシュボードを生成でき、多くの視覚化チャートのコレクションを備えています。形状/ライムの解釈可能性に関連します。 SHAP/Lime をバックエンドとして使用できるため、見栄えの良いチャートのみが提供されます。

#Shapash を使用した機能貢献グラフの構築

六个优秀的可解释AI (XAI)的Python框架推荐

Shapash ライブラリを使用して作成されたインタラクティブ ダッシュボード

六个优秀的可解释AI (XAI)的Python框架推荐#Shapash を使用して構築された部分解釈グラフ

InterpretML

InterpretML は、機械学習の解釈可能性アルゴリズムを研究者に提供するオープンソースの Python パッケージです。 InterpretML は、解釈可能なモデル (グラスボックス) のトレーニングと、既存の ML パイプラインの解釈 (ブラックボックス) をサポートします。 六个优秀的可解释AI (XAI)的Python框架推荐

InterpretML は、2 種類の解釈可能性を示します。グラスボックス モデル – 解釈可能性を目的に設計された機械学習モデル (例: 線形モデル、ルール リスト、一般化された加算モデル)、およびブラック ボックス解釈可能性手法 – 既存のシステムを説明するために使用されます (例: 部分依存関係、LIME)。 。統合 API を使用し、複数のメソッドをカプセル化し、組み込みの拡張可能な視覚化プラットフォームを備えたこのパッケージにより、研究者は解釈可能アルゴリズムを簡単に比較できます。 InterpretML には、説明ブースティング マシンの最初の実装も含まれています。これは、多くのブラック ボックス モデルと同じくらい正確な、強力で解釈可能なガラスボックス モデルです。

六个优秀的可解释AI (XAI)的Python框架推荐

#InterpretML を使用して構築されたローカル説明対話型グラフ

六个优秀的可解释AI (XAI)的Python框架推荐

InterpretML を使用して構築されたグローバル説明グラフ

#ELI5

ELI5 は、機械学習分類器のデバッグとその予測の解釈に役立つ Python ライブラリです。現在、次の機械学習フレームワークがサポートされています:

scikit-learn
  • XGBoost、LightGBM CatBoost
  • Keras
  • ELI5 には 2 つあります。分類または回帰モデルを説明する主な方法:

モデルのパラメーターを調べて、モデルがグローバルにどのように機能するかを説明します。
  • モデルの個々の予測を調べて、モデルが何を行うかを説明します。決める。

#ELI5 ライブラリを使用してグローバル ウェイトを生成する六个优秀的可解释AI (XAI)的Python框架推荐

ELI5 ライブラリを使用してローカル ウェイトを生成する六个优秀的可解释AI (XAI)的Python框架推荐

OmniXAI

OmniXAI (Omni Explained AI の略) は、Salesforce によって最近開発され、オープンソース化された Python ライブラリです。実際に機械学習モデルを生成する際に判断が必要ないくつかの問題を解決するために、説明可能な人工知能と説明可能な機械学習の機能を幅広く提供します。 OmniXAI は、ML プロセスのさまざまな段階でさまざまなタイプのデータ、モデル、説明手法を解釈する必要があるデータ サイエンティストや ML 研究者向けに、説明可能な AI をシンプルにするワンストップの包括的なライブラリを提供したいと考えています。

以下は、OmniXAI が提供するものと他の同様のライブラリとの比較です。六个优秀的可解释AI (XAI)的Python框架推荐

以上が説明可能な人工知能システム (XAI) を構築するための 6 つの推奨 Python フレームワークの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

関連ラベル:
ソース:51cto.com
このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
最新の問題
人気のチュートリアル
詳細>
最新のダウンロード
詳細>
ウェブエフェクト
公式サイト
サイト素材
フロントエンドテンプレート