ホームページ テクノロジー周辺機器 AI ICML 2024 | 特徴汚染: ニューラル ネットワークは無関係な特徴を学習し、一般化できない

ICML 2024 | 特徴汚染: ニューラル ネットワークは無関係な特徴を学習し、一般化できない

Jun 24, 2024 pm 02:17 PM
理論

ICML 2024 | 特征污染:神经网络会学习不相关特征而泛化失败

  • 論文タイトル: 特徴汚染: ニューラルネットワークは相関のない特徴を学習し、一般化に失敗する
  • 論文リンク: https://arxiv.org/pdf/2406.03345
  • コードリンク: https:/ /github.com/trzhang0116/feature-contamination

近年の GPT に代表される大規模モデルの大成功により、ディープ ニューラル ネットワーク + SGD + スケーリングの機械学習パラダイムが AI ステータスの分野での優位性を再び証明しました。 。ディープ ニューラル ネットワークに基づくパラダイムが成功するのはなぜですか?より一般的な見解は、ニューラル ネットワークには、大量の高次元入力データから抽象的で一般化可能な特徴を自動的に学習する機能があるというものです。残念ながら、現在の分析方法と数学的ツールの欠点により、「(深い) ニューラル ネットワークがそのような 特徴学習 プロセスをどのように実装するか」についての現在の理解はまだそれほど深くありません。このため、学術コミュニティにおける現在の関連研究のほとんどは、依然としてモデルが学習した特徴を「説明する」レベルに留まっており、データへの「介入」を通じてよりデータ効率が高く、より一般化可能なモデルを取得することは困難です。その学習プロセス。 ニューラル ネットワークの特徴学習プロセスについて議論するとき、最も基本的な質問の 1 つは、「ニューラル ネットワークは入力データからどのような特徴を学習するのか?」ということです。目標の観点から見ると、ニューラル ネットワークの特徴学習はタスクによって引き起こされる「副産物」であり、その目的はトレーニング エラーを最小限に抑えることです。したがって、ニューラル ネットワークはデータから「タスクに関連する」特徴を抽出し、残りの「タスクに無関係な」特徴はデータ ノイズに相当すると直感的に考えるでしょう。すると、ニューラルネットワークには「必要でなければ学習しない」という特性(正確には単純性バイアス)があるため、ニューラルネットワークは学習しない傾向があるはずです。これは現在の文献でも一般的な見解です。

しかし、ICML 2024 に承認された私たちの最近の研究では、この直感的な認識が実際には

間違っている

ことが分かりました。具体的には、非線形ニューラル ネットワークがタスク関連の特徴を学習すると、タスクに関係のない特徴も学習する傾向があり (これを「特徴汚染」と呼びます)、この傾向がニューラル ネットワークにとって困難になることがわかりました。ネットワークを分散シフトのあるシナリオに一般化します。理論的には、特徴の汚染が単純な 2 層 ReLU ネットワークでも発生し、ニューラル ネットワークにおける ニューロンの活性化 のカテゴリの非対称性と密接に関連していることを証明しました。また、実験的には、特徴の汚染が深層にも存在するという一連の証拠も示しました。 ResNet や Vision トランスフォーマーなどのネットワークに影響を与え、その一般化に悪影響を及ぼします。 私たちが発見した故障モードは、現在の流通外 (OOD) 一般化文献における偽の相関に基づく主流の分析とは完全に直交していることは言及する価値があります。したがって、より大きな観点から見ると、私たちの調査結果は、OOD の一般化にとってニューラル ネットワーク自体の帰納的バイアスの重要性を示しています。また、ニューラル ネットワークの特徴の学習と一般化に関する多くの研究の直観も再考する必要がある可能性があることを示しています。

次に、記事の具体的な内容をご紹介します:

研究の背景

データ分布が変化するシナリオにおける汎化能力(つまり、OOD汎化能力)は、機械学習システムがどのようなシナリオで実行できるかを示す尺度です。現実性 環境内での展開を示す重要な指標の 1 つ。ただし、現在のニューラル ネットワークは、OOD 一般化シナリオで大幅なパフォーマンスの損失を受けることがよくあります。 OOD 一般化が失敗する理由については、文献でより主流の記述は、表現に偽の相関が存在する、つまり、モデルはタスクの目標に関連するが因果関係のない特徴を学習することになる、というものです。したがって、分布の変化によりこれらの特徴とタスク目標の間の相関関係が変化すると、予測にこれらの特徴に依存するモデルは元のパフォーマンスを保証できなくなります。

上記の理論的説明は非常に直感的で自然であり、近年の OOD アルゴリズム研究を導く主要な方針にもなっています。つまり、より優れた最適化目的関数と正規項を設計することで、モデルは誤った相関なしにより良い表現を学習できます。より強力な汎化性能を得るために。近年、この主要な方向に沿って、アルゴリズム設計を通じてモデルの OOD 一般化を改善しようとする多くの作業が行われてきました。ただし、最近の研究では、理論的保証が組み込まれた多くのアルゴリズムでは、実際のデータに基づく OOD 一般化タスクのパフォーマンス向上が非常に限られていることが示されています。 なぜこんなことが起こるのでしょうか?私たちは、OOD 一般化研究における現在の困難は、既存の分析の

2 つの制限

に起因している可能性があると考えています。

  • 既存の研究のほとんどは偽相関によって引き起こされる故障モードのみを考慮しています
  • 現在の研究のほとんどは線形モデルに限定されており、ニューラルネットワークの非線形性とSGDの誘導バイアスを考慮していないため、既存の解析結果は実際に使用するニューラルネットワークに必ずしも適しているとは限りません。

言い換えれば、OOD 一般化の現在の説明と理論モデルは、現実世界の分布シフト シナリオを正確に反映していない可能性があります。したがって、ディープ ニューラル ネットワークに基づく OOD の一般化を理解するには、ニューラル ネットワークと SGD の誘導バイアスを考慮することが非常に必要であると考えられます。

実験

まず、実験計画を通じて、表現学習目標に基づいて設計された現在の OOD 一般化アルゴリズムによって達成できる「パフォーマンスの上限」を推定します。偽相関理論の指導の下、既存の研究は主に、補助表現学習目的関数を設計することによって、OOD によって一般化できる表現を学習するようにモデルを制約することを試みています。このような目標を最適化することで実際に望ましい表現を抽出できるかどうかを研究するために、私たちは理想的なシナリオを設計しました:

  • まず、トレーニング プロセス中に、モデルが OOD によって一般化できる教師モデルに明示的に適合できるようにしました。抽出された表現は表現の蒸留です。実験では、この教師モデルは大規模な事前トレーニング済みモデル (CLIP など) にすることができます。変数を制御するために、実際の運用では生徒モデルと教師モデルのモデル構造が全く同じになるように制御します。
  • 2 番目のステップでは、教師モデルと生徒モデルによってそれぞれ提供される表現に基づいて、トレーニング セット上で線形分類器 (線形プローブ) をトレーニングします。 ,
  • 最後に、教師モデルと学生モデルに基づく線形分類器を、それぞれ同一に分散されたテスト セットと OOD テスト セットでテストし、これら 2 つのモデルによって抽出された表現の OOD 一般化を測定しました。

ICML 2024 | 特征污染:神经网络会学习不相关特征而泛化失败

実験結果は上の写真に示されています。この図から、主な結果が 2 つあります:

  • トレーニング プロセス中に教師モデルの表現に直接適合しない標準モデル (青) と比較して、学生モデル (オレンジ) に基づく線形分類器は OOD 一般化性が優れています。 ;
  • ただし、学生モデルに基づく線形分類器 (オレンジ色) の OOD 一般化パフォーマンスは、教師モデルに基づく線形分類器 (紫色) よりも大幅に遅れています。

そこで、私たちは自然にこう尋ねます: 教師モデルの表現を直接当てはめたので、生徒モデルと教師モデルの間の一般化ギャップはどこから来るのでしょうか?この実験現象を既存の理論的説明で直接説明するのは難しいことがわかりました:

  • まず第一に、このギャップは偽相関理論では直接説明できません。トレーニング セット) が基本的に同じである場合、これら 2 つの表現に基づく線形分類器はトレーニング プロセス中に同様に誤った相関特徴の影響を受けるはずであり、それほど大きなギャップがあるはずはありません
  • もう 1 つの考えられる説明は、教師モデル (そのような) です。 CLIP として) は、独自の事前トレーニング プロセス中に多くの OOD サンプルを「見た」可能性があるため、OOD サンプルのトレーニング セットでは見つからないいくつかの特徴を抽出できます。ただし、最近の研究では、OOD テスト サンプルに類似したすべてのサンプルが CLIP の事前トレーニング データから削除されたとしても、CLIP には依然として強力な OOD 一般化機能があることが示されています [1]。これは、教師モデルと生徒モデルの間のギャップを単にこの観点から説明するだけでは十分ではないことを示しています。

要するに、既存の分析 では、実験で実際に観察された OOD 汎化能力のギャップ を説明するには不十分であると考えています。同時に、「OODで一般化できる表現を直接当てはめる」だけではOODで一般化できるモデルを保証できないため、表現学習の「目標」に加えて、表現学習の「プロセス」も考慮する必要があります。表現学習」、これはニューラル ネットワークの特徴学習ダイナミクスによって引き起こされる帰納的バイアスです。理論的にディープニューラルネットワークの特徴学習プロセスを直接分析することは非常に困難ですが、2層のReLUネットワークであっても興味深い特徴学習傾向、つまり「特徴汚染」を示すことがわかり、この傾向はまた、ニューラル ネットワークの OOD 一般化にも直接関連しています。

理論

このセクションでは、2 層 ReLU ネットワークに基づく二値分類問題における「特徴汚染」現象の存在を証明し、この現象の原因を分析します。具体的には、ネットワークへの入力が「コア特徴」と「バックグラウンド特徴」という 2 つの特徴の線形結合で構成されていると仮定します。このうち、コア特徴量の分布はカテゴリラベルに依存します(画像分類問題における分類対象として視覚化できます)が、背景特徴量の分布はラベルとは無関係です(画像分類問題で分類対象として視覚化できます)。画像分類問題における画像の背景やその他の要素)。他の要因の干渉を排除するために、これら 2 種類の特徴について次の仮定も立てます。

  • 背景の特徴はラベルと相関していません (したがって、偽の相関によって引き起こされる障害モードを排除します)。
  • コア機能は 100% の精度でラベルを予測できます (これにより、トレーニング セットの不十分な機能によって引き起こされる失敗モードが排除されます)。
  • コア フィーチャとバックグラウンド フィーチャは、直交する部分空間に分散されます (このようにして、分離が難しいさまざまなフィーチャによって引き起こされる故障モードを除外します)。

上記の条件下でも、ニューラル ネットワークはコア機能を学習しながら、タスクにまったく無関係な背景機能も学習することがわかりました。ネットワークの重み空間におけるこれら 2 つのフィーチャの結合により、バックグラウンド フィーチャで発生する分布シフトによってニューラル ネットワークのエラーも増加し、それによってネットワークの OOD 一般化が減少します。したがって、このニューラルネットワークの特徴学習の好みを「特徴汚染」と呼びます。以下では、機能汚染の原因を詳しく紹介します。全体的な分析アイデアの概略図は次のとおりです:

ICML 2024 | 特征污染:神经网络会学习不相关特征而泛化失败

私たちの分析における 重要なポイントは、実際には、特徴汚染が、ニューラル ネットワーク内のニューロンがしばしば 非対称活性化 (非対称活性化) を持っているという事実に関連しているということです。さまざまなカテゴリに対応します。具体的には、十分な SGD 反復の後、ネットワーク内のニューロンの少なくとも重要な部分が、カテゴリのサンプルと正の相関を持つ傾向があることを証明できます (これらをこのニューロンの正のサンプルと呼び、yposを使用します)はそのカテゴリを表します)、別のカテゴリのサンプルとの負の相関を維持しています(これをこのニューロンの負のサンプルと呼び、ynegはそのカテゴリを表します)。これは、定理 4.1 で示されているように、これらのニューロンの活性化においてカテゴリーの非対称性をもたらします。まず、ネットワークの隠れ層の k 番目のニューロンについて、その重みベクトル w

k

が t 回目の反復後に分割できることに気づきます。 上の式では、 SICML 2024 | 特征污染:神经网络会学习不相关特征而泛化失败core

とS

bg はそれぞれコア特徴と背景特徴のセットを表し、各 mj

はコア特徴または背景特徴に対応します。この式から、ニューロンの重みをさまざまな特徴への投影に分解できることがわかります (ここでは、さまざまな m

jICML 2024 | 特征污染:神经网络会学习不相关特征而泛化失败 が直交する単位ベクトルであると仮定します)。さらに、各背景特徴 m

j

、j に対する wk の負の勾配の投影が Sbg に属することを証明できます。 カテゴリ非対称活性化を持つニューロンの場合、定理によると4.1 より、その勾配は主にニューロンの正のサンプル y=ypos に依存し、負のサンプル y=yneg とはほとんど関係がないことがわかります。これにより、陽性サンプルに存在するコア フィーチャと背景フィーチャが同時に正の勾配投影を取得します。このプロセスは、フィーチャとラベル間の相関とは何の関係もありません。

定理 4.2 に示されているように、十分な SGD 反復の後、上記の勾配射影の蓄積により、ニューロンによって学習された特徴にコア特徴と結合された背景特徴の両方が含まれるようになることが証明されます。ニューロンの重みにおけるコア フィーチャとバックグラウンド フィーチャの分布が負になると、バックグラウンド フィーチャの負の分布シフトによりニューロンの活性化が減少し、追加の OOD エラーが発生します。定理 4.3 に示されているように、ID と OOD の汎化リスクに対する特徴汚染の影響を定量的に説明します。

ICML 2024 | 特征污染:神经网络会学习不相关特征而泛化失败

同時に、非線形活性化関数から生じる特徴汚染の間の関係をさらに説明するために、ニューラル ネットワーク、ニューラル ネットワークの非線形性を除去すると、特徴汚染は発生しなくなることを証明します:

以下の図に示すように、数値実験を通じて理論結果を検証しました。同時に、2 層 ReLU ネットワーク + SGD に加えて、他のタイプの活性化関数、適応ステップ サイズを備えたオプティマイザーなど、より一般的な設定にも結論を拡張しました。結果を図 3 に示します( d) )、特徴の汚染がより一般的な環境でも蔓延していることを示しています。

ICML 2024 | 特征污染:神经网络会学习不相关特征而泛化失败

同時に、私たちが日常的に使用している ResNet や Vision トランスフォーマーなどの深層ネットワーク でも機能汚染の現象が発生し、私たちの実験での観察 OOD 一般化ギャップに達しました。この部分に興味がある人は、元の論文の第 5 章を参照してください。

要約とディスカッション

最後に、将来的により重要になる可能性がある/さらに深く継続できる可能性のあるいくつかの研究ポイントをリストします。さらに私たちとコミュニケーションをとることに興味があるすべての人を歓迎します:

  • より深いネットワーク。 :とはいえ、私たちはディープネットワークにも機能汚染の問題があることを実験的に証明しましたが、これまでのところ、私たちの理論分析は2層のReLUネットワークのみを行っています。私たちは、特徴の汚染はより一般的な概念である可能性があり、カテゴリごとのニューロンの活性化の非対称性が、その発生の理由の 1 つにすぎないのではないかと考えています。より深いネットワークやより複雑なネットワーク構造 (正規化層の導入など) を分析することで、機能汚染のより多くの原因を発見し、的を絞ったソリューションを提供できる可能性があります。
  • 事前トレーニングの役割: この記事の理論分析では、ゼロからトレーニングする場合のみを考慮していますが、実際に使用するモデルは、多くの場合、事前トレーニングされたモデルです。事前トレーニングがモデルの OOD 一般化の改善に役立つことを示す実験的証拠は数多くあります。では、この一般化の改善の本質は、機能汚染の問題の軽減に関連しているのでしょうか。事前トレーニングはどのようにしてこれを行うのでしょうか?
  • 機能汚染の問題を解決する方法: 私たちの研究は機能汚染の問題を指摘しましたが、まだ明確な解決策は与えられていません。しかし、私たちのその後の研究の一部では、大規模なモデルを微調整するときにも同様の問題が発生することが示されており、勾配調整に基づくいくつかの方法が実際にこの問題を軽減し、それによって微調整モデルの一般化が大幅に改善されることもわかりました。能力。この部分の具体的な内容についても今後公開していきますので、ぜひ注目していただければと思います。

著者について | この記事の著者である Zhang Tianren は、清華大学オートメーション学科の博士号取得者であり、指導教員は Chen 教授です。フォン。著者は博士課程の期間中、主に機械学習における表現学習と一般化の問題に関する理論的およびアルゴリズム的研究を行い、ICML、NeurIPS、ICLR、IEEE TPAMI などの主要な機械学習会議やジャーナルに多くの論文を発表しました。

著者の所属 | 清華大学 VIPLAB

連絡先メールアドレス | zhangtr22@mails.tsinghua.edu.cn

参考文献

[1] Mayilvahanan, P.、Wiedemer, T.、Rusak, E 。 、Bethge, M.、Brendel, W. CLIP の汎化パフォーマンスは主にトレーニングとテストの類似性の高さから生じていますか? 2024 年の学習表現に関する国際会議で。

以上がICML 2024 | 特徴汚染: ニューラル ネットワークは無関係な特徴を学習し、一般化できないの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。

ホットAIツール

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

写真から衣服を削除するオンライン AI ツール。

Undress AI Tool

Undress AI Tool

脱衣画像を無料で

Clothoff.io

Clothoff.io

AI衣類リムーバー

Video Face Swap

Video Face Swap

完全無料の AI 顔交換ツールを使用して、あらゆるビデオの顔を簡単に交換できます。

ホットツール

メモ帳++7.3.1

メモ帳++7.3.1

使いやすく無料のコードエディター

SublimeText3 中国語版

SublimeText3 中国語版

中国語版、とても使いやすい

ゼンドスタジオ 13.0.1

ゼンドスタジオ 13.0.1

強力な PHP 統合開発環境

ドリームウィーバー CS6

ドリームウィーバー CS6

ビジュアル Web 開発ツール

SublimeText3 Mac版

SublimeText3 Mac版

神レベルのコード編集ソフト(SublimeText3)

「Defect Spectrum」は、従来の欠陥検出の限界を打ち破り、超高精度かつ豊富なセマンティックな産業用欠陥検出を初めて実現します。 「Defect Spectrum」は、従来の欠陥検出の限界を打ち破り、超高精度かつ豊富なセマンティックな産業用欠陥検出を初めて実現します。 Jul 26, 2024 pm 05:38 PM

現代の製造において、正確な欠陥検出は製品の品​​質を確保するための鍵であるだけでなく、生産効率を向上させるための核心でもあります。ただし、既存の欠陥検出データセットには、実際のアプリケーションに必要な精度や意味論的な豊富さが欠けていることが多く、その結果、モデルが特定の欠陥カテゴリや位置を識別できなくなります。この問題を解決するために、広州香港科技大学と Simou Technology で構成されるトップの研究チームは、産業欠陥に関する詳細かつ意味的に豊富な大規模なアノテーションを提供する「DefectSpectrum」データセットを革新的に開発しました。表 1 に示すように、他の産業データ セットと比較して、「DefectSpectrum」データ セットは最も多くの欠陥注釈 (5438 個の欠陥サンプル) と最も詳細な欠陥分類 (125 個の欠陥カテゴリ) を提供します。

NVIDIA 対話モデル ChatQA はバージョン 2.0 に進化し、コンテキストの長さは 128K と記載されています NVIDIA 対話モデル ChatQA はバージョン 2.0 に進化し、コンテキストの長さは 128K と記載されています Jul 26, 2024 am 08:40 AM

オープンな LLM コミュニティは百花繚乱の時代です Llama-3-70B-Instruct、QWen2-72B-Instruct、Nemotron-4-340B-Instruct、Mixtral-8x22BInstruct-v0.1 などがご覧いただけます。優秀なパフォーマーモデル。しかし、GPT-4-Turboに代表される独自の大型モデルと比較すると、オープンモデルには依然として多くの分野で大きなギャップがあります。一般的なモデルに加えて、プログラミングと数学用の DeepSeek-Coder-V2 や視覚言語タスク用の InternVL など、主要な領域に特化したいくつかのオープン モデルが開発されています。

結晶相問題を解決するための数百万の結晶データを使用したトレーニング、深層学習手法 PhAI が Science 誌に掲載 結晶相問題を解決するための数百万の結晶データを使用したトレーニング、深層学習手法 PhAI が Science 誌に掲載 Aug 08, 2024 pm 09:22 PM

編集者 |KX 今日に至るまで、単純な金属から大きな膜タンパク質に至るまで、結晶学によって決定される構造の詳細と精度は、他のどの方法にも匹敵しません。しかし、最大の課題、いわゆる位相問題は、実験的に決定された振幅から位相情報を取得することのままです。デンマークのコペンハーゲン大学の研究者らは、結晶相の問題を解決するための PhAI と呼ばれる深層学習手法を開発しました。数百万の人工結晶構造とそれに対応する合成回折データを使用して訓練された深層学習ニューラル ネットワークは、正確な電子密度マップを生成できます。この研究では、この深層学習ベースの非経験的構造解法は、従来の非経験的計算法とは異なり、わずか 2 オングストロームの解像度で位相問題を解決できることが示されています。これは、原子解像度で利用可能なデータのわずか 10% ~ 20% に相当します。

Google AI が IMO 数学オリンピック銀メダルを獲得、数理推論モデル AlphaProof が発売、強化学習が復活 Google AI が IMO 数学オリンピック銀メダルを獲得、数理推論モデル AlphaProof が発売、強化学習が復活 Jul 26, 2024 pm 02:40 PM

AI にとって、数学オリンピックはもはや問題ではありません。木曜日、Google DeepMind の人工知能は、AI を使用して今年の国際数学オリンピック IMO の本当の問題を解決するという偉業を達成し、金メダル獲得まであと一歩のところまで迫りました。先週終了したばかりの IMO コンテストでは、代数、組合せ論、幾何学、数論を含む 6 つの問題が出題されました。 Googleが提案したハイブリッドAIシステムは4問正解で28点を獲得し、銀メダルレベルに達した。今月初め、UCLA 終身教授のテレンス・タオ氏が、100 万ドルの賞金をかけて AI 数学オリンピック (AIMO Progress Award) を宣伝したばかりだったが、予想外なことに、AI の問題解決のレベルは 7 月以前にこのレベルまで向上していた。 IMO に関する質問を同時に行うのが最も難しいのは、最も歴史が長く、規模が最も大きく、最も否定的な IMO です。

PRO | なぜ MoE に基づく大規模モデルがより注目に値するのでしょうか? PRO | なぜ MoE に基づく大規模モデルがより注目に値するのでしょうか? Aug 07, 2024 pm 07:08 PM

2023 年には、AI のほぼすべての分野が前例のない速度で進化しています。同時に、AI は身体化されたインテリジェンスや自動運転などの主要な分野の技術的限界を押し広げています。マルチモーダルの流れのもと、AI大型モデルの主流アーキテクチャとしてのTransformerの状況は揺るがされるだろうか? MoE (専門家混合) アーキテクチャに基づく大規模モデルの検討が業界の新しいトレンドになっているのはなぜですか?ラージ ビジョン モデル (LVM) は、一般的な視覚における新たなブレークスルーとなる可能性がありますか? ...過去 6 か月間にリリースされたこのサイトの 2023 PRO メンバー ニュースレターから、上記の分野の技術トレンドと業界の変化を詳細に分析し、新しい分野での目標を達成するのに役立つ 10 の特別な解釈を選択しました。準備してください。この解釈は 2023 年の Week50 からのものです

新しい科学的で複雑な質問応答ベンチマークと大規模モデルの評価システムを提供するために、UNSW、アルゴンヌ、シカゴ大学、およびその他の機関が共同で SciQAG フレームワークを立ち上げました。 新しい科学的で複雑な質問応答ベンチマークと大規模モデルの評価システムを提供するために、UNSW、アルゴンヌ、シカゴ大学、およびその他の機関が共同で SciQAG フレームワークを立ち上げました。 Jul 25, 2024 am 06:42 AM

編集者 |ScienceAI 質問応答 (QA) データセットは、自然言語処理 (NLP) 研究を促進する上で重要な役割を果たします。高品質の QA データ セットは、モデルの微調整に使用できるだけでなく、大規模言語モデル (LLM) の機能、特に科学的知識を理解し推論する能力を効果的に評価することもできます。現在、医学、化学、生物学、その他の分野をカバーする多くの科学 QA データ セットがありますが、これらのデータ セットにはまだいくつかの欠点があります。まず、データ形式は比較的単純で、そのほとんどが多肢選択式の質問であり、評価は簡単ですが、モデルの回答選択範囲が制限され、科学的な質問に回答するモデルの能力を完全にテストすることはできません。対照的に、自由回答型の Q&A

Transformer に基づく浙江大学の化学逆合成予測モデルは、Nature サブジャーナルで 60.8% に達しました。 Transformer に基づく浙江大学の化学逆合成予測モデルは、Nature サブジャーナルで 60.8% に達しました。 Aug 06, 2024 pm 07:34 PM

編集者 | KX 逆合成は創薬や有機合成において重要なタスクであり、そのプロセスを高速化するために AI の使用が増えています。既存の AI 手法はパフォーマンスが不十分で、多様性が限られています。実際には、化学反応は多くの場合、反応物と生成物の間にかなりの重複を伴​​う局所的な分子変化を引き起こします。これに触発されて、浙江大学のHou Tingjun氏のチームは、単一ステップの逆合成予測を分子列編集タスクとして再定義し、標的分子列を反復的に改良して前駆体化合物を生成することを提案した。そして、高品質かつ多様な予測を実現できる編集ベースの逆合成モデルEditRetroを提案する。広範な実験により、このモデルが標準ベンチマーク データ セット USPTO-50 K で優れたパフォーマンスを達成し、トップ 1 の精度が 60.8% であることが示されました。

自然の視点: 医療における人工知能のテストは混乱に陥っています。何をすべきでしょうか? 自然の視点: 医療における人工知能のテストは混乱に陥っています。何をすべきでしょうか? Aug 22, 2024 pm 04:37 PM

編集者 | ScienceAI 限られた臨床データに基づいて、何百もの医療アルゴリズムが承認されています。科学者たちは、誰がツールをテストすべきか、そしてどのようにテストするのが最善かについて議論しています。デビン シン氏は、救急治療室で小児患者が治療を長時間待っている間に心停止に陥るのを目撃し、待ち時間を短縮するための AI の応用を模索するようになりました。 SickKids 緊急治療室からのトリアージ データを使用して、Singh 氏らは潜在的な診断を提供し、検査を推奨する一連の AI モデルを構築しました。ある研究では、これらのモデルにより医師の診察が 22.3% 短縮され、医療検査が必要な患者 1 人あたりの結果の処理が 3 時間近く高速化できることが示されました。ただし、研究における人工知能アルゴリズムの成功は、これを証明するだけです。

See all articles