LLM エージェントが科学者になった場合: イェール大学、NIH、ミラ、SJTU、その他の学者が共同でセキュリティ予防措置の重要性を呼び掛ける
大規模言語モデル (LLM) の開発は近年目覚ましい進歩を遂げ、私たちは革命の時代に突入しています。 LLM 主導のインテリジェント エージェントは、さまざまなタスクにおいて多用途性と効率性を発揮します。 「AI 科学者」として知られるこれらのエージェントは、生物学や化学などの分野で自律的な科学的発見を行う可能性を探求し始めています。これらのエージェントは、タスクに適したツールを選択し、環境条件を計画し、実験を自動化する能力を実証しています。
その結果、エージェントは本物の科学者に変身し、効果的に実験を設計して実施できるようになります。化学設計などの一部の分野では、エージェントはほとんどの非専門家の能力を超える能力を実証しています。ただし、このような自動エージェントの利点を享受する一方で、その潜在的なリスクにも注意する必要があります。彼らの能力が人間の能力に近づくか超えるにつれて、彼らの行動を監視し、危害を及ぼさないようにすることがますます重要かつ困難になります。
LLM を利用したインテリジェント エージェントが科学分野でユニークなのは、目標を達成するために必要なアクションを自動的に計画し実行できることです。これらのエージェントは、特定の生物学的データベースに自動的にアクセスし、化学実験などの活動を実行できます。たとえば、エージェントに新しい化学反応を探索させます。彼らは、まず生物学的データベースにアクセスして既存のデータを取得し、次に LLM を使用して新しい経路を推測し、ロボットを使用して反復実験検証を実行する可能性があります。このような科学探査エージェントはドメイン機能と自律性を備えているため、さまざまなリスクに対して脆弱になります。
最新の論文では、イェール大学、NIH、ミラ、上海交通大学およびその他の機関の学者らが「科学的発見に使用されるエージェントのリスク」を明確にし、輪郭を描き、将来の監督メカニズムの基礎を築きました。 LLM 主導の科学エージェントが実際のアプリケーションで安全、効率的、倫理的であることを保証するためのリスク軽減戦略の開発に関するガイダンス。
まず、著者らは、ユーザーの意図、特定の科学分野、外部環境に対する潜在的なリスクなど、科学的 LLM エージェントの潜在的なリスクの包括的な概要を提供します。危険。次に、これらの脆弱性の原因を詳しく調査し、より限定的な関連研究をレビューします。これらの研究の分析に基づいて、著者らは、これらの特定されたリスクに対処するために、人間の制御、エージェントの調整、および環境フィードバックの理解(エージェントの制御)からなるフレームワークを提案しました。
このポジション ペーパーでは、科学分野におけるインテリジェント エージェントの乱用によって引き起こされるリスクとそれに対応する対策を詳細に分析します。大規模な言語モデルを備えたインテリジェント エージェントが直面する主なリスクには、主にユーザー意図のリスク、ドメイン リスク、環境リスクが含まれます。ユーザー意図のリスクには、科学研究における非倫理的または違法な実験を実行するためにインテリジェント エージェントが不適切に使用される可能性が含まれます。エージェントの知能は設計された目的によって異なりますが、人間による適切な監督がない場合、エージェントは依然として人間の健康に有害な実験や環境に損害を与える実験を行うために悪用される可能性があります。
科学的発見に使用されるエージェントは、ここでは実践者が独立して実験できる機能を持つシステムとして定義されます。特に、この論文は、実験を処理し、環境条件を計画し、実験に適したツールを選択し、独自の実験結果を分析および解釈できる大規模言語モデル (LLM) を備えた科学的発見のためのエージェントに焦点を当てています。たとえば、より自律的な方法で科学的発見を推進できる可能性があります。
この記事で説明されている「科学的発見のためのエージェント」には、1 つ以上の事前トレーニングされた LLM を含む 1 つ以上の機械学習モデルが含まれる場合があります。この文脈では、リスクは人間の幸福や環境の安全に害を及ぼす可能性のあるあらゆる潜在的な結果として定義されます。この記事の議論を考慮すると、この定義には 3 つの主要なリスク領域があります。
ユーザー意図のリスク: エージェントは、悪意のあるユーザーの非倫理的または違法な目的を達成しようとする可能性があります。 現場リスク: エージェントによる高リスク物質への曝露またはその操作により、特定の科学分野 (生物学や化学など) に存在する可能性のあるリスクが含まれます。 環境リスク: これは、エージェントが環境に直接的または間接的な影響を与える可能性がある、または予測できない環境反応を引き起こす可能性があるという事実を指します。
上の図に示すように、科学エージェントの潜在的なリスクを示しています。サブ図 a は、直接的および間接的な悪意や意図しない結果を含む、ユーザーの意図の起源に基づいてリスクを分類します。サブ図 b は、化学、生物学、放射線、物理、情報、新興技術など、エージェントが適用される科学分野に従ってリスクの種類を分類しています。サブ図 c は、自然環境、人間の健康、社会経済環境などの外部環境への影響に応じてリスクの種類を分類しています。サブ図 d は、a、b、c に示されている対応するアイコンに従って、特定のリスク インスタンスとその分類を示しています。
ドメイン リスクには、科学的発見のために LLM が使用するエージェントが特定の科学的ドメイン内で動作するときに発生する可能性のある悪影響が含まれます。たとえば、生物学や化学で AI を使用している科学者は、放射性元素や生体危険物質などの高リスク物質の取り扱い方法を偶然、または知らなかった可能性があります。これは過剰な自律性をもたらし、個人的または環境的な災害につながる可能性があります。
環境への影響は、特定の科学分野以外でも潜在的なリスクです。科学的発見に使用されるエージェントの活動が人間または人間以外の環境に影響を与える場合、新たなセキュリティ上の脅威が生じる可能性があります。たとえば、AI 科学者は、環境に対する非効果的または有害な影響を防ぐようにプログラムされていない場合、水源を汚染したり、生態系のバランスを破壊したりするなど、環境に対して無益で有害な撹乱を行う可能性があります。
この記事では、著者らは、他のタイプのエージェント (統計モデルによって駆動されるエージェントなど) や一般的な科学実験によって引き起こされる既存のリスクではなく、LLM 科学エージェントによって引き起こされるまったく新しいリスクに焦点を当てています。この論文では、これらの新たなリスクを明らかにするとともに、効果的な保護措置を設計する必要性を強調しています。著者らは、考えられるリスク源を 14 個挙げており、これらを総称して科学エージェントの脆弱性と呼びます。
これらの自律エージェントには通常、LLM、プラン、アクション、外部ツール、メモリ、ナレッジという 5 つの基本モジュールが含まれています。これらのモジュールは、順次パイプラインで動作します。タスクまたはユーザーから入力を受け取り、記憶または知識を使用して計画を立て、小規模な計画的なタスク (科学分野ではツールやロボットが関与することがよくあります) を実行し、最後に結果またはフィードバックをメモリに保存します。図書館。広く使用されているにもかかわらず、これらのモジュールには重大な脆弱性がいくつかあり、特有のリスクや実際的な課題を引き起こします。このセクションでは、各モジュールの高レベルの概念の概要を示し、それらに関連する脆弱性を要約します。
1. LLM (基本モデル)
LLM はエージェントに基本的な機能を提供します。ただし、これらには独自のリスクがいくつかあります。
事実上の誤り: LLM は、合理的であるように見えても間違っている情報を生成する傾向があります。
脱獄攻撃に対して脆弱: LLM は、セキュリティ対策を回避する操作に対して脆弱です。
推論スキルの欠陥: LLM は、多くの場合、深い論理的推論を処理したり、複雑な科学的議論を処理したりすることが困難です。これらのタスクを実行できない場合、不適切なツールを使用する可能性があるため、計画や対話に欠陥が生じる可能性があります。
最新の知識の欠如: LLM は既存のデータセットに基づいてトレーニングされているため、最新の科学的発展が欠けている可能性があり、最新の科学知識とのずれが生じる可能性があります。検索拡張生成 (RAG) が登場しましたが、最先端の知識を見つけるには課題が残っています。
2. 計画モジュール
タスクの場合、計画モジュールは、タスクをより小さく管理しやすいコンポーネントに分割するように設計されています。ただし、次の脆弱性が存在します。
長期計画におけるリスクの認識の欠如: エージェントは、長期的な行動計画がもたらす可能性のある潜在的なリスクを完全に理解し、検討するのに苦労することがよくあります。
リソースの無駄と無限ループ: エージェントは非効率的な計画プロセスに従事し、その結果リソースが無駄になり、非生産的なループに陥る可能性があります。
マルチタスクの計画が不十分: エージェントは、単一のタスクを完了するように最適化されているため、複数の目的や複数のツールを使用するタスクに苦労することがよくあります。
3. アクション モジュール
タスクが分解されると、アクション モジュールは一連のアクションを実行します。ただし、このプロセスではいくつかの特定の脆弱性が発生します。
脅威の特定: エージェントは多くの場合、微妙な間接的な攻撃を見落とし、脆弱性につながります。
人間とコンピューターの相互作用に対する規制の欠如: 科学的発見におけるエージェントの出現により、特に遺伝学などのデリケートな領域における人間との相互作用における倫理ガイドラインの必要性が強調されています。
4. 外部ツール
タスクの実行プロセスにおいて、ツール モジュールはエージェントに貴重なツールのセット (例: ケモインフォマティクス ツールキット、RDKit) を提供します。これらのツールはエージェントに優れた機能を提供し、タスクをより効率的に処理できるようにします。ただし、これらのツールにはいくつかの脆弱性も導入されています。
ツールの使用における監督が不十分: エージェントがツールをどのように使用するかについて効果的な監督が不足しています。
潜在的に危険な状況。たとえば、ツールの誤った選択や誤用は、危険な反応や爆発を引き起こす可能性があります。エージェントは、特にこうした特殊な科学ミッションにおいて、使用するツールによってもたらされるリスクを十分に認識していない可能性があります。したがって、実際のツールの使用状況から学習して安全保護対策を強化することが重要です (OpenAI、2023b)。
5. 記憶と知識のモジュール
LLM の知識は、人間の記憶障害と同じように、実際には混乱する可能性があります。メモリと知識モジュールは、知識の検索と統合に外部データベースを活用して、この問題の軽減を試みます。ただし、いくつかの課題が残っています:
ドメイン固有のセキュリティ知識の制限: バイオテクノロジーや原子力工学などの特殊な分野におけるエージェントの知識不足は、セキュリティ クリティカルな推論の穴につながる可能性があります。
人間によるフィードバックの限界: 人間によるフィードバックが不十分、不均一、または低品質であると、エージェントと人間の価値観や科学的目標との整合性が妨げられる可能性があります。
不十分な環境フィードバック: エージェントは、世界の状態や他のエージェントの行動などの環境フィードバックを受信できないか、正しく解釈できない可能性があります。
信頼性の低い研究情報源: エージェントは、古いまたは信頼性の低い科学情報を利用したり、それに基づいて訓練を受けたりする可能性があり、誤った知識や有害な知識の拡散につながる可能性があります。
この記事では、LLM とエージェントのセキュリティ保護に関連する作業についても調査し、要約します。この分野の限界と課題に関しては、多くの研究が科学エージェントの機能を強化してきましたが、セキュリティメカニズムを考慮した取り組みはわずかで、リスク管理に特化したエージェントを開発したのは SciGuard だけです。ここで、この記事では 4 つの主な課題を要約します。
(1) リスク管理に特化したモデルの欠如。
(2) ドメイン固有の専門知識の欠如。
(3) ツールの使用によって生じるリスク。
(4) これまでのところ、科学分野のセキュリティを評価するためのベンチマークが不足しています。
したがって、これらのリスクに対処するには、特に人間の監督と組み合わせて、エージェントの理解と環境フィードバックの理解をより正確に調整する体系的な解決策が必要です。この枠組みの 3 つの部分は、独立した科学的研究を必要とするだけでなく、保護効果を最大化するために相互に交差する必要もあります。
このような措置は科学的発見に使用されるエージェントの自律性を制限する可能性がありますが、セキュリティと倫理原則はより広範な自律性よりも優先されるべきです。結局のところ、人々や環境への影響を元に戻すのは難しい可能性があり、科学的発見に使用されるエージェントに対する国民の過度の不満は、エージェントの将来の受け入れに悪影響を与える可能性があります。より多くの時間と労力がかかりますが、この記事では、包括的なリスク管理とそれに対応する保護手段の開発のみが、科学的発見のためのエージェントの理論から実践への変革を真に実現できると考えています。
さらに、彼らは、科学的発見に使用されるエージェントを保護する際の限界と課題を強調し、これらの問題を効果的に軽減するための、より強力なモデル、より堅牢な評価基準、およびより包括的なルールの開発を提唱しています。最後に、科学的発見のためにエージェントを開発および使用する際に、より優れた自律機能よりもリスク管理を優先するよう求めています。
自律性は価値のある目標であり、さまざまな科学分野で生産性を大幅に向上させることができますが、より自律的な機能を追求する中で深刻なリスクや脆弱性を生み出してはなりません。したがって、自律性とセキュリティのバランスをとり、科学的発見のためにエージェントの安全な展開と使用を確保するための包括的な戦略を採用する必要があります。また、出力の安全性を重視するのではなく、行動の安全性を重視することに移行し、エージェントの出力の正確性を評価しながら、エージェントの行動や意思決定も考慮する必要があります。
一般に、この記事「自律性よりも保護を優先する: 科学における LLM エージェントのリスク」は、大規模言語モデル (LLM) によって駆動されるインテリジェント エージェントの自律的な使用についての包括的なレビューです。さまざまな科学分野で、実験を実施し、科学的発見を推進する可能性を徹底的に分析します。これらの機能は将来性を秘めていますが、セキュリティについて慎重な考慮が必要となる新たな脆弱性も生じます。ただし、これらの脆弱性は包括的に調査されていないため、現時点では文献に明らかなギャップがあります。このギャップを埋めるために、このポジション ペーパーでは、科学分野における LLM ベースのエージェントの脆弱性を徹底的に調査し、悪用の潜在的なリスクを明らかにし、セキュリティ対策の実装の必要性を強調しています。
まず、この記事では、ユーザーの意図、特定の科学分野、外部環境への影響の可能性など、科学的 LLMAgents の潜在的なリスクの包括的な概要を説明します。次に、この記事ではこれらの脆弱性の原因を詳しく調べ、限られた既存の研究をレビューします。
これらの分析に基づいて、この論文は、これらの明示的なリスクを軽減するために、人間の監督、エージェントの調整、環境フィードバックの理解 (エージェントの監督) から構成される 3 つの枠組みを提案します。さらに、この論文は、科学的発見に使用されるエージェントを保護する際に直面する限界と課題を特に強調し、より良いモデル、より堅牢なベンチマークの開発、およびこれらの問題に効果的に対処するための包括的な規制の確立を提唱しています。
最後に、この記事では、科学的発見のためにエージェントを開発および使用する場合、より強力な自律機能の追求よりもリスク管理を優先することを求めています。
自律性は価値のある目標ですが、さまざまな科学分野で生産性を向上させる大きな可能性を秘めています。しかし、深刻なリスクや脆弱性を生み出すことを犠牲にして、自律性の向上を追求することはできません。したがって、自律性とセキュリティのバランスを見つけ、科学的発見のためにエージェントの安全な展開と使用を保証するための包括的な戦略を採用する必要があります。また、私たちの焦点は、出力のセキュリティから動作のセキュリティに移るべきです。つまり、科学的発見に使用されるエージェントを包括的に評価し、出力の正確性をレビューするだけでなく、エージェントの運用方法や意思決定の方法もレビューする必要があります。行動の安全性は科学において非常に重要です。なぜなら、異なる状況下では、同じ行動が全く異なる結果を招く可能性があり、その中には有害な結果が含まれる可能性があるからです。したがって、この記事では、人間、機械、環境の関係、特に堅牢で動的な環境フィードバックに焦点を当てることをお勧めします。
以上がLLM エージェントが科学者になった場合: イェール大学、NIH、ミラ、SJTU、その他の学者が共同でセキュリティ予防措置の重要性を呼び掛けるの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ホットAIツール

Undresser.AI Undress
リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover
写真から衣服を削除するオンライン AI ツール。

Undress AI Tool
脱衣画像を無料で

Clothoff.io
AI衣類リムーバー

AI Hentai Generator
AIヘンタイを無料で生成します。

人気の記事

ホットツール

メモ帳++7.3.1
使いやすく無料のコードエディター

SublimeText3 中国語版
中国語版、とても使いやすい

ゼンドスタジオ 13.0.1
強力な PHP 統合開発環境

ドリームウィーバー CS6
ビジュアル Web 開発ツール

SublimeText3 Mac版
神レベルのコード編集ソフト(SublimeText3)

ホットトピック









現代の製造において、正確な欠陥検出は製品の品質を確保するための鍵であるだけでなく、生産効率を向上させるための核心でもあります。ただし、既存の欠陥検出データセットには、実際のアプリケーションに必要な精度や意味論的な豊富さが欠けていることが多く、その結果、モデルが特定の欠陥カテゴリや位置を識別できなくなります。この問題を解決するために、広州香港科技大学と Simou Technology で構成されるトップの研究チームは、産業欠陥に関する詳細かつ意味的に豊富な大規模なアノテーションを提供する「DefectSpectrum」データセットを革新的に開発しました。表 1 に示すように、他の産業データ セットと比較して、「DefectSpectrum」データ セットは最も多くの欠陥注釈 (5438 個の欠陥サンプル) と最も詳細な欠陥分類 (125 個の欠陥カテゴリ) を提供します。

オープンな LLM コミュニティは百花繚乱の時代です Llama-3-70B-Instruct、QWen2-72B-Instruct、Nemotron-4-340B-Instruct、Mixtral-8x22BInstruct-v0.1 などがご覧いただけます。優秀なパフォーマーモデル。しかし、GPT-4-Turboに代表される独自の大型モデルと比較すると、オープンモデルには依然として多くの分野で大きなギャップがあります。一般的なモデルに加えて、プログラミングと数学用の DeepSeek-Coder-V2 や視覚言語タスク用の InternVL など、主要な領域に特化したいくつかのオープン モデルが開発されています。

編集者 | ScienceAI 限られた臨床データに基づいて、何百もの医療アルゴリズムが承認されています。科学者たちは、誰がツールをテストすべきか、そしてどのようにテストするのが最善かについて議論しています。デビン シン氏は、救急治療室で小児患者が治療を長時間待っている間に心停止に陥るのを目撃し、待ち時間を短縮するための AI の応用を模索するようになりました。 SickKids 緊急治療室からのトリアージ データを使用して、Singh 氏らは潜在的な診断を提供し、検査を推奨する一連の AI モデルを構築しました。ある研究では、これらのモデルにより医師の診察が 22.3% 短縮され、医療検査が必要な患者 1 人あたりの結果の処理が 3 時間近く高速化できることが示されました。ただし、研究における人工知能アルゴリズムの成功は、これを証明するだけです。

AI にとって、数学オリンピックはもはや問題ではありません。木曜日、Google DeepMind の人工知能は、AI を使用して今年の国際数学オリンピック IMO の本当の問題を解決するという偉業を達成し、金メダル獲得まであと一歩のところまで迫りました。先週終了したばかりの IMO コンテストでは、代数、組合せ論、幾何学、数論を含む 6 つの問題が出題されました。 Googleが提案したハイブリッドAIシステムは4問正解で28点を獲得し、銀メダルレベルに達した。今月初め、UCLA 終身教授のテレンス・タオ氏が、100 万ドルの賞金をかけて AI 数学オリンピック (AIMO Progress Award) を宣伝したばかりだったが、予想外なことに、AI の問題解決のレベルは 7 月以前にこのレベルまで向上していた。 IMO に関する質問を同時に行うのが最も難しいのは、最も歴史が長く、規模が最も大きく、最も否定的な IMO です。

編集者 |KX 今日に至るまで、単純な金属から大きな膜タンパク質に至るまで、結晶学によって決定される構造の詳細と精度は、他のどの方法にも匹敵しません。しかし、最大の課題、いわゆる位相問題は、実験的に決定された振幅から位相情報を取得することのままです。デンマークのコペンハーゲン大学の研究者らは、結晶相の問題を解決するための PhAI と呼ばれる深層学習手法を開発しました。数百万の人工結晶構造とそれに対応する合成回折データを使用して訓練された深層学習ニューラル ネットワークは、正確な電子密度マップを生成できます。この研究では、この深層学習ベースの非経験的構造解法は、従来の非経験的計算法とは異なり、わずか 2 オングストロームの解像度で位相問題を解決できることが示されています。これは、原子解像度で利用可能なデータのわずか 10% ~ 20% に相当します。

翻訳者 | Li Rui によるレビュー | 今日、人工知能 (AI) および機械学習 (ML) モデルはますます複雑になっており、これらのモデルによって生成される出力はブラックボックスになっており、関係者に説明することができません。 Explainable AI (XAI) は、利害関係者がこれらのモデルがどのように機能するかを理解できるようにし、これらのモデルが実際に意思決定を行う方法を確実に理解できるようにし、AI システムの透明性、信頼性、およびこの問題を解決するための説明責任を確保することで、この問題を解決することを目指しています。この記事では、さまざまな説明可能な人工知能 (XAI) 手法を検討して、その基礎となる原理を説明します。説明可能な AI が重要であるいくつかの理由 信頼と透明性: AI システムが広く受け入れられ、信頼されるためには、ユーザーは意思決定がどのように行われるかを理解する必要があります

編集者 |ScienceAI 質問応答 (QA) データセットは、自然言語処理 (NLP) 研究を促進する上で重要な役割を果たします。高品質の QA データ セットは、モデルの微調整に使用できるだけでなく、大規模言語モデル (LLM) の機能、特に科学的知識を理解し推論する能力を効果的に評価することもできます。現在、医学、化学、生物学、その他の分野をカバーする多くの科学 QA データ セットがありますが、これらのデータ セットにはまだいくつかの欠点があります。まず、データ形式は比較的単純で、そのほとんどが多肢選択式の質問であり、評価は簡単ですが、モデルの回答選択範囲が制限され、科学的な質問に回答するモデルの能力を完全にテストすることはできません。対照的に、自由回答型の Q&A

機械学習は人工知能の重要な分野であり、明示的にプログラムしなくてもコンピューターにデータから学習して能力を向上させる機能を提供します。機械学習は、画像認識や自然言語処理から、レコメンデーションシステムや不正行為検出に至るまで、さまざまな分野で幅広く応用されており、私たちの生活様式を変えつつあります。機械学習の分野にはさまざまな手法や理論があり、その中で最も影響力のある 5 つの手法は「機械学習の 5 つの流派」と呼ばれています。 5 つの主要な学派は、象徴学派、コネクショニスト学派、進化学派、ベイジアン学派、およびアナロジー学派です。 1. 象徴主義は、象徴主義とも呼ばれ、論理的推論と知識の表現のためのシンボルの使用を強調します。この学派は、学習は既存の既存の要素を介した逆演繹のプロセスであると信じています。
