目次
プロンプト エンジニアリングの制限
AlphaCodium 反復プロセス
前処理
コードの反復
競技プログラミングの問題に対して実証されている一方で、AlphaCodium で使用されている概念は、コード生成を進める AI についての洞察を提供します。該当するエクスペリエンス:
ホームページ テクノロジー周辺機器 AI トラフィック エンジニアリングによりコード生成の精度が 19% から 44% に倍増

トラフィック エンジニアリングによりコード生成の精度が 19% から 44% に倍増

Feb 05, 2024 am 09:15 AM
AI 自然言語 コード生成

新しい論文の著者は、コード生成を「強化する」方法を提案しています。

トラフィック エンジニアリングによりコード生成の精度が 19% から 44% に倍増

#コード生成は、人工知能におけるますます重要な機能です。機械学習モデルをトレーニングすることにより、自然言語記述に基づいてコンピューター コードを自動的に生成します。このテクノロジーには幅広い応用の可能性があり、ソフトウェア仕様を使用可能なコードに変換し、バックエンド開発を自動化し、人間のプログラマーを支援して作業効率を向上させることができます。

ただし、翻訳や要約などの言語タスクと比較すると、AI システムにとって高品質のコードを生成することは依然として困難です。コードはターゲット プログラミング言語の構文に正確に準拠し、エッジ ケースや予期しない入力を適切に処理し、問題の説明の多くの細かい詳細を正確に処理する必要があります。他の領域では無害に見える小さなエラーでも、プログラムの機能が完全に中断され、コンパイルまたは実行に失敗する可能性があります。

最近、CodiumAI の研究者は、GPT-4 などの大規模言語モデルのコード生成機能を大幅に向上できる新しい手法である AlphaCodium を提案しました。彼らのポイントは、プロンプトの文言を単に微調整するだけでは、複雑なコーディング問題を解決するには本質的な限界があるということです。代わりに、テスト ケースに対してコードを繰り返し生成、実行、デバッグすることに重点を置いた多段階プロセスを設計し、モデルが実践から学習できるようにしました。

プロンプト エンジニアリングの制限

自然言語タスクでは、プロンプト エンジニアリングとは、モデルを誘導するためにプロンプ​​トの文言と構造を慎重に調整することを指します。必要な出力を生成します。たとえば、入力テキストの前に「Write a concise summary:」という語句を追加すると、モデルはより正確な概要を生成できます。

プロンプト エンジニアリングは、大規模な言語モデルの動作をガイドするテキスト生成を行う場合に非常に効果的であることが証明されています。しかし、コーディングの問題に関しては、タイムリーに大規模な調整を行ったとしても、わずかな改善しか達成できないことが研究者らによってわかっています。この発見は考えさせられるものです。したがって、高品質のコードを生成するには、依然として他の解決策が必要です。

  • # ターゲット プログラミング言語の構文と完全に一致する
  • ハンドルコーナーケースと予期せぬ入力をエレガントに実行します。
  • 問題文に記載されているすべての詳細と要件に対処します。
  • すべてのコードが正しくコンパイルされることを確認します。有効な入力と実行

これらの構造要件はテキスト生成の範囲を超えており、プロンプトにハードコードすることはできません。プロンプト自体には、モデル学習に必要なコーディング スキルや具体的なフィードバックが不足していました。

AlphaCodium 反復プロセス

これらの課題に対処するために、研究者はコード生成問題の構造に合わせて特別に調整された反復プロセスを開発しました。重要な革新は、生成されたコードの実行結果を学習信号として使用し、直接フィードバックを提供することです。

AlphaCodium のプロセスには 2 つの主要な段階があります:

前処理

  • モデルは問題の説明を箇条書きとして解釈します。重要な詳細を抽出します。
  • 各入力/出力例の背後にある意図されたロジックを説明します。
  • 自然言語ソリューションを 2 つまたは 3 つ提供します。
  • コード カバレッジ用に追加のさまざまなテスト ケースを生成します。

コードの反復

  • モデルは初期のコード ソリューションを生成します。
  • このコードを公開テスト ケースに対して繰り返して、発生したエラーを修正します。
  • モデルによって生成されたテスト ケースに対しても同じことを実行します。
  • リグレッションを防ぐために、成長を続ける「テスト アンカー」スイートに追加のテスト ケースが追加されています。

問題について段階的に推論し、解決策の仮説を立て、テスト カバレッジを拡張し、コードを繰り返し生成してデバッグすることで、モデルは経験を通じて学習します。これにより、高品質のコードが生成されます。必要なスキル。

トラフィック エンジニアリングによりコード生成の精度が 19% から 44% に倍増

#図 1. 構造化された出力を含むプロンプトの例 (考えられる解決フェーズの生成)

# #研究者らは次のことを発見しました。プロセスを明確なインターフェイスと目標を持つモジュールに設計すると、エンドツーエンド モデルと比較してより良い結果が得られます。各フェーズではまず、知識を構築し、下流フェーズに情報を提供する洞察を明らかにするための単純なサブタスクに焦点を当てます。テスト生成などの上流段階では、完全なソリューションは必要なく、基本的な推論のみが必要です。

実験結果

研究者らは、競技プログラミング コンテストの参加者数百人が参加する CodeContests ベンチマークに対して AlphaCodium を評価しました。

トラフィック エンジニアリングによりコード生成の精度が 19% から 44% に倍増

図 2. 問題の説明と考察 - 典型的な CodeContests の質問の例、人工知能に基づく問題の自己考察。最初の説明は長くて複雑ですが、適切に内省することで問題がより明確になり、より一貫性のあるものになり、コード ソリューションの改善につながります。単一のヒントと比較して、AlphaCodium は検証セットでのコード生成精度を 19% から 44% に向上させました。この利点は、さまざまなモデル サイズやテスト セットにわたって当てはまり、個別のヒント プロジェクトよりも大幅に効果的です。

AlphaCodium は、AlphaCode や CodeChain など、以前に公開されたメソッドよりもパフォーマンスが大幅に向上し、使用するコンピューティング リソースも少なくなります。たとえば、不必要なブルート フォース生成を回避することで、精度は AlphaCode に匹敵し、必要なモデル クエリは 10,000 分の 1 になります。

これらの結果は、AI システムを汎用のテキスト ジェネレーターとして扱うのではなく、タスク構造を中心に総合的に設計することの価値を示しています。 AlphaCodium は、反復的なコードの実行とデバッグを組み込むことで、堅牢で実用的なコードを生成するという最終目標に合わせてトレーニング プロセスをより適切に調整します。

より広範な影響

競技プログラミングの問題に対して実証されている一方で、AlphaCodium で使用されている概念は、コード生成を進める AI についての洞察を提供します。該当するエクスペリエンス:

プロンプト プロジェクトだけでは、複雑なコード タスクを処理するには制限があります。具体的な問題解決の経験が重要です。

  • テストベースの開発仕様は、モデル トレーニングの基礎を提供できます。このテストは明示的な適合関数を提供します。
  • 反復コード デバッグでは、実際に発生するエラーに基づいてモデルを改善することに重点を置きます。
  • テスト カバレッジ拡張機能は、ヒントには表示されない一般化のギャップを強調表示します。
  • 二重検証によるソフトな意思決定により、脆弱性と偏見が軽減されます。
  • #AlphaCodium は、ソフトウェア エンジニアリングのベスト プラクティスに基づいた、コード生成のための有望な新しいパラダイムを提供します。一般化可能性と計算オーバーヘッドに関する未解決の研究課題がまだ残っています。しかし、ここで紹介した原則 (経験からの学習、テスト駆動開発、モジュール推論、反復デバッグ) は、AI のコーディング能力を向上させるための強固な基盤を提供するようです。

論文リンク: https://arxiv.org/pdf/2401.08500.pdf。

コードベース: https://github.com/Codium-ai/AlphaCodium。

原題:「フロー エンジニアリング」によりコード生成精度が 2 倍 (19% 対 44%)、著者: Mike Young

リンク: https:// Notes.aimodels.fyi/flow-engineering-intensize-for-code-generation/。

以上がトラフィック エンジニアリングによりコード生成の精度が 19% から 44% に倍増の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。

ホットAIツール

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

写真から衣服を削除するオンライン AI ツール。

Undress AI Tool

Undress AI Tool

脱衣画像を無料で

Clothoff.io

Clothoff.io

AI衣類リムーバー

AI Hentai Generator

AI Hentai Generator

AIヘンタイを無料で生成します。

ホットツール

メモ帳++7.3.1

メモ帳++7.3.1

使いやすく無料のコードエディター

SublimeText3 中国語版

SublimeText3 中国語版

中国語版、とても使いやすい

ゼンドスタジオ 13.0.1

ゼンドスタジオ 13.0.1

強力な PHP 統合開発環境

ドリームウィーバー CS6

ドリームウィーバー CS6

ビジュアル Web 開発ツール

SublimeText3 Mac版

SublimeText3 Mac版

神レベルのコード編集ソフト(SublimeText3)

Bytedance Cutting が SVIP スーパー メンバーシップを開始: 継続的な年間サブスクリプションは 499 元で、さまざまな AI 機能を提供 Bytedance Cutting が SVIP スーパー メンバーシップを開始: 継続的な年間サブスクリプションは 499 元で、さまざまな AI 機能を提供 Jun 28, 2024 am 03:51 AM

このサイトは6月27日、JianyingはByteDanceの子会社であるFaceMeng Technologyによって開発されたビデオ編集ソフトウェアであり、Douyinプラットフォームに依存しており、基本的にプラットフォームのユーザー向けに短いビデオコンテンツを作成すると報告しました。 Windows、MacOS、その他のオペレーティング システム。 Jianyingは会員システムのアップグレードを正式に発表し、インテリジェント翻訳、インテリジェントハイライト、インテリジェントパッケージング、デジタルヒューマン合成などのさまざまなAIブラックテクノロジーを含む新しいSVIPを開始しました。価格的には、クリッピングSVIPの月額料金は79元、年会費は599元(当サイト注:月額49.9元に相当)、継続月額サブスクリプションは月額59元、継続年間サブスクリプションは、年間499元(月額41.6元に相当)です。さらに、カット担当者は、ユーザーエクスペリエンスを向上させるために、オリジナルのVIPに登録している人は、

Rag と Sem-Rag を使用したコンテキスト拡張 AI コーディング アシスタント Rag と Sem-Rag を使用したコンテキスト拡張 AI コーディング アシスタント Jun 10, 2024 am 11:08 AM

検索強化生成およびセマンティック メモリを AI コーディング アシスタントに組み込むことで、開発者の生産性、効率、精度を向上させます。 JanakiramMSV 著者の EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG から翻訳。基本的な AI プログラミング アシスタントは当然役に立ちますが、ソフトウェア言語とソフトウェア作成の最も一般的なパターンに関する一般的な理解に依存しているため、最も適切で正しいコードの提案を提供できないことがよくあります。これらのコーディング アシスタントによって生成されたコードは、彼らが解決する責任を負っている問題の解決には適していますが、多くの場合、個々のチームのコーディング標準、規約、スタイルには準拠していません。これにより、コードがアプリケーションに受け入れられるように修正または調整する必要がある提案が得られることがよくあります。

GenAI および LLM の技術面接に関する 7 つのクールな質問 GenAI および LLM の技術面接に関する 7 つのクールな質問 Jun 07, 2024 am 10:06 AM

AIGC について詳しくは、51CTOAI.x コミュニティ https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou を参照してください。これらの質問は、インターネット上のどこでも見られる従来の質問バンクとは異なります。既成概念にとらわれずに考える必要があります。大規模言語モデル (LLM) は、データ サイエンス、生成人工知能 (GenAI)、および人工知能の分野でますます重要になっています。これらの複雑なアルゴリズムは人間のスキルを向上させ、多くの業界で効率とイノベーションを推進し、企業が競争力を維持するための鍵となります。 LLM は、自然言語処理、テキスト生成、音声認識、推奨システムなどの分野で幅広い用途に使用できます。 LLM は大量のデータから学習することでテキストを生成できます。

微調整によって本当に LLM が新しいことを学習できるようになるのでしょうか: 新しい知識を導入すると、モデルがより多くの幻覚を生成する可能性があります 微調整によって本当に LLM が新しいことを学習できるようになるのでしょうか: 新しい知識を導入すると、モデルがより多くの幻覚を生成する可能性があります Jun 11, 2024 pm 03:57 PM

大規模言語モデル (LLM) は巨大なテキスト データベースでトレーニングされ、そこで大量の現実世界の知識を取得します。この知識はパラメータに組み込まれており、必要なときに使用できます。これらのモデルの知識は、トレーニングの終了時に「具体化」されます。事前トレーニングの終了時に、モデルは実際に学習を停止します。モデルを調整または微調整して、この知識を活用し、ユーザーの質問により自然に応答する方法を学びます。ただし、モデルの知識だけでは不十分な場合があり、モデルは RAG を通じて外部コンテンツにアクセスできますが、微調整を通じてモデルを新しいドメインに適応させることが有益であると考えられます。この微調整は、ヒューマン アノテーターまたは他の LLM 作成物からの入力を使用して実行され、モデルは追加の実世界の知識に遭遇し、それを統合します。

新しい科学的で複雑な質問応答ベンチマークと大規模モデルの評価システムを提供するために、UNSW、アルゴンヌ、シカゴ大学、およびその他の機関が共同で SciQAG フレームワークを立ち上げました。 新しい科学的で複雑な質問応答ベンチマークと大規模モデルの評価システムを提供するために、UNSW、アルゴンヌ、シカゴ大学、およびその他の機関が共同で SciQAG フレームワークを立ち上げました。 Jul 25, 2024 am 06:42 AM

編集者 |ScienceAI 質問応答 (QA) データセットは、自然言語処理 (NLP) 研究を促進する上で重要な役割を果たします。高品質の QA データ セットは、モデルの微調整に使用できるだけでなく、大規模言語モデル (LLM) の機能、特に科学的知識を理解し推論する能力を効果的に評価することもできます。現在、医学、化学、生物学、その他の分野をカバーする多くの科学 QA データ セットがありますが、これらのデータ セットにはまだいくつかの欠点があります。まず、データ形式は比較的単純で、そのほとんどが多肢選択式の質問であり、評価は簡単ですが、モデルの回答選択範囲が制限され、科学的な質問に回答するモデルの能力を完全にテストすることはできません。対照的に、自由回答型の Q&A

SOTA パフォーマンス、厦門マルチモーダルタンパク質-リガンド親和性予測 AI 手法、初めて分子表面情報を結合 SOTA パフォーマンス、厦門マルチモーダルタンパク質-リガンド親和性予測 AI 手法、初めて分子表面情報を結合 Jul 17, 2024 pm 06:37 PM

編集者 | KX 医薬品の研究開発の分野では、タンパク質とリガンドの結合親和性を正確かつ効果的に予測することが、医薬品のスクリーニングと最適化にとって重要です。しかし、現在の研究では、タンパク質とリガンドの相互作用における分子表面情報の重要な役割が考慮されていません。これに基づいて、アモイ大学の研究者らは、初めてタンパク質の表面、3D 構造、配列に関する情報を組み合わせ、クロスアテンション メカニズムを使用して異なるモダリティの特徴を比較する、新しいマルチモーダル特徴抽出 (MFE) フレームワークを提案しました。アライメント。実験結果は、この方法がタンパク質-リガンド結合親和性の予測において最先端の性能を達成することを実証しています。さらに、アブレーション研究は、この枠組み内でのタンパク質表面情報と多峰性特徴の位置合わせの有効性と必要性​​を実証しています。 「S」で始まる関連研究

あなたが知らない機械学習の 5 つの流派 あなたが知らない機械学習の 5 つの流派 Jun 05, 2024 pm 08:51 PM

機械学習は人工知能の重要な分野であり、明示的にプログラムしなくてもコンピューターにデータから学習して能力を向上させる機能を提供します。機械学習は、画像認識や自然言語処理から、レコメンデーションシステムや不正行為検出に至るまで、さまざまな分野で幅広く応用されており、私たちの生活様式を変えつつあります。機械学習の分野にはさまざまな手法や理論があり、その中で最も影響力のある 5 つの手法は「機械学習の 5 つの流派」と呼ばれています。 5 つの主要な学派は、象徴学派、コネクショニスト学派、進化学派、ベイジアン学派、およびアナロジー学派です。 1. 象徴主義は、象徴主義とも呼ばれ、論理的推論と知識の表現のためのシンボルの使用を強調します。この学派は、学習は既存の既存の要素を介した逆演繹のプロセスであると信じています。

SKハイニックスは8月6日に12層HBM3E、321層NANDなどのAI関連新製品を展示する。 SKハイニックスは8月6日に12層HBM3E、321層NANDなどのAI関連新製品を展示する。 Aug 01, 2024 pm 09:40 PM

8月1日の本サイトのニュースによると、SKハイニックスは本日(8月1日)ブログ投稿を発表し、8月6日から8日まで米国カリフォルニア州サンタクララで開催されるグローバル半導体メモリサミットFMS2024に参加すると発表し、多くの新世代の製品。フューチャー メモリおよびストレージ サミット (FutureMemoryandStorage) の紹介。以前は主に NAND サプライヤー向けのフラッシュ メモリ サミット (FlashMemorySummit) でしたが、人工知能技術への注目の高まりを背景に、今年はフューチャー メモリおよびストレージ サミット (FutureMemoryandStorage) に名前が変更されました。 DRAM およびストレージ ベンダー、さらに多くのプレーヤーを招待します。昨年発売された新製品SKハイニックス

See all articles