大規模モデルのアプリケーション設計に関する 10 の考え
テクノロジーは万能ではありませんが、テクノロジーがなければ絶対に不可能である可能性があり、大型モデルでも同じことが言えるかもしれません。大規模モデルに基づくアプリケーション設計は、解決される問題に焦点を当てる必要があります。自然言語処理の分野では、大規模モデル自体は、さまざまな NLP タスクをある程度までシーケンスツーシーケンス モデルに統合するだけです。大型モデルを使用して、特定の生産および寿命の問題を解決していますが、製品設計と技術設計は依然として不可欠です。
では、大きなモデルがソフトウェア エンジニアリングの未来を再考している場合、従うべき基本原則はあるのでしょうか?
1. モデルファースト、継続的反復
モデルがタスクを完了できれば、コードを記述する必要はありません。モデルは進化し続けますが、コードはそうではありません
今日の時代では、モデルの価値がますます顕著になってきています。従来のプログラミング手法とは異なり、現在の開発アイデアは「モデルファースト」の傾向が強いです。これは、問題やタスクに直面したときに、すぐにコードを書き始めるのではなく、まず既存のモデルを使用して解決できるかどうかを検討することを意味します。コードが修正されているため、モデルには開発の余地が大きくあります。時間の経過とともに、モデルは強力な学習能力と適応能力を備え、継続的な反復を通じて自己最適化と改善を行うことができます。したがって、私たちの最初のタスクは、モデルの可能性を活用し、問題を解決するためのツールにすることです。
システム全体の目標は、効率的なプロジェクトを構築するための計画を立て、意図を理解する LLM の能力を活用することです。途中で、命令型の考え方に戻り、プログラムの細部に至るまでコードを書きたくなるかもしれません。ただし、この誘惑には抵抗しなければなりません。現時点でモデルに確実に何かを実行させることができる限り、モデルが進化するにつれてモデルはさらに改良され、より堅牢になります。##2 トレード オフ精度を高め、曖昧さを解消するためにインタラクションを使用する
精度を高めるためにトレードオフ レバレッジを使用し、曖昧さを軽減するためにインタラクションを使用します。 LLM を使用してコーディングするときの正しい考え方は、「踊るクマに何をさせることができるか見てみましょう」ではなく、システムから可能な限り多くの活用を得るということです。たとえば、「データベースからレポートを作成する」や「1 年分の科目を教える」などの非常に一般的なパターンを構築でき、プレーン テキスト プロンプトでパラメータ化することができ、非常に価値のある差別化された結果を簡単に生み出すことができます。
高い精度を維持するためには、他の要素との関係を考慮する必要があります。このバランスを達成するには、対話型のアプローチを採用して、起こり得る曖昧さや誤解を排除できます。この戦略により、精度が向上するだけでなく、運用の柔軟性と効率も向上します。
LLM を使用したコーディングのプロセスでは、重要な考え方は、システムを最大限に活用する方法を考えることであり、「」ではありません。試してみて何ができるか見てみましょう。」これは、単純な機能の実装に満足するだけでなく、システムの可能性を深く探求し、より大きな価値を生み出す必要があることを意味します。
実際のアプリケーションでは、いくつかの共通パターンを構築できます。たとえば、「データベースからレポートを生成」などのモードは適応性が高く、単純なテキスト プロンプトを通じてパラメーターを調整してさまざまなニーズに対応できます。もう 1 つの例は、「1 年間の詳細な学習コースの指導」モデルです。これは、豊富な教育リソースを統合し、個別の指導ニーズに合わせて対話型の方法で簡単に調整することもできます。
これらの共通パターンを適用することで、作業効率が向上するだけでなく、価値のある特徴的な成果を簡単に生み出すことができます。重み付けの精度と相互作用の明確化というこの戦略は、間違いなく大規模モデル アプリケーションの設計において重要な考え方です。
3 コードは構文と手順に使用され、モデルはセマンティクスと意図に使用されます
最新のプログラミングの分野では、コードとモデルの役割分担は次のようになります。ますます明らかになっていきます。簡単に言えば、コードは主に構文と手順の実装を担当し、モデルはセマンティクスと意図の生成と解釈に重点を置きます。実際のアプリケーションでは、この分業にはさまざまな表現がありますが、中心的な考え方は同じです。コードは特定の命令とプロセスを実行するために使用され、モデルは言語の深い意味と目標を推論、生成、理解するために使用されます
基本的に、モデルは言語の意味や目的を推論するのには優れていますが、特定の計算やプロセスを実行するように求められた場合、コードのパフォーマンスが劣ることがよくあります。たとえば、高レベルのモデルは、数独を解くためのコーディングは簡単かもしれませんが、数独自体を解くのは比較的難しいかもしれません。
すべてのコードには独自の利点があります。重要なのは、特定の問題に最適なツールを選択することです。構文とセマンティクスの間の境界は、大規模なモデル アプリケーションの設計における大きな課題です。これに関連して、コードとモデルをより効果的に使用して問題を解決するには、コードとモデルのそれぞれの長所と短所をより深く理解する必要があります
#4 脆弱性を回避するシステムを構築する場合、システム全体の強度が最も脆弱な部分によって決まることが多いという無視できない事実があります。この考え方は、従来のソフトウェア システムだけでなく、大規模なモデルに基づくアプリケーションにも当てはまります。
システムの柔軟性と効率性を追求する場合、ハード コーディングはできる限り避けるべきです。ハードコーディングとは、将来の変更や拡張を考慮せずに、特定の値やロジックをコードに直接書き込むことを指します。このアプローチは短期的には利便性をもたらすかもしれませんが、長期的には硬直的で保守が困難なコードにつながる可能性があります。したがって、コードやアルゴリズムを記述するときは推論と柔軟性に注意を払う必要があります
プロンプトやインタラクションを設計するときは、システムが自律的に意思決定を行えるように、十分な情報とロジックを含めるように努める必要があります。事前定義されたコマンドを単に実行するだけです。このようにして、ハードコーディングの使用を減らすだけでなく、LLM の機能をより有効に活用して、システムをよりスマートかつ柔軟にすることができます。
5 データ品質が最優先され、LLM のアプリケーションは高品質データと密接に関係しています。
大規模モデルは確かに、「よく」のような並外れた能力を示します。 「教育を受けた」個人も同じですが、実際のアプリケーションでは、依然としてコンテキストとイニシアチブが不足しています。
簡単に言うと、これらのモデルに単純な、または自由形式の質問をすると、単純な、または一般的な答えが得られます。このような回答には深みや詳細が欠けており、すべてのニーズを満たしていない可能性があります。より詳細で踏み込んだ回答を得たい場合は、質問の方法と戦略をより賢くする必要があります。
これは実際、人工知能時代の「ガベージイン、ガベージアウト」の原則の現れです。テクノロジーがどれほど進歩しても、受信データの品質は依然として重要です。入力データがあいまい、不正確、または不完全である場合、モデルが出力する答えも同様である可能性があります。
LLM モデルが高品質で詳細な回答を確実に提供できるようにするには、入力データが正確で、詳細で、コンテキストが豊富であることを確認する必要があります。これは、データ品質が引き続き最重要であることも意味します。データの品質に注意を払い、保証することによってのみ、これらの高度なモデルから真に価値のある詳細な情報を取得できることが期待できます
#6 不確実性を異常として扱うモデルが不確実な状況に遭遇したとき、それを単に無視したり、曖昧な答えを与えることはできません。代わりに、この不確実性を明確にするために、ユーザーとのインタラクションの意図に頼るべきです。 プログラミングでは、ネストされたプロンプトのセットに不確実性がある場合、たとえば、プロンプトの結果が複数の解釈を持つ可能性がある場合、「例外スロー」戦略に似た方法を取る必要があります。これは、ユーザーと対話したり不確実性を明確にしたりできるレベルに達するまで、この不確実性をスタック内の上位レベルに渡す必要があることを意味します。 このような設計戦略により、プログラムは不確実性に直面したときに適切に対応できるため、より正確で信頼性の高い結果が得られます。#7 普遍的なものとしてのテキストプロトコルテキストは、主に自然言語、意図、セマンティクスを解析する LLM の優れた能力により、ユニバーサル プロトコルになりました。したがって、テキストは、プロンプト、モジュール、および LLM ベースのサービス間で指示を転送するための好ましい形式となっています。自然言語は、一部のアプリケーション シナリオでは若干不正確である可能性がありますが、XML などの他の構造化言語と比較すると、簡潔で直感的で人間にとって理解しやすいという利点があります。もちろん、高度な精度と構造が必要なタスクの場合は、構造化言語を少量の補助として使用できます。しかし、ほとんどのシナリオでは、自然言語は指示や意図を伝えるのに非常にうまく機能します。 これらの LLM ベースのテクノロジの普及と進歩により、「将来性のある」自然な対話方法としてのテキストが、異なるシステムおよび異なるプロンプト間の相互運用性とコミュニケーションをさらに促進することは言及する価値があります。理解する。 2 つのまったく異なる LLM サービスが両方とも同じテキストの指示を理解し、応答できれば、それらの間のコラボレーションと対話は人間間のコミュニケーションと同じくらい自然かつスムーズになります
コンテンツを書き直す目的は、元の意味を変えることではなく、言語を中国語に書き直すことです
8 複雑な問題、分解操作複雑な問題に直面したとき、それは人間だけでなく大規模なモデルにとっても困難です。実際のアプリケーションでは、プログラムの一部として複雑な問題に対するプロンプトを直接使用すると、問題が発生する可能性があります。なぜなら、本当に必要なのは推論の結果だけだからです。この問題を解決するには、効果的な方法が必要です。 「メタ」プロンプトを使用することです。このプロンプトは質問を提示するだけでなく、詳細な回答も提供し、モデルにそこから重要な情報を抽出するよう求めます。このアプローチは、実際に複雑な認知タスクを比較的単純なタスクに変換するため、うまく機能します。 「この記事を読んで答えを見つけてください」というタスクを人に与えた場合、たとえそのユーザーが関連分野の専門知識を持っていなくても、自然言語の力は非常に大きいため、その人はこのタスクを完了する可能性が非常に高いと想像してください。 大規模なモデルに基づいてアプリケーションを設計する場合、注意する必要があることがいくつかあります。普通の人にとっては難しいことでも、模型では同じように難しいかもしれません。このような状況に直面した場合、最善の戦略は、複雑な問題やタスクをより単純なステップに分割することです。これにより、処理の難しさが軽減され、回答の安定性と精度が向上します #9. 制御できるところには必ずモデルがありますモデル 単なるツールではなく、私たち自身の間違いに対する武器にもなり得ます。多くの場合、私たちは LLM (Large Language Model) の動作を「脳」の内部プロセスとして想像する傾向があります。ただし、モデルと人間の思考にはいくつかの類似点があるにもかかわらず、両者の間には多くの意味のある違いがあることを認識することが重要です。 特に重要な機能が 1 つあります。モデルは、短期間の対話中に永続的なメモリを欠くことがよくあります。これは、モデルが 1 分間のインタラクションから次のインタラクションまでの詳細をすべて記憶している可能性は低いことを意味します。この機能により、何らかの制御が可能になります。 この管理はコードレビューに限定されません。実際、このモデルは、コードの安全な動作を保証するためのコードのセキュリティ モニターとしても機能します。また、より効果的なテスト計画の作成に役立つテスト戦略のコンポーネントとしても使用できます。高品質のコンテンツを生成するのに役立つコンテンツ フィルター したがって、モデルを適切に制御し、ガイドする限り、モデルは作業における強力な「アシスタント」になる可能性があります。この制御の基礎は、モデルの内部メカニズムと特性を深く理解し、習得することです。 10. 境界を特定し、大きなモデルですべてができるとは考えないでください大規模な言語モデルの機能は本当に驚くべきものであり、大量の処理と解析が可能です。論理的で一貫したテキストを生成し、一部のタスクでは人間のパフォーマンスを超えます。しかし、だからといって、これらの偉大なモデルを盲目的に崇拝し、彼らが何でもできると考えるべきだという意味ではありません。 大規模モデルには、実際にはまだ多くの制限や制約があります。彼らは大量のテキストデータを処理できますが、人間のように言語や文脈の微妙なニュアンスを理解することはできません。さらに、それらのパフォーマンスはトレーニング データとアルゴリズムの選択によっても制限され、いくつかのバイアスやエラーが発生する可能性があります。したがって、大規模なモデルを使用する場合は、合理的かつ慎重な態度を維持する必要があり、その機能を高く評価する必要があります。利便性と進歩をもたらす一方で、私たちはその限界と潜在的なリスクにも注意しなければなりません。このようにして、これらのモデルをより適切に活用して、大規模なモデルベースのアプリケーションの健全な開発を促進できます。 ###以上が大規模モデルのアプリケーション設計に関する 10 の考えの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ホットAIツール

Undresser.AI Undress
リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover
写真から衣服を削除するオンライン AI ツール。

Undress AI Tool
脱衣画像を無料で

Clothoff.io
AI衣類リムーバー

AI Hentai Generator
AIヘンタイを無料で生成します。

人気の記事

ホットツール

メモ帳++7.3.1
使いやすく無料のコードエディター

SublimeText3 中国語版
中国語版、とても使いやすい

ゼンドスタジオ 13.0.1
強力な PHP 統合開発環境

ドリームウィーバー CS6
ビジュアル Web 開発ツール

SublimeText3 Mac版
神レベルのコード編集ソフト(SublimeText3)

ホットトピック









従来のコンピューティングを超える能力を備えているだけでなく、より低コストでより効率的なパフォーマンスを実現する人工知能モデルを想像してみてください。これは SF ではありません。世界で最も強力なオープンソース MoE モデルである DeepSeek-V2[1] が登場しました。 DeepSeek-V2 は、経済的なトレーニングと効率的な推論の特徴を備えた強力な専門家混合 (MoE) 言語モデルです。これは 236B のパラメータで構成されており、そのうち 21B は各マーカーをアクティブにするために使用されます。 DeepSeek67B と比較して、DeepSeek-V2 はパフォーマンスが優れていると同時に、トレーニング コストを 42.5% 節約し、KV キャッシュを 93.3% 削減し、最大生成スループットを 5.76 倍に高めます。 DeepSeek は一般的な人工知能を研究する会社です

AI は確かに数学を変えつつあります。最近、この問題に細心の注意を払っている陶哲軒氏が『米国数学協会会報』(米国数学協会会報)の最新号を送ってくれた。 「機械は数学を変えるのか?」というテーマを中心に、多くの数学者が意見を述べ、そのプロセス全体は火花に満ち、ハードコアで刺激的でした。著者には、フィールズ賞受賞者のアクシャイ・ベンカテシュ氏、中国の数学者鄭楽軍氏、ニューヨーク大学のコンピューター科学者アーネスト・デイビス氏、その他業界で著名な学者を含む強力な顔ぶれが揃っている。 AI の世界は劇的に変化しています。これらの記事の多くは 1 年前に投稿されたものです。

今月初め、MIT やその他の機関の研究者らは、MLP に代わる非常に有望な代替案である KAN を提案しました。 KAN は、精度と解釈可能性の点で MLP よりも優れています。また、非常に少数のパラメーターを使用して、多数のパラメーターを使用して実行する MLP よりも優れたパフォーマンスを発揮できます。たとえば、著者らは、KAN を使用して、より小規模なネットワークと高度な自動化で DeepMind の結果を再現したと述べています。具体的には、DeepMind の MLP には約 300,000 個のパラメーターがありますが、KAN には約 200 個のパラメーターしかありません。 KAN は、MLP が普遍近似定理に基づいているのに対し、KAN はコルモゴロフ-アーノルド表現定理に基づいているのと同様に、強力な数学的基礎を持っています。以下の図に示すように、KAN は

Boston Dynamics Atlas は正式に電動ロボットの時代に突入します!昨日、油圧式アトラスが歴史の舞台から「涙ながらに」撤退したばかりですが、今日、ボストン・ダイナミクスは電動式アトラスが稼働することを発表しました。ボストン・ダイナミクス社は商用人型ロボットの分野でテスラ社と競争する決意を持っているようだ。新しいビデオが公開されてから、わずか 10 時間ですでに 100 万人以上が視聴しました。古い人が去り、新しい役割が現れるのは歴史的な必然です。今年が人型ロボットの爆発的な年であることは間違いありません。ネットユーザーは「ロボットの進歩により、今年の開会式は人間のように見え、人間よりもはるかに自由度が高い。しかし、これは本当にホラー映画ではないのか?」とコメントした。ビデオの冒頭では、アトラスは仰向けに見えるように地面に静かに横たわっています。次に続くのは驚くべきことです

Google が推進する JAX のパフォーマンスは、最近のベンチマーク テストで Pytorch や TensorFlow のパフォーマンスを上回り、7 つの指標で 1 位にランクされました。また、テストは最高の JAX パフォーマンスを備えた TPU では行われませんでした。ただし、開発者の間では、依然として Tensorflow よりも Pytorch の方が人気があります。しかし、将来的には、おそらくより大規模なモデルが JAX プラットフォームに基づいてトレーニングされ、実行されるようになるでしょう。モデル 最近、Keras チームは、ネイティブ PyTorch 実装を使用して 3 つのバックエンド (TensorFlow、JAX、PyTorch) をベンチマークし、TensorFlow を使用して Keras2 をベンチマークしました。まず、主流のセットを選択します

今日は、時系列予測のパフォーマンスを向上させるために、時系列データを潜在空間上の大規模な自然言語処理 (NLP) モデルと整合させる方法を提案するコネチカット大学の最近の研究成果を紹介したいと思います。この方法の鍵は、潜在的な空間ヒント (プロンプト) を使用して時系列予測の精度を高めることです。論文タイトル: S2IP-LLM: SemanticSpaceInformedPromptLearningwithLLMforTimeSeriesForecasting ダウンロードアドレス: https://arxiv.org/pdf/2403.05798v1.pdf 1. 大きな問題の背景モデル

テスラのロボット「オプティマス」の最新映像が公開され、すでに工場内で稼働可能となっている。通常の速度では、バッテリー(テスラの4680バッテリー)を次のように分類します:公式は、20倍の速度でどのように見えるかも公開しました - 小さな「ワークステーション」上で、ピッキング、ピッキング、ピッキング:今回は、それがリリースされたハイライトの1つビデオの内容は、オプティマスが工場内でこの作業を完全に自律的に行い、プロセス全体を通じて人間の介入なしに完了するというものです。そして、オプティマスの観点から見ると、自動エラー修正に重点を置いて、曲がったバッテリーを拾い上げたり配置したりすることもできます。オプティマスのハンドについては、NVIDIA の科学者ジム ファン氏が高く評価しました。オプティマスのハンドは、世界の 5 本指ロボットの 1 つです。最も器用。その手は触覚だけではありません

目標検出は自動運転システムにおいて比較的成熟した問題であり、その中でも歩行者検出は最も初期に導入されたアルゴリズムの 1 つです。ほとんどの論文では非常に包括的な研究が行われています。ただし、サラウンドビューに魚眼カメラを使用した距離認識については、あまり研究されていません。放射状の歪みが大きいため、標準のバウンディング ボックス表現を魚眼カメラに実装するのは困難です。上記の説明を軽減するために、拡張バウンディング ボックス、楕円、および一般的な多角形の設計を極/角度表現に探索し、これらの表現を分析するためのインスタンス セグメンテーション mIOU メトリックを定義します。提案された多角形モデルの FisheyeDetNet は、他のモデルよりも優れたパフォーマンスを示し、同時に自動運転用の Valeo 魚眼カメラ データセットで 49.5% の mAP を達成しました。
