LLMの最先端の推論のレースは激化しており、競争はかつてないほど激しくなっています。 DeepseekはDeepseek R1でそれをキックオフし、続いてOpenaiのO3-Miniが続き、GoogleはPowerhouseのラインナップで入力しました:Gemini 2.0 Flash、Flash Lite、Pro、および2つの実験モデル - フラッシュ2.0の考え方とアプリを使用して考えています。フラッシュモデルはすでにパブリックテストに進出していますが、実験モデルは推論とアプリの統合を再定義し、O3-MINIとDeepSeek-R1に挑戦することができます。このブログでは、これらの新しいモデル、独自の機能、競争力に飛び込みます。飛び込みましょう!
さあ、geminiアプリでテストしましょう。
プロンプト:「https://www.analyticsvidhya.com/blog/2024/07/building-agentic-rag-systems-with-langgraph/で記事を読んでください。次に、重要な手順の簡潔な要約を提供します応答:
レビュー:
モデルは、Webリンクを読むのが得意です。明確な要約を生成し、ブログで取り上げられている広範なステップをリストします。したがって、Gemini Flash 2.0は、クエリを解くためにインターネットにアクセスするのが迅速で高速で効率的なモデルであることが証明されています。日々のコンテンツ関連のタスクや画像分析と生成に最適です。
Flash Liteモデルは、費用対効果を念頭に置いて設計されています。前身である1.5フラッシュに基づいており、同じ印象的な速度と手頃な価格を維持しながら、品質の顕著な改善を提供します。そのハイライトのいくつかは次のとおりです
2.0フラッシュライトは、パフォーマンスと予算のバランスを求める開発者にとって優れた選択肢です。このモデルは、100万のトークンコンテキストウィンドウを誇り、マルチモーダル入力をサポートし、幅広いタスクを処理できるようにします。
現在は公開プレビューにあり、Google AI StudioおよびVertex AIのGemini APIからアクセスできます。これにより、開発者はフラッシュライトをワークフローに実験して統合できます。可用性:
Gemini 2.0 Flash Liteは、Google AI Studioで無料で入手できます。また、Vertex AIでも利用できますが、Geminiアプリではまだ利用できません。テストしましょう。
“
応答:
「この画像は、「世界」とユーザーと相互作用するAIエージェントを示しています。ここに故障があります:
詳細については:Google Gemini 2.0 Pro Experimental better better Openai O3-Mini?
このモデルのパフォーマンスを見てみましょう プロンプト:
「このパズルを解決して、解決策で構成されるテーブルを教えてください。」
このパズルは、次のWebサイトから調達されています。
応答:
:
モデルはそのソリューションを説明し、プロンプトのようにソリューションテーブルでそれをフォローアップします。与えられた情報に基づいて正しい応答を生成しましたが、いくつかの場所では、色と通貨の値が誤っていないと仮定しました。ただし、全体的な応答ではこれらの値が重要ではなかったため、その最終結果は影響を受けません。言うまでもなく、Gemini 2.0 Pro Experimentalは、強力な推論と速度と精度を組み合わせています。
gemini 2.0フラッシュ思考実験
フラッシュ思考実験モデルは、ジェミニ2.0フラッシュの速度と効率と推論能力の強化を組み合わせたエキサイティングな開発です。これにより、情報を迅速に処理するだけでなく、複雑な問題に論理的思考を適用することができます。 現在、このモデルはGeminiアプリのユーザーが利用できるため、一部のユーザーのみが高度な機能に早期にアクセスできます。
実験モデルとして、それはまだ開発中ですが、問題をより効果的に推論し解決できるLLMSの将来を指し示しています。
ここで、このモデルが何ができるか見てみましょう。
プロンプト:「あなたは部屋に足を踏み入れてベッドを見ます。ベッドには、2匹の犬、4匹の猫、キリン、5頭の牛、アヒルがいます。 3つの椅子とテーブルもあります。床にはいくつの脚がありますか?
応答:
テーブル:1表 * 4脚/テーブル= 4脚
この質問に対する正解は22です。これには、3本の椅子の12本の脚、テーブルの4本の脚、ベッドの4本の脚、および2本の脚が含まれます。 Gemini 2.0フラッシュ実験思考モデルは、個々の足(ほとんどのLLMが見逃しているもの)を考慮して、素晴らしい思考を示しています。しかし、それはベッドの足に数えることを忘れていました。したがって、素晴らしいにもかかわらず、モデルは論理的な推論で優れている可能性があります。 gemini 2.0フラッシュ思考アプリで実験 Flash Thinking Experimental Modelに基づいて、Flash Thinking Experimental AppsバージョンでのFlash Thinkingは、インタラクティブ性の重要なレイヤーを追加します。外部アプリケーションと対話する能力です。これが強力なモデルになっているものです:
外部アプリとの統合により、モデルは理由だけでなく、異なるアプリ内でアクションを実行できるようになります。これにより、複雑なワークフローの自動化の可能性のある世界が開かれます。 このモデルは、LLMがデジタルライブに深く統合される可能性を示しており、毎日使用しているツールとシームレスに対話します。
可用性:gemini 2.0フラッシュは、有料版でのみ利用可能です。GeminiAdvanced。一方、Google AI Studioでは、無料で利用できます。したがって、有料のGeminiアカウント(無料の1か月のトライアルが付属している)がない場合は、Google AI Studioで試してみることができます。
では、テストしましょう。プロンプト:「自分の場所からニューデリー鉄道駅まで取ることができるすべての可能な道路ルートについて教えてください。私は現在ここにいます:https://maps.app.goo.gl/xciqxpugasxtxytk8”
応答:
“ここに、K-3 Roadの現在の場所、DLFフェーズ2、セクター25、Gurugram、Haryana 122022、インドの現在の場所からニューデリー鉄道駅への道路ルートがあります。
ここに、K-3 Road、DLFフェーズ2、セクター25、Gurugram、Haryana 122022、インドの場所にあるニューデリー鉄道駅への道路ルートがあります。ルート1:NH 48
距離:16.4マイル
このモデルは、推論、速度、および外部アプリのアクセシビリティの力を組み合わせています。このような能力は、これらの思考モデルですぐに見ることができるエージェントの性質の強い存在を示しています。 gemini 2.0モデル:ベンチマーク比較
Googleの最新モデルのすべてと協力したので、これらのモデルがさまざまなベンチマークでどのように機能するかをすばやく見てみましょう。実験モデルを考えるための詳細はまだ利用できません。したがって、残りの3つのモデルとのみ協力します。Gemini2.0Flash、Flash Lite、およびPro。Capability | Benchmark | Gemini 2.0 Flash-Lite (Public Preview) | Gemini 2.0 Flash (GA) | Gemini 2.0 Pro Experimental |
General | MMLU-Pro | 71.6% | 77.6% | 79.1% |
Code | LiveCodeBench (v5) | 28.9% | 34.5% | 36.0% |
Code | Bird-SQL (Dev) | 57.4% | 58.7% | 59.3% |
Reasoning | GQPA (diamond) | 51.5% | 60.1% | 64.7% |
Factuality | SimpleQA | 21.7% | 29.9% | 44.3% |
Factuality | FACTS Grounding | 83.6% | 84.6% | 82.8% |
Multilingual | Global MMLU (Lite) | 78.2% | 83.4% | 86.5% |
Math | MATH | 86.8% | 90.9% | 91.8% |
Math | HiddenMath | 55.3% | 63.5% | 65.2% |
Long-context | MRCR (1M) | 58.0% | 70.5% | 74.7% |
Image | MMMU | 68.0% | 71.7% | 72.7% |
Audio | CoVoST2 (21 lang) | 38.4% | 39.0% | 40.6% |
Video | EgoSchema (test) | 67.2% | 71.1% | 71.9% |
ソース:Google DeepMindブログ
新しいモデルには、独自の機能セットがあります。次の表では、このブログで調査したすべてのモデルの機能とアプリケーションをリストしました。
GoogleのGemini 2.0ラインナップは、生成AIモデル機能の大きなステップを示し、速度、効率、高度な推論に合わせて調整されたさまざまなモデルを提供します。 Gemini 2.0 Flash and Flash Liteは、ハイスループットと費用対効果の高いユースケースに対応していますが、Gemini 2.0 Pro Experimentalの外観は、長期の理解とツールの統合に有望です。実験モデル、特にアプリを使用したフラッシュ思考とフラッシュ思考は、論理的推論とシームレスなアプリの相互作用の可能性を紹介します。 Gemini 2.0を使用して、Googleは、よりコンテキストを意識し、マルチモーダルで、デジタルエコシステムに深く統合されたGenaiモデルの段階を設定しています。これらのモデルが進化するにつれて、AI駆動型のワークフロー、コンテンツ生成、リアルタイムの意思決定への影響は成長します。
よくある質問q1。 Gemini 2.0?aとは何ですか。 Gemini 2.0は、Googleの最新のGen AIモデルのファミリーであり、推論の強化、マルチモーダル処理、高効率タスクのために設計されています。 Flash、Flash Lite、Pro、および2つの実験モデルが含まれています。アプリを使用したフラッシュ思考とフラッシュ思考。 Gemini 2.0は、OpenaiのO3-MiniおよびDeepseek R1と比較してどのように比較されますか? Gemini 2.0モデル、特にFlash and Proシリーズは、推論、効率、およびツール統合の観点から、OpenaiのO3-MiniおよびDeepseek R1と直接競合します。 Gemini 2.0 Flashは速度と費用対効果に焦点を当てていますが、Gemini 2.0 Pro Experimentalは複雑な推論とコーディングに優れています。 Gemini 2.0 Flash LiteとFlash Liteの違いは何ですか? Gemini 2.0 Flash LiteとFlash Liteの重要な違いは次のとおりです。Gemini 2.0 Flash:
論理的な推論と問題解決を強化します。
ジェミニ2.0フラッシュ:Google AI Studio(無料)およびVertex AIで利用可能。ユーザー。
gemini 2.0 pro Experimental:Google AI Studio(無料)およびGemini Advanced(Paid)で利用可能。
以上がGoogle Gemini 2.0モデルに無料でアクセスする方法は?の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。