ホームページ > テクノロジー周辺機器 > AI > Google Gemini 2.0モデルに無料でアクセスする方法は?

Google Gemini 2.0モデルに無料でアクセスする方法は?

Joseph Gordon-Levitt
リリース: 2025-03-06 11:28:10
オリジナル
516 人が閲覧しました

LLMの最先端の推論のレースは激化しており、競争はかつてないほど激しくなっています。 DeepseekはDeepseek R1でそれをキックオフし、続いてOpenaiのO3-Miniが続き、GoogleはPowerhouseのラインナップで入力しました:Gemini 2.0 Flash、Flash Lite、Pro、および2つの実験モデル - フラッシュ2.0の考え方とアプリを使用して考えています。フラッシュモデルはすでにパブリックテストに進出していますが、実験モデルは推論とアプリの統合を再定義し、O3-MINIとDeepSeek-R1に挑戦することができます。このブログでは、これらの新しいモデル、独自の機能、競争力に飛び込みます。飛び込みましょう!

目次

  • ジェミニ2.0とは? 2。
  • gemini 2.0?
  • とは何ですか
  • Gemini 2.0は、Googleによる最新のマルチモーダルモデルの傘です。これらのモデルは、Googleによって開発されており、レイテンシが低く、パフォーマンスが向上した非常に効率的な主力モデルに対するエージェント時代の要求を把握し続けています。 Gemini 2.0シリーズでは、以下のモデルがこれまでリリースされています。
    • gemini 2.0 flash
    • gemini 2.0フラッシュライト
  • gemini 2.0 pro Experimental
  • これらの強力なモデルとともに、Googleは現在実験段階にある他の2つのモデルを密かにリリースしています。 2つのモデルは次のとおりです
  • gemini 2.0フラッシュ思考実験
  • gemini 2.0フラッシュ思考アプリで実験
  • これらの実験モデルは、AI企業によって最もエキサイティングなモデルです。複雑な推論と論理的思考を提供するだけでなく、YouTube、マップ、検索などのGoogleの最も使用されているアプリも使用しています。
  • それでは、これらの最新リリースのそれぞれをGoogleによる1つずつ探索しましょう。
gemini 2.0 flash

フラッシュモデルは、大量の高周波タスク、速度と効率の優先順位付けに合わせて設計されています。 Gemini 2.0 Flashは、すべての人が公然と利用できるようになり、生産アプリケーションに適しています。このモデルの主要な機能は次のとおりです
  • 重いタスクを処理し、100万トークンの巨大なコンテキストウィンドウでマルチモーダル推論を実行できます。
  • GeminiアプリとGoogle AI StudioおよびVertex AIのGemini APIからアクセスできます。
  • このモデルは、タスクの取り扱いにおける速度と効率を備えたOpenaiのGPT-4O、DeepseekのV3、およびQwen-2.5に匹敵します。
  • 可用性:
このモデルは現在、GeminiアプリのGemini Advanced Subscribersのみが利用できますが、Google AI Studioでは、すべての人が無料で入手できます。したがって、有料のGeminiアカウント(無料の1か月のトライアルが付属している)がない場合は、Google AI Studioで試してみることができます。

さあ、geminiアプリでテストしましょう。

プロンプト:

「https://www.analyticsvidhya.com/blog/2024/07/building-agentic-rag-systems-with-langgraph/で記事を読んでください。次に、重要な手順の簡潔な要約を提供します

応答:

レビュー:

Google Gemini 2.0モデルに無料でアクセスする方法は?モデルは、Webリンクを読むのが得意です。明確な要約を生成し、ブログで取り上げられている広範なステップをリストします。したがって、Gemini Flash 2.0は、クエリを解くためにインターネットにアクセスするのが迅速で高速で効率的なモデルであることが証明されています。日々のコンテンツ関連のタスクや画像分析と生成に最適です。

gemini 2.0フラッシュライト

Flash Liteモデルは、費用対効果を念頭に置いて設計されています。前身である1.5フラッシュに基づいており、同じ印象的な速度と手頃な価格を維持しながら、品質の顕著な改善を提供します。そのハイライトのいくつかは次のとおりです

2.0フラッシュライトは、パフォーマンスと予算のバランスを求める開発者にとって優れた選択肢です。

このモデルは、100万のトークンコンテキストウィンドウを誇り、マルチモーダル入力をサポートし、幅広いタスクを処理できるようにします。

現在は公開プレビューにあり、Google AI StudioおよびVertex AIのGemini APIからアクセスできます。これにより、開発者はフラッシュライトをワークフローに実験して統合できます。

可用性:

Gemini 2.0 Flash Liteは、Google AI Studioで無料で入手できます。また、Vertex AIでも利用できますが、Geminiアプリではまだ利用できません。
    gemini 2.0フラッシュライトにアクセスする方法
  • Google AI StudioでGemini 2.0 Flash Liteを使用するには、次のことが必要です。
  • Webページにサインアップしてください
  • 完了したら、左側パネルの「プロンプトの作成」をクリックします。
右側のパネルから「モデル」セクションの下で、「Gemini 2.0 Flash Lite 02-05」を選択します。

テストしましょう。

プロンプト:

    次の画像を簡単な言葉で説明してください。

    Google Gemini 2.0モデルに無料でアクセスする方法は?

    応答:

    「この画像は、「世界」とユーザーと相互作用するAIエージェントを示しています。ここに故障があります:

  • ワールド: これは、インターネット、オペレーティングシステム、APIサーバー、ハードウェア、物理世界など、AIが運営する環境を表しています。
  • aiエージェント: 中央ボックスは、ユーザーから入力を受け取り、世界とやり取りするAIエージェントを表します。複数の部品で構成されています:
    1. ユーザー: AIと対話する人々。それらはAIに入力を提供します llm(大手言語モデル):
    2. AIの脳。情報を受け取り、処理し、決定を下します ツール:
    3. この部分には、AIが世界と対話するために使用できるさまざまなツール(WebサイトAPI、アプリケーション、シェル、データベースなど)が含まれています。
    4. メモリ: AIのメモリは、情報を保存して取得する場所(RAM、SQLデータベース、Vectordbsのデータなど)を保存して取得します。
    5. アクション: AIのアクションテイキングモジュールは、AIがLLMによって生成された命令を実行するようにします。
    6. それがどのように機能するか: ユーザー
  • ai。
  • への入力
    1. llm この入力を処理します
    2. llm メモリ
    3. およびツール action ツール 外部で行動する メモリ
    4. このプロセスが繰り返されます レビュー: 応答は、画像に関する小さな紹介から始まります。次に、画像の各部分を記述し、すべての個々の要素を分解します。最後に、画像のすべてのコンポーネントがどのように機能するかを簡単に説明します。このモデルは速く動作します!画像を分析して単純な説明に分割するのはすぐです。顧客クエリ解像度やQ/Aセッションのためのチャットボットの構築やインタビューの準備など、速度を必要とするタスクの場合。 Gemini 2.0 Flash Liteが理想的です gemini 2.0 pro Experimental gemini 2.0 Pro Experimentalは、能力に関するジェミニ家の頂点を表しています。最も複雑なタスク、特にコーディングを含むタスクに取り組むために設計されています。 Gemini 2.0 Proの実験バージョンについて注意すべき点をいくつか紹介します:
      • この最新のモデルには、200万の大規模なトークンコンテキストウィンドウがあり、膨大な量の情報を処理および理解できるようにします。
      • Google検索や実行などのツールを直接呼び出すユニークな機能があり、問題解決の可能性を大幅に拡大します。
      • 現在、実験段階では、Gemini 2.0 Pro Experimentalが洗練され、より広くリリースされる前にテストされています。
      • 可用性:
      このモデルも、GeminiアプリでAdvancedの有給ユーザーが利用できます。一方、ユーザーはGoogle AI StudioおよびVertex AIで無料でアクセスできます。したがって、有料のGeminiアカウントを持っていない場合(無料の1か月のトライアルを提供しています)、Google AI Studioで試すことができます。

      詳細については:Google Gemini 2.0 Pro Experimental better better Openai O3-Mini?

      このモデルのパフォーマンスを見てみましょう プロンプト:

      「このパズルを解決して、解決策で構成されるテーブルを教えてください。」

      このパズルは、次のWebサイトから調達されています。

      応答:

      Google Gemini 2.0モデルに無料でアクセスする方法は?

      これらの値をWebサイトに配置する

      Google Gemini 2.0モデルに無料でアクセスする方法は?

      レビュー:

      モデルはそのソリューションを説明し、プロンプトのようにソリューションテーブルでそれをフォローアップします。与えられた情報に基づいて正しい応答を生成しましたが、いくつかの場所では、色と通貨の値が誤っていないと仮定しました。ただし、全体的な応答ではこれらの値が重要ではなかったため、その最終結果は影響を受けません。言うまでもなく、Gemini 2.0 Pro Experimentalは、強力な推論と速度と精度を組み合わせています。 Google Gemini 2.0モデルに無料でアクセスする方法は?gemini 2.0フラッシュ思考実験

      フラッシュ思考実験モデルは、ジェミニ2.0フラッシュの速度と効率と推論能力の強化を組み合わせたエキサイティングな開発です。これにより、情報を迅速に処理するだけでなく、複雑な問題に論理的思考を適用することができます。 現在、このモデルはGeminiアプリのユーザーが利用できるため、一部のユーザーのみが高度な機能に早期にアクセスできます。

      実験モデルとして、それはまだ開発中ですが、問題をより効果的に推論し解決できるLLMSの将来を指し示しています。

      可用性:

      Gemini 2.0 Flashモデルは、Geminiアプリで有料版 - Gemini Advancedでのみ利用可能です。ただし、Google AI Studioでは、無料で利用できます。したがって、有料のGeminiアカウント(1か月の無料トライアルを提供している)がない場合は、Google AI Studioで試すことができます。

      ここで、このモデルが何ができるか見てみましょう。

      プロンプト:「あなたは部屋に足を踏み入れてベッドを見ます。ベッドには、2匹の犬、4匹の猫、キリン、5頭の牛、アヒルがいます。 3つの椅子とテーブルもあります。床にはいくつの脚がありますか?

      応答:

      これを分解しましょう:

        ベッドの上のもの:犬、猫、キリン、牛、アヒル。これらの動物はベッドの上にあるので、足は床にありません。
      • 部屋の物事(そして特に明記しない限り床にある可能性が高い):
      • 椅子:椅子には足があり、通常は床にあります。各椅子には4本の脚があり、3つの椅子があります。
          テーブル:テーブルには脚があり、通常は床にあります。テーブルには通常4本の脚があり、テーブルは1つあります。
        • あなた:あなたは部屋に入った。おそらく、あなたは立っているか歩んでいて、あなたの足は床にあります。 2本の脚があります。
        • 床の足を数えましょう:
        • 椅子:3椅子 * 4脚/椅子= 12脚

      テーブル:1表 * 4脚/テーブル= 4脚

        あなた:1人 * 2脚/人= 2脚
      • 床の総脚:12 4 2 = 18脚 したがって、
      • 床には18本の脚があります レビュー:

      この質問に対する正解は22です。これには、3本の椅子の12本の脚、テーブルの4本の脚、ベッドの4本の脚、および2本の脚が含まれます。 Gemini 2.0フラッシュ実験思考モデルは、個々の足(ほとんどのLLMが見逃しているもの)を考慮して、素晴らしい思考を示しています。しかし、それはベッドの足に数えることを忘れていました。したがって、素晴らしいにもかかわらず、モデルは論理的な推論で優れている可能性があります。 gemini 2.0フラッシュ思考アプリで実験 Flash Thinking Experimental Modelに基づいて、Flash Thinking Experimental AppsバージョンでのFlash Thinkingは、インタラクティブ性の重要なレイヤーを追加します。外部アプリケーションと対話する能力です。これが強力なモデルになっているものです:

      外部アプリとの統合により、モデルは理由だけでなく、異なるアプリ内でアクションを実行できるようになります。これにより、複雑なワークフローの自動化の可能性のある世界が開かれます。 このモデルは、LLMがデジタルライブに深く統合される可能性を示しており、毎日使用しているツールとシームレスに対話します。

      可用性:gemini 2.0フラッシュは、有料版でのみ利用可能です。GeminiAdvanced。一方、Google AI Studioでは、無料で利用できます。したがって、有料のGeminiアカウント(無料の1か月のトライアルが付属している)がない場合は、Google AI Studioで試してみることができます。

      では、テストしましょう。

      プロンプト:「自分の場所からニューデリー鉄道駅まで取ることができるすべての可能な道路ルートについて教えてください。私は現在ここにいます:https://maps.app.goo.gl/xciqxpugasxtxytk8”

      応答:

      ここに、K-3 Roadの現在の場所、DLFフェーズ2、セクター25、Gurugram、Haryana 122022、インドの現在の場所からニューデリー鉄道駅への道路ルートがあります。

      ここに、K-3 Road、DLFフェーズ2、セクター25、Gurugram、Haryana 122022、インドの場所にあるニューデリー鉄道駅への道路ルートがあります。

      ルート1:NH 48

      距離:16.4マイル

        期間:約49分
      • 概要:このルートは、主にNH 48
      • に従います
      • マップurl
      • これは現在提供されている唯一のルートです。代替ルートを探索したい場合は、高速道路や通行料を避けるなどの基準を指定できます。これらのオプションを確認できます。 レビュー:
      • わずか数秒で、モデルはプロンプトを介して考え、マップで共有した場所にアクセスし、私にとって最高のパスを提案します。ルートの詳細を提供し、参照用のマップリンクも共有します。このような機能は、新しい都市の場所を探したり、アドレスをすばやく見つけたりするときに、素晴らしい追加になる可能性があります。このLLMは、長いYouTubeビデオの転写や要約にも最適です。 YouTubeショーツを使用している間にエラーが発生しますが、

      このモデルは、推論、速度、および外部アプリのアクセシビリティの力を組み合わせています。このような能力は、これらの思考モデルですぐに見ることができるエージェントの性質の強い存在を示しています。 gemini 2.0モデル:ベンチマーク比較

      Googleの最新モデルのすべてと協力したので、これらのモデルがさまざまなベンチマークでどのように機能するかをすばやく見てみましょう。実験モデルを考えるための詳細はまだ利用できません。したがって、残りの3つのモデルとのみ協力します。Gemini2.0Flash、Flash Lite、およびPro。

      Capability Benchmark Gemini 2.0 Flash-Lite (Public Preview) Gemini 2.0 Flash (GA) Gemini 2.0 Pro Experimental
      General MMLU-Pro 71.6% 77.6% 79.1%
      Code LiveCodeBench (v5) 28.9% 34.5% 36.0%
      Code Bird-SQL (Dev) 57.4% 58.7% 59.3%
      Reasoning GQPA (diamond) 51.5% 60.1% 64.7%
      Factuality SimpleQA 21.7% 29.9% 44.3%
      Factuality FACTS Grounding 83.6% 84.6% 82.8%
      Multilingual Global MMLU (Lite) 78.2% 83.4% 86.5%
      Math MATH 86.8% 90.9% 91.8%
      Math HiddenMath 55.3% 63.5% 65.2%
      Long-context MRCR (1M) 58.0% 70.5% 74.7%
      Image MMMU 68.0% 71.7% 72.7%
      Audio CoVoST2 (21 lang) 38.4% 39.0% 40.6%
      Video EgoSchema (test) 67.2% 71.1% 71.9%

      ソース:Google DeepMindブログ

      gemini 2.0モデル:特徴の比較

      新しいモデルには、独自の機能セットがあります。次の表では、このブログで調査したすべてのモデルの機能とアプリケーションをリストしました。

      結論

      GoogleのGemini 2.0ラインナップは、生成AIモデル機能の大きなステップを示し、速度、効率、高度な推論に合わせて調整されたさまざまなモデルを提供します。 Gemini 2.0 Flash and Flash Liteは、ハイスループットと費用対効果の高いユースケースに対応していますが、Gemini 2.0 Pro Experimentalの外観は、長期の理解とツールの統合に有望です。実験モデル、特にアプリを使用したフラッシュ思考とフラッシュ思考は、論理的推論とシームレスなアプリの相互作用の可能性を紹介します。 Gemini 2.0を使用して、Googleは、よりコンテキストを意識し、マルチモーダルで、デジタルエコシステムに深く統合されたGenaiモデルの段階を設定しています。これらのモデルが進化するにつれて、AI駆動型のワークフロー、コンテンツ生成、リアルタイムの意思決定への影響は成長します。

      よくある質問

      q1。 Gemini 2.0?

      aとは何ですか。 Gemini 2.0は、Googleの最新のGen AIモデルのファミリーであり、推論の強化、マルチモーダル処理、高効率タスクのために設計されています。 Flash、Flash Lite、Pro、および2つの実験モデルが含まれています。アプリを使用したフラッシュ思考とフラッシュ思考。 Gemini 2.0は、OpenaiのO3-MiniおよびDeepseek R1と比較してどのように比較されますか? Gemini 2.0モデル、特にFlash and Proシリーズは、推論、効率、およびツール統合の観点から、OpenaiのO3-MiniおよびDeepseek R1と直接競合します。 Gemini 2.0 Flashは速度と費用対効果に焦点を当てていますが、Gemini 2.0 Pro Experimentalは複雑な推論とコーディングに優れています。 Gemini 2.0 Flash LiteとFlash Liteの違いは何ですか? Gemini 2.0 Flash LiteとFlash Liteの重要な違いは次のとおりです。Gemini 2.0 Flash:High-Throughput Tasks、Speed、Effeciency、および1M Tokenコンテキストの提供用に設計されています。 q4。ジェミニ2.0にはいくつの実験モデルがありますか?現在、gemini2.0には2つの実験モデルがあります:フラッシュ思考実験:

      論理的な推論と問題解決を強化します。アプリを使用したフラッシュ思考:は、思考モデルに基づいていますが、Google検索、マップ、YouTube、YouTube、YouTubeなどの外部アプリと統合します。 Gemini 2.0モデルにアクセスするにはどうすればよいですか?これらのモデルに次の方法でアクセスできます:


      ジェミニ2.0フラッシュ:Google AI Studio(無料)およびVertex AIで利用可能。ユーザー。
      gemini 2.0 pro Experimental:Google AI Studio(無料)およびGemini Advanced(Paid)で利用可能。

以上がGoogle Gemini 2.0モデルに無料でアクセスする方法は?の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
著者別の最新記事
人気のチュートリアル
詳細>
最新のダウンロード
詳細>
ウェブエフェクト
公式サイト
サイト素材
フロントエンドテンプレート