Maison > Périphériques technologiques > IA > Comment accéder gratuitement aux modèles Google Gemini 2.0?

Comment accéder gratuitement aux modèles Google Gemini 2.0?

Joseph Gordon-Levitt
Libérer: 2025-03-06 11:28:10
original
517 Les gens l'ont consulté

La course pour le raisonnement le plus avancé LLM se réchauffe, et la compétition est plus féroce que jamais. Deepseek l'a lancé avec Deepseek R1, suivi par O3-Mini d'Openai, et maintenant Google est entré avec une gamme Powerhouse: Gemini 2.0 Flash, Flash Lite, Pro et deux modèles expérimentaux - Flash 2.0 Thinking and Thinking avec des applications. Alors que les modèles Flash font déjà leur chemin dans les tests publics, ceux expérimentaux pourraient redéfinir le raisonnement et l'intégration des applications, contestant O3-Mini et Deepseek-R1. Dans ce blog, nous plongerons dans ces nouveaux modèles, leurs fonctionnalités uniques et leur avantage concurrentiel. Plongeons-nous!

Table des matières

  • Qu'est-ce que Gemini 2.0?
  • Gemini 2.0 Flash
  • Gemini 2.0 Flash Lite
    • Comment accéder à Gemini 2.0 Flash Lite
  • GEMINI 2.0 Flash Lite
  • GEMINI 2.0 FLASH LITE
  • GEMINI 2.0 FLASH LITE
Expérimental

GEMINI 2.0 Flash Thinking Experimental

Gemini 2.0 Flash Thinking Experimental with Apps
  1. Gemini 2.0 Modèles: Comparaison de benchmark
  2. Fréquemment remis en question
  3. : Fonctionne la comparaison
  4. Fréquemment remettre en question

.

Qu'est-ce que Gemini 2.0?
  1. Gemini 2.0 est le parapluie des derniers modèles multimodaux de Google. Ces modèles ont été développés par Google, en gardant en vue les exigences de l'ère agentique pour des modèles de cheval de travail très efficaces avec une faible latence et des performances améliorées. Dans la série Gemini 2.0, les modèles suivants ont été publiés jusqu'à présent:
  2. Gemini 2.0 Flash

Gemini 2.0 Flash Lite

Gemini 2.0 Pro expérimental

Parallèlement à ces modèles puissants, Google a également publié secrètement deux autres modèles qui sont actuellement dans leur phase expérimentale. Les deux modèles sont:

GEMINI 2.0 Flash Thinking Experimental Gemini 2.0 Flash Thinking Experimental avec les applications Ces modèles expérimentaux sont de loin les modèles les plus excitants de toute entreprise d'IA. Non seulement ils offrent un raisonnement complexe et une pensée logique, mais ils fonctionnent également avec les applications les plus utilisées de Google comme YouTube, les cartes et la recherche. Alors, explorons chacune de ces dernières versions de Google, une par une. Gemini 2.0 Flash Les modèles Flash sont conçus pour les tâches à volume élevé et à haute fréquence, la priorité à la vitesse et à l'efficacité. Gemini 2.0 Flash est désormais ouvertement disponible pour tout le monde, ce qui le rend adapté aux applications de production. Voici les principales caractéristiques de ce modèle:
  • Il peut gérer des tâches lourdes et effectuer un raisonnement multimodal avec une énorme fenêtre de contexte de 1 million de jetons.
  • Il est accessible dans l'application Gemini et via l'API Gemini dans Google AI Studio and Vertex Ai.
  • Le modèle est comparable au GPT-4O d'Openai, au V3 de Deepseek et à QWEN-2.5 avec sa vitesse et son efficacité dans les tâches de manipulation.

Disponibilité: Ce modèle est actuellement disponible uniquement pour les abonnés Gemini Advanced sur l'application Gemini, tandis que dans le studio Google AI, il est disponible pour tous gratuitement. Donc, si vous n'avez pas de compte Gemini payant (qui est livré avec un essai gratuit d'un mois), vous pouvez l'essayer dans Google AI Studio.

Maintenant, testons-le sur l'application Gemini.

Invite: "Lisez l'article à https://www.analyticsvidhya.com/blog/2024/07/building-agentic-rag-systems-with-langgraph/ pour comprendre le processus de création d'une base de données vectorielle pour les données Wikipedia. Ensuite, fournissez un résumé concis des étapes clés. »

Réponse:

Comment accéder gratuitement aux modèles Google Gemini 2.0?

Revue:

Le modèle est idéal pour lire les liens Web. Il génère un résumé clair, puis répertorie les étapes larges couvertes dans le blog. Ainsi, Gemini Flash 2.0 s'avère être un modèle rapide et efficace qui est rapide à accéder à Internet pour résoudre les requêtes. C'est idéal pour les tâches quotidiennes liées au contenu ainsi que pour l'analyse et la génération d'images.

Gemini 2.0 Flash Lite

Le modèle Flash Lite est conçu avec une efficacité à l'esprit. Il s'appuie sur son prédécesseur, 1,5 Flash, offrant une amélioration notable de la qualité tout en maintenant la même vitesse et l'abordabilité impressionnantes. Voici quelques-uns de ses points forts:

  • 2.0 Flash Lite est un excellent choix pour les développeurs à la recherche d'un équilibre entre la performance et le budget.
  • Le modèle possède une fenêtre de contexte de jeton de 1 million et prend en charge les entrées multimodales, ce qui lui permet de gérer une large gamme de tâches.
  • Il est actuellement en aperçu public, accessible via l'API Gemini dans Google AI Studio et Vertex AI. Cela permet aux développeurs d'expérimenter et d'intégrer Flash Lite dans leurs flux de travail.

Disponibilité: Gemini 2.0 Flash Lite, est disponible gratuitement dans Google AI Studio. Il est également disponible en sommet AI, mais pas encore disponible dans l'application Gemini.

Comment accéder à Gemini 2.0 Flash Lite

Pour utiliser Gemini 2.0 Flash Lite dans Google AI Studio, vous devrez:

  1. Inscrivez-vous sur la page Web.
  2. Une fois terminée, cliquez sur "Créer une invite" dans le panneau du côté gauche.
  3. Dans le panneau du côté droit, dans la section «modèle», sélectionnez «Gemini 2.0 Flash Lite 02-05».

le testons.

Invite: " Expliquez-moi l'image suivante en mots simples."

Comment accéder gratuitement aux modèles Google Gemini 2.0?

Réponse:

"Cette image montre un agent d'IA interagissant avec le" monde "et les utilisateurs. Voici une ventilation:

  • Monde: Cela représente l'environnement dans lequel les opérations de l'IA opère, y compris Internet, les systèmes d'exploitation, les serveurs API, le matériel et le monde physique.
  • Agent AI: La boîte centrale représente l'agent AI, qui reçoit les entrées des utilisateurs et interagit avec le monde. Il est composé de plusieurs parties:
    1. Utilisateurs: Les gens interagissent avec l'IA. Ils fournissent une entrée à l'Ai.
    2. LLM (modèle grand langage): le cerveau de l'AI. Il reçoit des informations, les traite et prend des décisions.
    3. Outils: Cette partie contient divers outils que l'IA peut utiliser pour interagir avec le monde (API du site Web, applications, shell, base de données, etc.)
    4. Mémoire: La mémoire de l'IA, où elle stocke et récupère des informations (comme les données dans RAM, les bases de données SQL et Vectordbs).
    5. Action: Le module de prise d'action de l'IA, fait que l'IA exécute les instructions générées par le llm.
  • comment cela fonctionne:
    1. utilisateurs Entrée à l'Ai.
    2. le llm traite cette entrée.
    3. le llm utilise Memory et outils pour générer un an Action .
    4. Tools act on the outside world, then the LLM gets feedback and this will update the Mémoire .
    5. Ce processus se répète. »

Revue:

La réponse commence par une petite introduction sur l'image. Il décrit ensuite chaque partie de l'image, puis il décompose tous les éléments individuels. Enfin, il explique brièvement comment fonctionnent tous les composants de l'image. Ce modèle fonctionne rapidement! Il est rapide d'analyser et de diviser l'image en explications simples. Pour les tâches qui nécessitent de la vitesse, comme la construction de chatbots pour la résolution des requêtes du client ou les sessions Q / A, et la préparation des entretiens; Gemini 2.0 Flash Lite serait idéal.

Gemini 2.0 Pro expérimental

Gemini 2.0 Pro Experimental représente le summum de la famille des Gémeaux en ce qui concerne la capacité. Il est conçu pour lutter contre les tâches les plus complexes, en particulier celles impliquant le codage. Voici quelques points à noter sur la version expérimentale de Gemini 2.0 Pro:

  • Ce dernier modèle a une fenêtre de contexte de jetons de 2 millions de token massive, ce qui lui permet de traiter et de comprendre de grandes quantités d'informations.
  • Il a la capacité unique d'appeler des outils comme Google Search et Exécuter le code directement, élargissant considérablement son potentiel de résolution de problèmes.
  • Actuellement, dans la phase expérimentale, Gemini 2.0 Pro expérimental est affiné et testé avant la libération plus large.

Disponibilité: Ce modèle est également disponible uniquement pour les utilisateurs payants de Gemini Advanced sur l'application Gemini. Pendant ce temps, les utilisateurs peuvent y accéder gratuitement dans le studio Google AI et l'IA Vertex. Donc, si vous n'avez pas de compte Gemini payant (qui propose un essai gratuit d'un mois), vous pouvez l'essayer dans Google AI Studio.

En savoir plus: Google Gemini 2.0 Pro expérimental mieux que Openai O3-Mini?

Voyons comment ce modèle fonctionne.

Invite: "Résolvez ce puzzle et donnez-moi le tableau composé de la solution."

Comment accéder gratuitement aux modèles Google Gemini 2.0?

Ce puzzle provient du site Web suivant.

Réponse:

Comment accéder gratuitement aux modèles Google Gemini 2.0?

Placer ces valeurs sur le site Web:

Comment accéder gratuitement aux modèles Google Gemini 2.0?

Revue:

Le modèle explique sa solution et le suit avec une table de solution, comme l'invite. Il a généré les réponses correctes en fonction des informations fournies, bien qu'à quelques endroits, il ait supposé des valeurs incorrectes de couleur et de devise. Cependant, son résultat final ne reste pas affecté car ces valeurs n'avaient pas d'importance dans la réponse globale. Inutile de dire que Gemini 2.0 Pro Experimental combine un raisonnement puissant avec la vitesse et la précision.

GEMINI 2.0 Flash Thinking Experimental

Le modèle expérimental Flash Thinking est un développement passionnant qui combine la vitesse et l'efficacité du flash Gemini 2.0 avec des capacités de raisonnement améliorées. Cela lui permet non seulement de traiter les informations rapidement, mais également d'appliquer une réflexion logique à des problèmes complexes.

  • Actuellement, ce modèle est disponible pour les utilisateurs de l'application Gemini, n'offrant que certains des utilisateurs à l'accès précoce à ses capacités avancées.
  • En tant que modèle expérimental, il est toujours en cours de développement, mais il pointe vers l'avenir des LLM qui peuvent raisonner et résoudre les problèmes plus efficacement.

Disponibilité: Le modèle Flash Gemini 2.0 n'est disponible que dans la version payante - Gemini Advanced, sur l'application Gemini. Cependant, dans Google AI Studio, il est disponible gratuitement. Donc, si vous n'avez pas de compte Gemini payant (qui propose un essai gratuit d'un mois), vous pouvez l'essayer dans Google AI Studio.

Voyons maintenant ce que ce modèle peut faire.

Invite: "Vous entrez dans une pièce et voyez un lit. Sur le lit, il y a deux chiens, quatre chats, une girafe, cinq vaches et un canard. Il y a aussi trois chaises et une table. Combien de jambes est sur le sol? »

Réponse:

" Décomposons cela:

  • choses sur le lit: chiens, chats, girafe, vaches, canard. Ces animaux sont sur le lit, donc leurs jambes ne sont pas sur le sol.
  • des choses dans la pièce (et probablement sur le sol sauf indication contraire):
    • chaises: Les chaises ont des jambes et elles sont généralement sur le sol. Chaque chaise a 4 jambes, et il y a 3 chaises.
    • Tableau: Les tables ont des jambes et elles sont généralement sur le sol. Les tables ont généralement 4 jambes, et il y a 1 table.
    • vous: vous êtes entré dans la pièce. Vraisemblablement, vous êtes debout ou marchez, et vos jambes sont sur le sol. Vous avez 2 jambes.

Contons les jambes sur le sol:

  • chaises: 3 chaises * 4 jambes / chaise = 12 jambes
  • Tableau: 1 Tableau * 4 jambes / table = 4 jambes
  • vous: 1 personne * 2 jambes / personne = 2 jambes

Lignes totales sur le sol: 12 4 2 = 18 jambes

Par conséquent, il y a 18 jambes sur le sol. "

Revue:

La bonne réponse à cette question est 22 qui comprend 12 jambes de 3 chaises, 4 jambes de la table, 4 jambes du lit et 2 jambes de la personne. Le modèle de pensée expérimentale Gemini 2.0 Flash présente une pensée brillante, tenant compte des jambes individuelles (quelque chose que la plupart des LLM manquent). Pourtant, il a oublié de compter dans les jambes du lit. Par conséquent, même s'il est grand, le modèle peut être meilleur pour le raisonnement logique.

Gemini 2.0 Flash Thinking Experimental avec les applications

En s'appuyant sur le modèle expérimental Flash Thinking, la version Flash Thinking Experimental with Apps ajoute une couche cruciale d'interactivité: la capacité d'interagir avec les applications externes. Voici ce qui en fait un modèle puissant:

  • Son intégration avec les applications externes rend le modèle capable non seulement de raisonner, mais aussi de prendre des mesures dans différentes applications. Cela ouvre un monde de possibilités d'automatisation des flux de travail complexes.
  • Le modèle présente le potentiel pour que les LLM se soient profondément intégrés dans notre vie numérique, interagissant de manière transparente avec les outils que nous utilisons quotidiennement.

Disponibilité: Gemini 2.0 Flash est uniquement disponible dans la version payante - Gemini Advanced. Pendant ce temps, dans le studio Google AI, il est disponible gratuitement. Donc, si vous n'avez pas de compte Gemini payant (qui est livré avec un essai gratuit d'un mois), vous pouvez l'essayer dans Google AI Studio.

Alors, testons-le.

Invite: «Parlez-moi de tous les itinéraires routiers possibles que je peux emporter de ma place à la gare de New Delhi. Je suis actuellement là: https://maps.app.goo.gl/xciqxpugasxtxytk8 ”

Réponse:

« Voici les routes routières possibles vers la gare de New Delhi depuis votre emplacement actuel à K-3 Road, DLF Phase 2, secteur 25, Gurugram, Haryana 122022, Inde.

Voici les routes routières possibles vers la gare de New Delhi depuis votre emplacement à K-3 Road, DLF Phase 2, secteur 25, Gurugram, Haryana 122022, Inde:

Route 1: via NH 48

  • Distance: 16,4 miles
  • Durée: environ 49 minutes
  • Résumé: Cette route suit principalement NH 48 .
  • URL de carte

Il s'agit actuellement du seul itinéraire fourni. Si vous souhaitez explorer d'autres itinéraires, vous pouvez spécifier des critères tels que d'éviter les autoroutes ou les péages, et je peux vérifier ces options. »

Revue:

En quelques secondes, le modèle réfléchit à l'invite, accède à l'emplacement que j'ai partagé via la carte et suggère le meilleur chemin possible pour moi. Il me donne les détails de l'itinéraire et partage également un lien de carte pour ma référence. Une telle fonctionnalité peut être un excellent ajout lorsque vous recherchez des endroits dans une nouvelle ville ou pour localiser les adresses rapidement. Ce LLM est également idéal pour transcrire ou résumer de longues vidéos YouTube. Bien qu'il rencontre des erreurs tout en travaillant avec des shorts YouTube.

Ce modèle combine la puissance du raisonnement, de la vitesse et de l'accessibilité des applications externes - le tout en un. De telles capacités indiquent une forte présence de nature agentique que nous pourrons bientôt voir avec ces modèles de réflexion.

Modèles Gemini 2.0: comparaison de référence

Maintenant que nous avons travaillé avec tous les derniers modèles de Google, examinons rapidement comment ces modèles fonctionnent à différentes références. Les détails de la réflexion sur les modèles expérimentaux ne sont pas encore disponibles, nous ne travaillons donc qu'avec les autres modèles: Gemini 2.0 Flash, Flash Lite et Pro.

Capability Benchmark Gemini 2.0 Flash-Lite (Public Preview) Gemini 2.0 Flash (GA) Gemini 2.0 Pro Experimental
General MMLU-Pro 71.6% 77.6% 79.1%
Code LiveCodeBench (v5) 28.9% 34.5% 36.0%
Code Bird-SQL (Dev) 57.4% 58.7% 59.3%
Reasoning GQPA (diamond) 51.5% 60.1% 64.7%
Factuality SimpleQA 21.7% 29.9% 44.3%
Factuality FACTS Grounding 83.6% 84.6% 82.8%
Multilingual Global MMLU (Lite) 78.2% 83.4% 86.5%
Math MATH 86.8% 90.9% 91.8%
Math HiddenMath 55.3% 63.5% 65.2%
Long-context MRCR (1M) 58.0% 70.5% 74.7%
Image MMMU 68.0% 71.7% 72.7%
Audio CoVoST2 (21 lang) 38.4% 39.0% 40.6%
Video EgoSchema (test) 67.2% 71.1% 71.9%

Source: Google DeepMind Blog

Modèles Gemini 2.0: Comparaison des caractéristiques

Chaque nouveau modèle a son propre ensemble de fonctionnalités uniques. Dans le tableau suivant, j'ai répertorié les fonctionnalités et les applications de tous les modèles que nous avons explorés dans ce blog.

Model Context Window Multimodal Availability Applications
Gemini 2.0 Flash 1 million Yes Generally available (incl. free in AI Studio) Content summarization, data extraction, quick classification, basic question answering, high-throughput API services, real-time translation
Gemini 2.0 Flash Lite 1 million Yes Public preview Mobile app features, basic chatbots, cost-sensitive document processing, educational tools for basic tasks, internal knowledge base lookup
Gemini 2.0 Pro Experimental 2 million Yes Experimental Complex code generation, advanced data analysis, research assistants, sophisticated content creation, tool-integrated workflows (e.g., booking systems, CRM integrations), long-form content analysis
Gemini 2.0 Flash Thinking N/A Yes Gemini app (Paid) Real-time decision-making, fast-paced problem solving, dynamic pricing, fraud detection, fast response bots with enhanced reasoning, live customer support escalation
Gemini 2.0 Flash Thinking w/ Apps N/A Yes Gemini app (Paid) Complex automated workflows, interactive voice assistants with app actions, smart home automation, Robotic Process Automation (RPA), orchestration of AI services, automated scheduling and task management

Conclusion

La gamme Gemini 2.0 de Google marque un grand pas dans les capacités génératives du modèle d'IA, offrant divers modèles adaptés à la vitesse, à l'efficacité et au raisonnement avancé. Alors que Gemini 2.0 Flash et Flash Lite s'adaptent aux cas d'utilisation à haut débit et à coûts rentables, Gemini 2.0 Pro Experimental semble prometteur pour la compréhension et l'intégration des outils à long terme. Les modèles expérimentaux, en particulier la pensée flash et la pensée flash avec les applications, introduisent des possibilités de raisonnement logique et d'interactions d'application sans couture.

Avec Gemini 2.0, Google prépare la voie à des modèles Genai qui sont plus conscients, multimodaux et profondément intégrés dans nos écosystèmes numériques. À mesure que ces modèles évoluent, leur impact sur les flux de travail axés sur l'IA, la génération de contenu et la prise de décision en temps réel ne feront que croître.

Les questions fréquemment posées

Q1. Qu'est-ce que Gemini 2.0?

a. Gemini 2.0 est la dernière famille de modèles de Gen Gen AI de Google conçus pour un raisonnement amélioré, un traitement multimodal et des tâches à haute efficacité. Il comprend Flash, Flash Lite, Pro et deux modèles expérimentaux - Flash Thinking et Flash Thinking with Apps.

Q2. Comment Gemini 2.0 se compare-t-il à O3-Mini et à Deepseek R1 d'Openai?

a. Les modèles Gemini 2.0, en particulier la série Flash et Pro, rivalisent directement avec O3-Mini et Deepseek R1 d'OpenAI en termes de raisonnement, d'efficacité et d'intégration d'outils. Alors que Gemini 2.0 Flash se concentre sur la vitesse et la rentabilité, Gemini 2.0 Pro expérimental excelle dans le raisonnement et le codage complexes.

Q3. Quelle est la différence entre Gemini 2.0 Flash et Flash Lite?

a. Les principales différences entre Gemini 2.0 Flash et Flash Lite sont les suivantes:
Gemini 2.0 Flash: Conçu pour les tâches à haut débit, offrant la vitesse, l'efficacité et une fenêtre de contexte de jeton de 1 m.
Q4. Combien de modèles expérimentaux y a-t-il dans Gemini 2.0? a. Il existe actuellement 2 modèles expérimentaux dans Gemini2.0:

Flash Thinking Expérimental: Améliore le raisonnement logique et la résolution de problèmes.


La pensée flash avec les applications: s'appuie sur le modèle de réflexion, mais s'intègre avec des applications externes comme la recherche Google, les cartes et les maps et le tube, permet aux interactions réelles. Comment puis-je accéder aux modèles Gemini 2.0?
a. Vous pouvez accéder à ces modèles de la manière suivante: GEMINI 2.0 Flash:

Disponible dans Google Ai Studio (gratuit) et Vertex Ai. GEMINI 2.0 Flash Lite:

Dans Public Preview via Google Ai Studio and Vertex Ai.
Flash Think utilisateurs.
Gemini 2.0 Pro Experimental: Disponible dans Google AI Studio (gratuit) et Gemini Advanced (payé).

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Derniers articles par auteur
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal