Das Rennen um die fortschrittlichste Argumentation LLM heizen sich auf und der Wettbewerb ist heftiger als je zuvor. Deepseek startete es mit Deepseek R1, gefolgt von OpenAIs O3-Mini, und jetzt hat Google eine Kraftpaket-Aufstellung eingetragen: Gemini 2.0 Flash, Flash Lite, Pro und zwei experimentelle Modelle-Flash 2.0 Denk und Denken mit Apps. Während Flash-Modelle bereits auf den Weg in öffentliche Tests gehen, können die experimentellen Argumenten und App-Integration neu definieren, wodurch O3-Mini und Deekseek-R1 herausfordern. In diesem Blog werden wir uns mit diesen neuen Modellen, ihren einzigartigen Funktionen und ihrem Wettbewerbsvorteil eintauchen. Lassen Sie uns eintauchen!
InhaltsverzeichnisZusammen mit diesen leistungsstarken Modellen hat Google auch heimlich zwei weitere Modelle veröffentlicht, die sich derzeit in ihrer experimentellen Phase befinden. Die beiden Modelle sind:
Erforschen wir also jede dieser neuesten Veröffentlichungen von Google nacheinander.
Verfügbarkeit: Dieses Modell ist derzeit nur für Gemini Advanced -Abonnenten in der Gemini -App verfügbar, während es im Google AI -Studio für alle kostenlos verfügbar ist. Wenn Sie also kein kostenpflichtiges Gemini-Konto haben (das mit einer kostenlosen einmonatigen Testversion ausgestattet ist), können Sie es in Google AI Studio versuchen.
Testen wir es jetzt in der Gemini -App.
Eingabeaufforderung: “Lesen Sie den Artikel unter https://www.analyticsvidhya.com/blog/2024/07/building-agentic-rag-systems-with-langgraph/, um den Prozess der Erstellung einer Vektordatenbank für Wikipedia-Daten zu verstehen. Geben Sie dann eine kurze Zusammenfassung der wichtigsten Schritte an. “
Antwort:
Bewertung:
Das Modell ist großartig darin, die Web -Links zu lesen. Es erzeugt eine klare Zusammenfassung und listet dann die im Blog behandelten breiten Schritte auf. Daher erweist Gemini Flash 2.0 ein schnelles und effizientes Modell, das schnell mit dem Zugriff auf das Internet für die Lösung von Abfragen zugreift. Es eignet sich hervorragend für tägliche inhaltsbezogene Aufgaben sowie für die Bildanalyse und -generation.
Das Flash-Lite-Modell ist im Hinblick auf die Kostenwirksamkeit ausgelegt. Es baut auf seinem Vorgänger 1,5 Blitz auf und bietet eine spürbare Qualitätsverbesserung und hält gleichzeitig die gleiche beeindruckende Geschwindigkeit und Erschwinglichkeit bei. Hier sind einige seiner Höhepunkte:
Verfügbarkeit: Gemini 2.0 Flash Lite, ist kostenlos in Google AI Studio verfügbar. Es ist auch in der Vertex -KI erhältlich, aber in der Gemini -App noch nicht verfügbar.
Um Gemini 2.0 Flash Lite in Google AI Studio zu verwenden, müssen Sie:
testen wir es.
Eingabeaufforderung: " Erklären Sie mir das folgende Bild in einfachen Worten."
Antwort:
„Dieses Bild zeigt einen AI -Agenten, der mit der„ Welt “und den Benutzern interagiert. Hier ist eine Aufschlüsselung:
Gemini 2.0 Pro Experimental
Verfügbarkeit: Auch dieses Modell ist nur bezahlten Benutzern von Gemini zur Verfügung, die in der Gemini -App erweitert sind. In der Zwischenzeit können Benutzer im Google AI Studio und der Vertex AI kostenlos darauf zugreifen. Wenn Sie also kein kostenpflichtiges Gemini-Konto haben (das eine kostenlose einmonatige Testversion bietet), können Sie es in Google AI Studio versuchen.
Erfahren Sie mehr: Google Gemini 2.0 Pro Experimental besser als OpenAI O3-Mini?
Schauen wir uns an, wie dieses Modell ausgeführt wird.
Eingabeaufforderung: „Lösen Sie dieses Puzzle und geben Sie mir die Tabelle, die aus der Lösung besteht.“
Dieses Puzzle wurde von der folgenden Website bezogen.
Antwort:
diese Werte auf der Website platzieren:
Bewertung:
Das Modell erklärt seine Lösung und folgt es mit einer Lösungstabelle, wie aufgefordert. Es erzeugte die richtigen Antworten, die auf den angegebenen Informationen basieren, obwohl es an einigen Stellen falsche Farb- und Währungswerte angenommen hat. Das Endergebnis ist jedoch weiterhin unberührt, da diese Werte bei der Gesamtreaktion keine Rolle spielten. Unnötig zu sagen, Gemini 2.0 Pro Experimental kombiniert leistungsstarke Argumentation mit Geschwindigkeit und Genauigkeit.
Das experimentelle Modell des Flash -Denkens ist eine aufregende Entwicklung, die die Geschwindigkeit und Effizienz von Gemini 2.0 Flash mit verbesserten Argumentationsfähigkeiten kombiniert. Dies ermöglicht es, nicht nur Informationen schnell zu verarbeiten, sondern auch logisches Denken auf komplexe Probleme anzuwenden.
Verfügbarkeit: Das Gemini 2.0 -Flash -Modell ist nur in der kostenpflichtigen Version erhältlich - Gemini Advanced, in der Gemini -App. In Google AI Studio ist es jedoch kostenlos verfügbar. Wenn Sie also kein kostenpflichtiges Gemini-Konto haben (das eine einmonatige kostenlose Testversion bietet), können Sie es in Google AI Studio versuchen.
Jetzt sehen wir sehen, was dieses Modell tun kann.
Eingabeaufforderung: „Sie gehen in ein Zimmer und sehen ein Bett. Auf dem Bett befinden sich zwei Hunde, vier Katzen, eine Giraffe, fünf Kühe und eine Ente. Es gibt auch drei Stühle und einen Tisch. Wie viele Beine sind auf dem Boden? ”
" Lassen Sie uns dies aufschlüsseln:
Lassen Sie uns die Beine auf dem Boden zählen:
Gesamtbeine auf dem Boden: 12 4 2 = 18 Beine
Daher befinden sich 18 Beine auf dem Boden. “
Bewertung:
Die richtige Antwort auf diese Frage ist 22, die 12 Beine mit 3 Stühlen, 4 Beinen des Tisches, 4 Beine des Bettes und 2 Beine der Person enthält. Gemini 2.0 Flash Experimental Thinking Model zeigt brillantes Denken und berücksichtigt die einzelnen Beine (etwas, das die meisten LLMs vermissen). Es hat jedoch vergessen, in den Beinen des Bettes zu zählen. Obwohl großartig, kann das Modell im logischen Denken besser sein.
Aufbau auf dem experimentellen Modell des Flash -Denkens fügt das Flash -Thinking -Experimental mit Apps -Version eine entscheidende Interaktivitätsschicht hinzu: die Fähigkeit, mit externen Anwendungen zu interagieren. Folgendes macht es zu einem mächtigen Modell:
Verfügbarkeit: Gemini 2.0 Flash ist nur in der kostenpflichtigen Version erhältlich - Gemini Advanced. In der Zwischenzeit ist es im Google AI Studio kostenlos verfügbar. Wenn Sie also kein kostenpflichtiges Gemini-Konto haben (das mit einer kostenlosen einmonatigen Testversion ausgestattet ist), können Sie es in Google AI Studio versuchen.
Also testen wir es.
Eingabeaufforderung: „Erzählen Sie mir von allen möglichen Straßenrouten, die ich von meinem Platz zum Bahnhof Neu -Delhi einnehmen kann. Ich bin derzeit hier: https://maps.app.goo.gl/xciqxpugasxtxytk8 ”
Antwort:
“ Hier sind die möglichen Straßenstrecken zum Bahnhof Neu-Delhi von Ihrem derzeitigen Standort in K-3 Road, DLF Phase 2, Sektor 25, Gurugram, Haryana 122022, Indien.
Hier finden Sie die möglichen Straßenrouten zum Bahnhof Neu-Delhi von Ihrem Standort in K-3 Road, DLF Phase 2, Sektor 25, Gurugram, Haryana 122022, Indien:
Route 1: über NH 48
Dies ist derzeit die einzige Route. Wenn Sie alternative Routen untersuchen möchten, können Sie Kriterien angeben, z. Bewertung:
Dieses Modell kombiniert die Leistung von Argumentation, Geschwindigkeit und externer App -Zugänglichkeit - alles in einem. Solche Fähigkeiten deuten auf eine starke Präsenz der agentenischen Natur hin, die wir mit diesen Denkmodellen bald sehen werden.
Gemini 2.0 Modelle: Benchmark -Vergleich
Capability | Benchmark | Gemini 2.0 Flash-Lite (Public Preview) | Gemini 2.0 Flash (GA) | Gemini 2.0 Pro Experimental |
General | MMLU-Pro | 71.6% | 77.6% | 79.1% |
Code | LiveCodeBench (v5) | 28.9% | 34.5% | 36.0% |
Code | Bird-SQL (Dev) | 57.4% | 58.7% | 59.3% |
Reasoning | GQPA (diamond) | 51.5% | 60.1% | 64.7% |
Factuality | SimpleQA | 21.7% | 29.9% | 44.3% |
Factuality | FACTS Grounding | 83.6% | 84.6% | 82.8% |
Multilingual | Global MMLU (Lite) | 78.2% | 83.4% | 86.5% |
Math | MATH | 86.8% | 90.9% | 91.8% |
Math | HiddenMath | 55.3% | 63.5% | 65.2% |
Long-context | MRCR (1M) | 58.0% | 70.5% | 74.7% |
Image | MMMU | 68.0% | 71.7% | 72.7% |
Audio | CoVoST2 (21 lang) | 38.4% | 39.0% | 40.6% |
Video | EgoSchema (test) | 67.2% | 71.1% | 71.9% |
Quelle: Google DeepMind Blog
Jedes neues Modell hat seine eigene einzigartige Funktionen. In der folgenden Tabelle habe ich die Funktionen und Anwendungen aller Modelle aufgelistet, die wir in diesem Blog untersucht haben.
Model | Context Window | Multimodal | Availability | Applications |
Gemini 2.0 Flash | 1 million | Yes | Generally available (incl. free in AI Studio) | Content summarization, data extraction, quick classification, basic question answering, high-throughput API services, real-time translation |
Gemini 2.0 Flash Lite | 1 million | Yes | Public preview | Mobile app features, basic chatbots, cost-sensitive document processing, educational tools for basic tasks, internal knowledge base lookup |
Gemini 2.0 Pro Experimental | 2 million | Yes | Experimental | Complex code generation, advanced data analysis, research assistants, sophisticated content creation, tool-integrated workflows (e.g., booking systems, CRM integrations), long-form content analysis |
Gemini 2.0 Flash Thinking | N/A | Yes | Gemini app (Paid) | Real-time decision-making, fast-paced problem solving, dynamic pricing, fraud detection, fast response bots with enhanced reasoning, live customer support escalation |
Gemini 2.0 Flash Thinking w/ Apps | N/A | Yes | Gemini app (Paid) | Complex automated workflows, interactive voice assistants with app actions, smart home automation, Robotic Process Automation (RPA), orchestration of AI services, automated scheduling and task management |
Googles Gemini 2.0-Line-up markiert einen großen Schritt in den Funktionen des generativen KI-Modells und bietet verschiedene Modelle, die auf Geschwindigkeit, Effizienz und fortschrittliche Argumentation zugeschnitten sind. Während Gemini 2.0 Flash und Flash Lite auf Hochdurchsatz- und kostengünstige Anwendungsfälle richten, sieht Gemini 2.0 Pro Experimental für ein lang Kontextverständnis und die Integration von Werkzeugen vielversprechend aus. Die experimentellen Modelle, insbesondere Flash -Denken und Blitz denken mit Apps, führen Möglichkeiten für logisches Denken und nahtlose App -Interaktionen ein.
Mit Gemini 2.0 stellt Google die Voraussetzungen für Genai-Modelle, die kontextbewusster, multimodal und tief in unsere digitalen Ökosysteme integriert sind. Wenn sich diese Modelle weiterentwickeln, werden ihre Auswirkungen auf KI-gesteuerte Workflows, Inhaltsgenerierung und Echtzeit-Entscheidungsfindung nur wachsen.
a. Gemini 2.0 ist die neueste Familie von Gen-AI-Modellen von Google, die für verbesserte Argumentation, multimodale Verarbeitung und hocheffiziente Aufgaben entwickelt wurde. Es enthält Flash, Flash Lite, Pro und zwei experimentelle Modelle - Flash -Denken und Blitz denken mit Apps.
Q2. Wie vergleichen sich Gemini 2.0 mit OpenAIs O3-Mini und Deepseek R1?a. Gemini 2.0-Modelle, insbesondere die Flash- und Pro-Serie, konkurrieren direkt mit OpenAIs O3-Mini und Deepseek R1 in Bezug auf Argumentation, Effizienz und Werkzeugintegration. Während Gemini 2.0 Flash sich auf Geschwindigkeit und Kosteneffizienz konzentriert, experimentelle Gemini 2.0 Pro Experimental in komplexem Denken und Codieren.
Q3. Was ist der Unterschied zwischen Gemini 2.0 Flash und Flash Lite? a. Die wichtigsten Unterschiede zwischen Gemini 2.0 Flash und Flash Lite sind wie folgt:
Gemini 2.0 Flash: für Hochdurchsatzaufgaben, die Geschwindigkeit, Effizienz und 1M-Token-Kontextfenster anbieten.
Q4. Wie viele experimentelle Modelle gibt es in Gemini 2.0? a. Derzeit gibt es 2 experimentelle Modelle in Gemini2.0:
a. Sie können auf diese Modelle auf folgende Weise zugreifen: Gemini 2.0 Flash:
In Google AI Studio (kostenlos) und Vertex AI verfügbar. Benutzer.
Das obige ist der detaillierte Inhalt vonWie greifen Sie kostenlos auf Google Gemini 2.0 -Modelle zu?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!