Heim > Technologie-Peripheriegeräte > KI > Wie greifen Sie kostenlos auf Google Gemini 2.0 -Modelle zu?

Wie greifen Sie kostenlos auf Google Gemini 2.0 -Modelle zu?

Joseph Gordon-Levitt
Freigeben: 2025-03-06 11:28:10
Original
524 Leute haben es durchsucht

Das Rennen um die fortschrittlichste Argumentation LLM heizen sich auf und der Wettbewerb ist heftiger als je zuvor. Deepseek startete es mit Deepseek R1, gefolgt von OpenAIs O3-Mini, und jetzt hat Google eine Kraftpaket-Aufstellung eingetragen: Gemini 2.0 Flash, Flash Lite, Pro und zwei experimentelle Modelle-Flash 2.0 Denk und Denken mit Apps. Während Flash-Modelle bereits auf den Weg in öffentliche Tests gehen, können die experimentellen Argumenten und App-Integration neu definieren, wodurch O3-Mini und Deekseek-R1 herausfordern. In diesem Blog werden wir uns mit diesen neuen Modellen, ihren einzigartigen Funktionen und ihrem Wettbewerbsvorteil eintauchen. Lassen Sie uns eintauchen!

Inhaltsverzeichnis

  • Was ist Gemini 2.0? Experimental
  • Gemini 2.0 Flash Thinking Experimental
  • Gemini 2.0 Flash Thinking Experimental with Apps
    • Gemini 2.0 Models: Benchmark Comparison
    Gemini 2.0 Models: Features Comparison
  • Frequently Asked Questions
  • Was ist Gemini 2.0?
  • Gemini 2.0 ist der Dach der neuesten multimodalen Modelle von Google. Diese Modelle wurden von Google entwickelt, um die Anforderungen der Agenten -Ära für hocheffiziente Arbeitspferdmodelle mit geringer Latenz und verbesserter Leistung in Sicht zu halten. In der Zweitreihe Gemini 2.0 wurden bisher die folgenden Modelle veröffentlicht:
  • Gemini 2.0 Flash
  • Gemini 2.0 Flash Lite
Gemini 2.0 Pro Experimental

Zusammen mit diesen leistungsstarken Modellen hat Google auch heimlich zwei weitere Modelle veröffentlicht, die sich derzeit in ihrer experimentellen Phase befinden. Die beiden Modelle sind:

  1. Gemini 2.0 Flash Thinking Experimental
  2. Gemini 2.0 Flash Thinking Experimental mit Apps
  3. Diese experimentellen Modelle sind bei weitem die aufregendsten Modelle jedes KI -Unternehmens. Sie bieten nicht nur ein komplexes Denken und logisches Denken an, sondern arbeiten auch mit Googles am häufigsten verwendeten Apps wie YouTube, Maps und Search.

Erforschen wir also jede dieser neuesten Veröffentlichungen von Google nacheinander.

    Gemini 2.0 Flash
  1. Die Flash-Modelle sind für hochvolumige, hochfrequente Aufgaben, Priorisierung von Geschwindigkeit und Effizienz ausgelegt. Gemini 2.0 Flash ist jetzt offen für alle erhältlich, wodurch es für Produktionsanwendungen geeignet ist. Hier sind die Schlüsselmerkmale dieses Modells:
    • Es kann schwere Aufgaben erledigen und multimodales Denken mit einem riesigen Kontextfenster von 1 Million Token ausführen.
    • Es ist in der Gemini -App und über die Gemini -API in Google AI Studio und Vertex AI zugänglich.
    • Das Modell ist vergleichbar mit OpenAIs GPT-4O, Deepseeks V3 und Qwen-2.5 mit seiner Geschwindigkeit und Effizienz bei den Handhabungsaufgaben.

    Verfügbarkeit: Dieses Modell ist derzeit nur für Gemini Advanced -Abonnenten in der Gemini -App verfügbar, während es im Google AI -Studio für alle kostenlos verfügbar ist. Wenn Sie also kein kostenpflichtiges Gemini-Konto haben (das mit einer kostenlosen einmonatigen Testversion ausgestattet ist), können Sie es in Google AI Studio versuchen.

    Testen wir es jetzt in der Gemini -App.

    Eingabeaufforderung: “Lesen Sie den Artikel unter https://www.analyticsvidhya.com/blog/2024/07/building-agentic-rag-systems-with-langgraph/, um den Prozess der Erstellung einer Vektordatenbank für Wikipedia-Daten zu verstehen. Geben Sie dann eine kurze Zusammenfassung der wichtigsten Schritte an. “

    Antwort:

    Wie greifen Sie kostenlos auf Google Gemini 2.0 -Modelle zu?

    Bewertung:

    Das Modell ist großartig darin, die Web -Links zu lesen. Es erzeugt eine klare Zusammenfassung und listet dann die im Blog behandelten breiten Schritte auf. Daher erweist Gemini Flash 2.0 ein schnelles und effizientes Modell, das schnell mit dem Zugriff auf das Internet für die Lösung von Abfragen zugreift. Es eignet sich hervorragend für tägliche inhaltsbezogene Aufgaben sowie für die Bildanalyse und -generation.

    Gemini 2.0 Flash Lite

    Das Flash-Lite-Modell ist im Hinblick auf die Kostenwirksamkeit ausgelegt. Es baut auf seinem Vorgänger 1,5 Blitz auf und bietet eine spürbare Qualitätsverbesserung und hält gleichzeitig die gleiche beeindruckende Geschwindigkeit und Erschwinglichkeit bei. Hier sind einige seiner Höhepunkte:

    • 2.0 Flash Lite ist eine ausgezeichnete Wahl für Entwickler, die nach einer Balance zwischen Leistung und Budget suchen.
    • Das Modell verfügt über ein 1 -Million -Token -Kontextfenster und unterstützt multimodale Eingaben, sodass es eine Vielzahl von Aufgaben verarbeiten kann.
    • Es ist derzeit in der öffentlichen Vorschau, die über die Gemini -API in Google AI Studio und Vertex AI zugänglich ist. Dies ermöglicht es Entwicklern, Flash Lite in ihre Workflows zu experimentieren und zu integrieren.

    Verfügbarkeit: Gemini 2.0 Flash Lite, ist kostenlos in Google AI Studio verfügbar. Es ist auch in der Vertex -KI erhältlich, aber in der Gemini -App noch nicht verfügbar.

    So greifen Sie auf Gemini 2.0 Flash Lite

    zu

    Um Gemini 2.0 Flash Lite in Google AI Studio zu verwenden, müssen Sie:
    1. Melden Sie sich auf der Webseite an.
    2. Klicken Sie nach Abschluss auf "Eingabeaufforderung erstellen" im linken Seitenfeld.
    3. Wählen Sie unter dem Abschnitt „Modell“ unter dem Abschnitt „Modell“ „Gemini 2.0 Flash Lite 02-05“.

    testen wir es.

    Eingabeaufforderung: " Erklären Sie mir das folgende Bild in einfachen Worten."

    Wie greifen Sie kostenlos auf Google Gemini 2.0 -Modelle zu?

    Antwort:

    „Dieses Bild zeigt einen AI -Agenten, der mit der„ Welt “und den Benutzern interagiert. Hier ist eine Aufschlüsselung:

    • Welt: Dies repräsentiert die Umgebung, in der die KI arbeitet, einschließlich Internet, Betriebssysteme, API -Server, Hardware und der physischen Welt.
    • AI -Agent: Das zentrale Feld repräsentiert den AI -Agenten, der Eingaben von Benutzern erhält und mit der Welt interagiert. Es besteht aus mehreren Teilen:
      1. Benutzer: Menschen, die mit der AI interagieren. Sie liefern Eingaben in die AI.
      2. llm (großes Sprachmodell): Das Gehirn der KI. Es empfängt Informationen, verarbeitet sie und trifft Entscheidungen.
      3. Tools: Dieser Teil enthält verschiedene Tools, mit denen die KI mit der Welt interagieren kann (Website -APIs, Anwendungen, Shell, Datenbank usw.)
      4. Speicher: Der Speicher der KI, in dem sie Informationen gespeichert und abruft (wie Daten in RAM, SQL -Datenbanken und Vektorien).
      5. Aktion: Das Aktion-Aufbau-Modul der KI führt die KI aus, die die vom LLM generierten Anweisungen ausführen.
    • Wie es funktioniert:
      1. Benutzer Eingabe in die AI.
      2. Die llm verarbeitet diese Eingabe.
      3. Die llm verwendet Speicher und Tools , um zu generieren und eine zu generieren und eine AN -Tools zu generieren und eine AN -Tools zu generieren, und ein ANTERGABET Aktion .
      4. Tools Wirken Sie auf die Außenseite Welt , dann ist der llm Speicher .
      5. Dieser Vorgang wiederholt sich. ”
    Bewertung:

    Die Antwort beginnt mit einer kleinen Einführung zum Bild. Es beschreibt dann jeden Teil des Bildes und dann alle einzelnen Elemente aufbricht. Schließlich erklärt es kurz, wie alle Komponenten des Bildes funktionieren. Dieses Modell funktioniert schnell! Es ist schnell zu analysieren und das Bild in einfache Erklärungen zu unterteilen. Für Aufgaben, die Geschwindigkeit erfordern, wie Chatbots für die Auflösung von Kundenabfragen oder Q/A -Sitzungen und Interviewvorbereitung zu erstellen; Gemini 2.0 Flash Lite wäre ideal.

    Gemini 2.0 Pro Experimental

    Gemini 2.0 Pro Experimental repräsentiert den Höhepunkt der Gemini -Familie in Bezug auf die Fähigkeit. Es ist für die Bekämpfung der komplexesten Aufgaben konstruiert, insbesondere für die Codierung. Hier sind einige Punkte zur experimentellen Version von Gemini 2.0 Pro:

    • Dieses neueste Modell hat ein massives 2 -Millionen -Token -Kontextfenster, sodass es große Informationen verarbeiten und verstehen kann.
    • Es verfügt über die eindeutige Fähigkeit, Tools wie Google Search aufzurufen und Code direkt auszuführen, wodurch sein Problemlösungspotential erheblich erweitert wird.
    • Derzeit wird in der experimentellen Phase Gemini 2.0 Pro Experimental verfeinert und vor einer breiteren Freisetzung getestet.

    Verfügbarkeit: Auch dieses Modell ist nur bezahlten Benutzern von Gemini zur Verfügung, die in der Gemini -App erweitert sind. In der Zwischenzeit können Benutzer im Google AI Studio und der Vertex AI kostenlos darauf zugreifen. Wenn Sie also kein kostenpflichtiges Gemini-Konto haben (das eine kostenlose einmonatige Testversion bietet), können Sie es in Google AI Studio versuchen.

    Erfahren Sie mehr: Google Gemini 2.0 Pro Experimental besser als OpenAI O3-Mini?

    Schauen wir uns an, wie dieses Modell ausgeführt wird.

    Eingabeaufforderung: „Lösen Sie dieses Puzzle und geben Sie mir die Tabelle, die aus der Lösung besteht.“

    Wie greifen Sie kostenlos auf Google Gemini 2.0 -Modelle zu?

    Dieses Puzzle wurde von der folgenden Website bezogen.

    Antwort:

    Wie greifen Sie kostenlos auf Google Gemini 2.0 -Modelle zu?

    diese Werte auf der Website platzieren:

    Wie greifen Sie kostenlos auf Google Gemini 2.0 -Modelle zu?

    Bewertung:

    Das Modell erklärt seine Lösung und folgt es mit einer Lösungstabelle, wie aufgefordert. Es erzeugte die richtigen Antworten, die auf den angegebenen Informationen basieren, obwohl es an einigen Stellen falsche Farb- und Währungswerte angenommen hat. Das Endergebnis ist jedoch weiterhin unberührt, da diese Werte bei der Gesamtreaktion keine Rolle spielten. Unnötig zu sagen, Gemini 2.0 Pro Experimental kombiniert leistungsstarke Argumentation mit Geschwindigkeit und Genauigkeit.

    Gemini 2.0 Flash Thinking Experimental

    Das experimentelle Modell des Flash -Denkens ist eine aufregende Entwicklung, die die Geschwindigkeit und Effizienz von Gemini 2.0 Flash mit verbesserten Argumentationsfähigkeiten kombiniert. Dies ermöglicht es, nicht nur Informationen schnell zu verarbeiten, sondern auch logisches Denken auf komplexe Probleme anzuwenden.

    • Derzeit ist dieses Modell den Benutzern der Gemini -App zur Verfügung und bietet nur einige der Benutzer frühzeitig zugänglich auf die erweiterten Funktionen.
    • Als experimentelles Modell befindet es sich noch in der Entwicklung, weist jedoch auf die Zukunft von LLMs hin, die Probleme effektiver stellen und lösen können.

    Verfügbarkeit: Das Gemini 2.0 -Flash -Modell ist nur in der kostenpflichtigen Version erhältlich - Gemini Advanced, in der Gemini -App. In Google AI Studio ist es jedoch kostenlos verfügbar. Wenn Sie also kein kostenpflichtiges Gemini-Konto haben (das eine einmonatige kostenlose Testversion bietet), können Sie es in Google AI Studio versuchen.

    Jetzt sehen wir sehen, was dieses Modell tun kann.

    Eingabeaufforderung: „Sie gehen in ein Zimmer und sehen ein Bett. Auf dem Bett befinden sich zwei Hunde, vier Katzen, eine Giraffe, fünf Kühe und eine Ente. Es gibt auch drei Stühle und einen Tisch. Wie viele Beine sind auf dem Boden? ”

    Antwort:

    " Lassen Sie uns dies aufschlüsseln:

    • Dinge auf dem Bett: Hunde, Katzen, Giraffe, Kühe, Ente. Diese Tiere sind auf dem Bett, so dass ihre Beine nicht auf dem Boden liegen.
    • Dinge im Raum (und wahrscheinlich auf dem Boden, sofern nicht anders angegeben):
      • Stühle: Stühle haben Beine, und sie befinden sich in der Regel auf dem Boden. Jeder Stuhl hat 4 Beine und es gibt 3 Stühle.
      • Tabelle: Tabellen haben Beine und sie befinden sich normalerweise auf dem Boden. Tabellen haben normalerweise 4 Beine, und es gibt 1 Tabelle.
      • Sie: Sie sind in den Raum gegangen. Vermutlich stehen oder gehen Sie und Ihre Beine befinden sich auf dem Boden. Sie haben 2 Beine.

    Lassen Sie uns die Beine auf dem Boden zählen:

    • Stühle: 3 Stühle * 4 Beine/Stuhl = 12 Beine
    • Tabelle: 1 Tabelle * 4 Beine/Tabelle = 4 Beine
    • Sie: 1 Person * 2 Beine/Person = 2 Beine

    Gesamtbeine auf dem Boden: 12 4 2 = 18 Beine

    Daher befinden sich 18 Beine auf dem Boden.

    Bewertung:

    Die richtige Antwort auf diese Frage ist 22, die 12 Beine mit 3 Stühlen, 4 Beinen des Tisches, 4 Beine des Bettes und 2 Beine der Person enthält. Gemini 2.0 Flash Experimental Thinking Model zeigt brillantes Denken und berücksichtigt die einzelnen Beine (etwas, das die meisten LLMs vermissen). Es hat jedoch vergessen, in den Beinen des Bettes zu zählen. Obwohl großartig, kann das Modell im logischen Denken besser sein.

    Gemini 2.0 Flash Thinking Experimental mit Apps

    Aufbau auf dem experimentellen Modell des Flash -Denkens fügt das Flash -Thinking -Experimental mit Apps -Version eine entscheidende Interaktivitätsschicht hinzu: die Fähigkeit, mit externen Anwendungen zu interagieren. Folgendes macht es zu einem mächtigen Modell:

    • In der Integration in externe Apps kann das Modell nicht nur Grund, sondern auch Aktionen in verschiedenen Apps ergreifen. Dies eröffnet eine Welt der Möglichkeiten für die Automatisierung komplexer Workflows.
    • Das Modell zeigt das Potenzial für LLMs, tief in unser digitales Leben integriert zu werden und nahtlos mit den Tools zu interagieren, die wir täglich verwenden.

    Verfügbarkeit: Gemini 2.0 Flash ist nur in der kostenpflichtigen Version erhältlich - Gemini Advanced. In der Zwischenzeit ist es im Google AI Studio kostenlos verfügbar. Wenn Sie also kein kostenpflichtiges Gemini-Konto haben (das mit einer kostenlosen einmonatigen Testversion ausgestattet ist), können Sie es in Google AI Studio versuchen.

    Also testen wir es.

    Eingabeaufforderung: „Erzählen Sie mir von allen möglichen Straßenrouten, die ich von meinem Platz zum Bahnhof Neu -Delhi einnehmen kann. Ich bin derzeit hier: https://maps.app.goo.gl/xciqxpugasxtxytk8 ”

    Antwort:

    Hier sind die möglichen Straßenstrecken zum Bahnhof Neu-Delhi von Ihrem derzeitigen Standort in K-3 Road, DLF Phase 2, Sektor 25, Gurugram, Haryana 122022, Indien.

    Hier finden Sie die möglichen Straßenrouten zum Bahnhof Neu-Delhi von Ihrem Standort in K-3 Road, DLF Phase 2, Sektor 25, Gurugram, Haryana 122022, Indien:

    Route 1: über NH 48

    • Entfernung: 16,4 Meilen
    • Dauer: ungefähr 49 Minuten
    • Zusammenfassung: Diese Route folgt in erster Linie NH 48 .
    • MAP URL

    Dies ist derzeit die einzige Route. Wenn Sie alternative Routen untersuchen möchten, können Sie Kriterien angeben, z. Bewertung:

    In nur wenigen Sekunden denkt das Modell durch die Eingabeaufforderung, greift auf den Ort zu, den ich über die Karte geteilt habe, und schlägt für mich den bestmöglichen Weg vor. Es gibt mir die Details der Route und teilt auch einen Kartenlink für meine Referenz. Eine solche Funktion kann eine großartige Ergänzung sein, wenn Sie nach Orten in einer neuen Stadt suchen oder Adressen schnell finden. Diese LLM eignet sich auch hervorragend zum Transkribieren oder Zusammenfassen langer YouTube -Videos. Obwohl es bei der Arbeit mit YouTube -Shorts auf Fehler geht.

    Dieses Modell kombiniert die Leistung von Argumentation, Geschwindigkeit und externer App -Zugänglichkeit - alles in einem. Solche Fähigkeiten deuten auf eine starke Präsenz der agentenischen Natur hin, die wir mit diesen Denkmodellen bald sehen werden.

    Gemini 2.0 Modelle: Benchmark -Vergleich

    Jetzt, da wir mit allen neuesten Modellen von Google zusammengearbeitet haben, schauen wir uns schnell an, wie diese Modelle an verschiedenen Benchmarks abschneiden. Die Details zum Denken experimenteller Modelle sind noch nicht verfügbar, daher werden wir nur mit den restlichen drei Modellen zusammenarbeiten: Gemini 2.0 Flash, Flash Lite und Pro.

    Capability Benchmark Gemini 2.0 Flash-Lite (Public Preview) Gemini 2.0 Flash (GA) Gemini 2.0 Pro Experimental
    General MMLU-Pro 71.6% 77.6% 79.1%
    Code LiveCodeBench (v5) 28.9% 34.5% 36.0%
    Code Bird-SQL (Dev) 57.4% 58.7% 59.3%
    Reasoning GQPA (diamond) 51.5% 60.1% 64.7%
    Factuality SimpleQA 21.7% 29.9% 44.3%
    Factuality FACTS Grounding 83.6% 84.6% 82.8%
    Multilingual Global MMLU (Lite) 78.2% 83.4% 86.5%
    Math MATH 86.8% 90.9% 91.8%
    Math HiddenMath 55.3% 63.5% 65.2%
    Long-context MRCR (1M) 58.0% 70.5% 74.7%
    Image MMMU 68.0% 71.7% 72.7%
    Audio CoVoST2 (21 lang) 38.4% 39.0% 40.6%
    Video EgoSchema (test) 67.2% 71.1% 71.9%

    Quelle: Google DeepMind Blog

    Gemini 2.0 Modelle: Features Vergleich

    Jedes neues Modell hat seine eigene einzigartige Funktionen. In der folgenden Tabelle habe ich die Funktionen und Anwendungen aller Modelle aufgelistet, die wir in diesem Blog untersucht haben.

    Model Context Window Multimodal Availability Applications
    Gemini 2.0 Flash 1 million Yes Generally available (incl. free in AI Studio) Content summarization, data extraction, quick classification, basic question answering, high-throughput API services, real-time translation
    Gemini 2.0 Flash Lite 1 million Yes Public preview Mobile app features, basic chatbots, cost-sensitive document processing, educational tools for basic tasks, internal knowledge base lookup
    Gemini 2.0 Pro Experimental 2 million Yes Experimental Complex code generation, advanced data analysis, research assistants, sophisticated content creation, tool-integrated workflows (e.g., booking systems, CRM integrations), long-form content analysis
    Gemini 2.0 Flash Thinking N/A Yes Gemini app (Paid) Real-time decision-making, fast-paced problem solving, dynamic pricing, fraud detection, fast response bots with enhanced reasoning, live customer support escalation
    Gemini 2.0 Flash Thinking w/ Apps N/A Yes Gemini app (Paid) Complex automated workflows, interactive voice assistants with app actions, smart home automation, Robotic Process Automation (RPA), orchestration of AI services, automated scheduling and task management

    Schlussfolgerung

    Googles Gemini 2.0-Line-up markiert einen großen Schritt in den Funktionen des generativen KI-Modells und bietet verschiedene Modelle, die auf Geschwindigkeit, Effizienz und fortschrittliche Argumentation zugeschnitten sind. Während Gemini 2.0 Flash und Flash Lite auf Hochdurchsatz- und kostengünstige Anwendungsfälle richten, sieht Gemini 2.0 Pro Experimental für ein lang Kontextverständnis und die Integration von Werkzeugen vielversprechend aus. Die experimentellen Modelle, insbesondere Flash -Denken und Blitz denken mit Apps, führen Möglichkeiten für logisches Denken und nahtlose App -Interaktionen ein.

    Mit Gemini 2.0 stellt Google die Voraussetzungen für Genai-Modelle, die kontextbewusster, multimodal und tief in unsere digitalen Ökosysteme integriert sind. Wenn sich diese Modelle weiterentwickeln, werden ihre Auswirkungen auf KI-gesteuerte Workflows, Inhaltsgenerierung und Echtzeit-Entscheidungsfindung nur wachsen.

    häufig gestellte Fragen

    Q1. Was ist Gemini 2.0?

    a. Gemini 2.0 ist die neueste Familie von Gen-AI-Modellen von Google, die für verbesserte Argumentation, multimodale Verarbeitung und hocheffiziente Aufgaben entwickelt wurde. Es enthält Flash, Flash Lite, Pro und zwei experimentelle Modelle - Flash -Denken und Blitz denken mit Apps.

    Q2. Wie vergleichen sich Gemini 2.0 mit OpenAIs O3-Mini und Deepseek R1?

    a. Gemini 2.0-Modelle, insbesondere die Flash- und Pro-Serie, konkurrieren direkt mit OpenAIs O3-Mini und Deepseek R1 in Bezug auf Argumentation, Effizienz und Werkzeugintegration. Während Gemini 2.0 Flash sich auf Geschwindigkeit und Kosteneffizienz konzentriert, experimentelle Gemini 2.0 Pro Experimental in komplexem Denken und Codieren.

    Q3. Was ist der Unterschied zwischen Gemini 2.0 Flash und Flash Lite?

    a. Die wichtigsten Unterschiede zwischen Gemini 2.0 Flash und Flash Lite sind wie folgt:
    Gemini 2.0 Flash: für Hochdurchsatzaufgaben, die Geschwindigkeit, Effizienz und 1M-Token-Kontextfenster anbieten.
    Q4. Wie viele experimentelle Modelle gibt es in Gemini 2.0? a. Derzeit gibt es 2 experimentelle Modelle in Gemini2.0:

    Flash-Denken experimentell: verbessert das logische Denken und die Problemlösung. Wie kann ich auf Gemini 2.0 -Modelle zugreifen?


    a. Sie können auf diese Modelle auf folgende Weise zugreifen: Gemini 2.0 Flash:
    In Google AI Studio (kostenlos) und Vertex AI verfügbar. Benutzer.

Das obige ist der detaillierte Inhalt vonWie greifen Sie kostenlos auf Google Gemini 2.0 -Modelle zu?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Neueste Artikel des Autors
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage