Heim web3.0 OpenAI veröffentlicht stillschweigend GPT-4o Long Output, ein neues großes Sprachmodell mit einer massiv erweiterten Ausgabegröße

OpenAI veröffentlicht stillschweigend GPT-4o Long Output, ein neues großes Sprachmodell mit einer massiv erweiterten Ausgabegröße

Jul 31, 2024 am 09:11 AM
GPT-4o Long Output 16X token capacity

OpenAI sieht sich Berichten zufolge mit einer Geldknappheit konfrontiert, aber das hält das führende Unternehmen für generative KI nicht davon ab, weiterhin einen stetigen Strom neuer Modelle und Updates zu veröffentlichen.

OpenAI veröffentlicht stillschweigend GPT-4o Long Output, ein neues großes Sprachmodell mit einer massiv erweiterten Ausgabegröße

OpenAI hat in aller Stille eine neue Variante seines großen Sprachmodells GPT-4o mit dem Namen GPT-4o Long Output angekündigt. Dieses neue Modell verfügt über eine massiv erweiterte Ausgabegröße und kann im Vergleich zu den 4.000 Tokens des ursprünglichen GPT-4o bis zu 64.000 Tokens generieren. Dies bedeutet eine 16-fache Steigerung der Produktionskapazität.

Tokens, um Ihr Gedächtnis schnell aufzufrischen, sind numerische Darstellungen von Konzepten, grammatikalischen Konstruktionen und Kombinationen aus Buchstaben und Zahlen, die auf der Grundlage ihrer semantischen Bedeutung hinter den Kulissen eines LLM organisiert werden.

Das Wort „Hallo“ ist zum Beispiel ein Zeichen, aber auch „Hallo“. Hier können Sie eine interaktive Demo von Tokens in Aktion über den Tokenizer von OpenAI sehen. Der Forscher für maschinelles Lernen, Simon Willison, verfügt auch über einen großartigen interaktiven Token-Encoder/Decoder.

Dieses neue Modell soll der Kundennachfrage nach längeren Ausgabekontexten gerecht werden. Ein OpenAI-Sprecher erklärte gegenüber VentureBeat: „Wir haben von unseren Kunden das Feedback gehört, dass sie sich einen längeren Ausgabekontext wünschen.“ Wir testen ständig neue Wege, um die Bedürfnisse unserer Kunden bestmöglich zu erfüllen.“

Das Modell durchläuft derzeit einige Wochen lang eine Alpha-Testphase, in der OpenAI Daten darüber sammeln wird, wie effektiv die erweiterte Ausgabe die Benutzerbedürfnisse erfüllt.

Diese erweiterte Funktion ist besonders vorteilhaft für Anwendungen, die eine detaillierte und umfangreiche Ausgabe erfordern, wie z. B. Codebearbeitung und Schreibverbesserung. Durch die Bereitstellung erweiterter Ausgaben kann das GPT-4o-Modell umfassendere und differenziertere Antworten liefern, was diesen Anwendungsfällen erheblich zugute kommen kann.

Bereits seit dem Start bot GPT-4o ein maximales Kontextfenster von 128.000 – die Menge an Token, die das Modell in einer Interaktion verarbeiten kann, einschließlich Eingabe- und Ausgabe-Token. Für GPT-4o Long Output bleibt dieses maximale Kontextfenster bei 128.000.

Wie kann OpenAI also die Anzahl der Ausgabe-Tokens um das 16-fache von 4.000 auf 64.000 Token erhöhen und gleichzeitig das Gesamtkontextfenster bei 128.000 halten?

Der Aufruf beruht auf einer einfachen Rechnung: Obwohl das ursprüngliche GPT-4o vom Mai ein Gesamtkontextfenster von 128.000 Tokens hatte, war seine einzelne Ausgabenachricht auf 4.000 begrenzt.

Ähnlicherweise beträgt der Gesamtkontext für das neue GPT-4o-Minifenster 128.000, aber die maximale Ausgabe wurde auf 16.000 Token erhöht.

Das bedeutet für GPT-4o, dass der Benutzer in einer einzigen Interaktion bis zu 124.000 Token als Eingabe bereitstellen und bis zu 4.000 maximale Ausgabe vom Modell erhalten kann. Sie können auch mehr Token als Eingabe bereitstellen, aber weniger als Ausgabe erhalten, während sie insgesamt immer noch 128.000 Token ergeben.

Für GPT-4o mini kann der Benutzer bis zu 112.000 Token als Eingabe bereitstellen, um eine maximale Ausgabe von 16.000 Token zurückzuerhalten.

Für die GPT-4o-Langausgabe ist das gesamte Kontextfenster immer noch auf 128.000 begrenzt. Doch jetzt kann der Benutzer Eingaben im Wert von bis zu 64.000 Tokens im Austausch für maximal 64.000 Tokens zurückgeben – das heißt, wenn der Benutzer oder Entwickler einer darauf aufbauenden Anwendung längere LLM-Antworten priorisieren und gleichzeitig die Eingaben begrenzen möchte .

In jedem Fall muss der Benutzer oder Entwickler eine Wahl treffen oder einen Kompromiss eingehen: Möchte er einige Eingabetoken zugunsten längerer Ausgaben opfern und trotzdem bei insgesamt 128.000 Token bleiben? Für Benutzer, die längere Antworten wünschen, bietet der GPT-4o Long Output dies jetzt als Option an.

Das neue GPT-4o Long Output-Modell kostet wie folgt:

Vergleichen Sie das mit dem regulären GPT-4o-Preis, der 5 US-Dollar pro Million Input-Tokens und 15 US-Dollar pro Million Output beträgt, oder sogar dem neuen GPT-4o mini mit 0,15 US-Dollar pro Million Input und 0,60 US-Dollar pro Million Output, und Sie sehen, dass der Preis höher ist aggressiv und setzt OpenAIs jüngsten Grundsatz fort, leistungsstarke KI erschwinglich und für weite Teile der Entwicklernutzerbasis zugänglich machen zu wollen.

Derzeit ist der Zugriff auf dieses experimentelle Modell auf eine kleine Gruppe vertrauenswürdiger Partner beschränkt. Der Sprecher fügte hinzu: „Wir führen einige Wochen lang Alpha-Tests mit einer kleinen Anzahl vertrauenswürdiger Partner durch, um zu sehen, ob längere Ausgaben ihren Anwendungsfällen helfen.“

Abhängig von den Ergebnissen dieser Testphase erwägt OpenAI möglicherweise die Ausweitung des Zugangs auf eine breitere Kundenbasis.

Der laufende Alpha-Test wird wertvolle Einblicke in die praktischen Anwendungen und potenziellen Vorteile des erweiterten Ausgabemodells liefern.

Wenn das Feedback der ersten Gruppe vorliegt

Das obige ist der detaillierte Inhalt vonOpenAI veröffentlicht stillschweigend GPT-4o Long Output, ein neues großes Sprachmodell mit einer massiv erweiterten Ausgabegröße. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

Video Face Swap

Video Face Swap

Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heißer Artikel

<🎜>: Bubble Gum Simulator Infinity - So erhalten und verwenden Sie Royal Keys
4 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
Nordhold: Fusionssystem, erklärt
4 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
Mandragora: Flüstern des Hexenbaum
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌

Heiße Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen

Java-Tutorial
1673
14
PHP-Tutorial
1277
29
C#-Tutorial
1257
24
Lesen Sie GPT-4o vs. GPT-4 Turbo in einem Artikel Lesen Sie GPT-4o vs. GPT-4 Turbo in einem Artikel Jun 02, 2024 pm 04:02 PM

Hallo Leute, ich bin Luga. Heute werden wir über Technologien im Zusammenhang mit dem ökologischen Bereich der künstlichen Intelligenz (KI) sprechen – das GPT-4o-Modell. Am 13. Mai 2024 brachte OpenAI sein fortschrittlichstes und modernstes Modell GPT-4o auf den Markt, das einen großen Durchbruch auf dem Gebiet der Chat-Roboter mit künstlicher Intelligenz und groß angelegter Sprachmodelle darstellte. GPT-4o läutet eine neue Ära der Fähigkeiten der künstlichen Intelligenz ein und verfügt über erhebliche Leistungsverbesserungen, die seinen Vorgänger GPT-4 sowohl in Bezug auf Geschwindigkeit als auch Vielseitigkeit übertreffen. Diese bahnbrechende Weiterentwicklung löst die Latenzprobleme, die beim Vorgänger häufig auftraten, und sorgt für ein nahtloses und reaktionsschnelles Benutzererlebnis. Was ist GPT-4o? Am 13. Mai 2024 wurde OpenAI veröffentlicht

In 18 Monaten entwickelte das OpenAI-Team GPT-4o In 18 Monaten entwickelte das OpenAI-Team GPT-4o Jun 13, 2024 am 10:33 AM

Ultraman: Ohne seine (Prafulla Dhariwals) Vision, sein Talent, seinen Glauben und seine Entschlossenheit gäbe es kein GPT-4o. „GPT-4o wäre ohne die Vision, das Talent, den Glauben und die langfristige Entschlossenheit von @prafdhar nicht möglich gewesen. Es sind diese Bemühungen (und die Arbeit vieler anderer), die zu einer Revolution geführt haben, die meiner Meinung nach eine Revolution in der Welt sein wird Art und Weise, wie Computer verwendet werden.“ Zwei Tage nachdem OpenAI sein neues Flaggschiffmodell GPT-4o veröffentlicht hatte, äußerte sich OpenAI-CEO Altman zu einer der an dem Projekt beteiligten Personen. Nach 18 Monaten Zusammenarbeit mit mehreren Teams bei OpenAI sagte Mitbegründer Greg Brockman: „GPT-4o ist das Ergebnis der Bemühungen des gesamten Teams.

Revolutionäres GPT-4o: Neugestaltung des Mensch-Computer-Interaktionserlebnisses Revolutionäres GPT-4o: Neugestaltung des Mensch-Computer-Interaktionserlebnisses Jun 07, 2024 pm 09:02 PM

Das von OpenAI veröffentlichte GPT-4o-Modell ist zweifellos ein großer Durchbruch, insbesondere in Bezug auf seine Fähigkeit, mehrere Eingabemedien (Text, Audio, Bilder) zu verarbeiten und entsprechende Ausgaben zu generieren. Diese Fähigkeit macht die Mensch-Computer-Interaktion natürlicher und intuitiver und verbessert die Praktikabilität und Benutzerfreundlichkeit von KI erheblich. Zu den wichtigsten Highlights von GPT-4o gehören: hohe Skalierbarkeit, Multimedia-Ein- und -Ausgabe, weitere Verbesserungen der Fähigkeiten zum Verstehen natürlicher Sprache usw. 1. Medienübergreifende Eingabe/Ausgabe: GPT-4o+ kann jede beliebige Kombination aus Text, Audio und Bildern als Eingabe akzeptieren und direkt eine Ausgabe aus diesen Medien generieren. Dadurch wird die Beschränkung herkömmlicher KI-Modelle aufgehoben, die nur einen einzigen Eingabetyp verarbeiten, wodurch die Mensch-Computer-Interaktion flexibler und vielfältiger wird. Diese Innovation unterstützt intelligente Assistenten

OpenAI veröffentlicht stillschweigend GPT-4o Long Output, ein neues großes Sprachmodell mit einer massiv erweiterten Ausgabegröße OpenAI veröffentlicht stillschweigend GPT-4o Long Output, ein neues großes Sprachmodell mit einer massiv erweiterten Ausgabegröße Jul 31, 2024 am 09:11 AM

Berichten zufolge droht OpenAI eine Geldkrise, aber das hindert das führende Unternehmen für generative KI nicht daran, weiterhin einen stetigen Strom neuer Modelle und Updates zu veröffentlichen.

xAI veröffentlicht Grok-2 und Grok-2 Mini Beta AI LLMs auf 𝕏 Die Enterprise-API kommt noch in diesem Monat xAI veröffentlicht Grok-2 und Grok-2 Mini Beta AI LLMs auf 𝕏 Die Enterprise-API kommt noch in diesem Monat Aug 16, 2024 pm 06:42 PM

xAI hat die großsprachigen AI-Modelle (LLMs) Grok-2 und Grok-2 Mini Beta auf X veröffentlicht, wobei die Unternehmens-API noch in diesem Monat verfügbar sein wird. Auch die generativen Bildfähigkeiten von Grok-2 wurden durch die Integration von FLUX.1 AI von Black Fore erweitert

GPT-4o und SQL: Wie fähig ist ein großes Modell, seine eigene Architektur zu ändern? GPT-4o und SQL: Wie fähig ist ein großes Modell, seine eigene Architektur zu ändern? Jun 11, 2024 am 09:56 AM

Autor |. Zusammengestellt von David Eastman |. 51CTO Technology Stack (WeChat ID: blog51cto) Obwohl kein großes Sprachmodell (LLM) ein Fahrrad gefahren hat, verstehen sie eindeutig die Rolle des Fahrverhaltens im Bereich der menschlichen Fortbewegung. Sie ähneln dem, was Softwareentwickler als eine Art semantisches Wissen aus der realen Welt, gepaart mit einem Verständnis der technischen Welt, bereitstellen. Wir haben dies in einem kürzlich erschienenen Artikel deutlich gesehen, in dem wir ein einfaches SQL-Schema für die Buchveröffentlichung erstellen konnten, indem wir es einfach in natürlicher Sprache beschrieben. Obwohl ich mit der Leistung des Llama3-Erstellungsschemas zufrieden war, wies ein Kollege aus meinen früheren Tagen bei Oracle darauf hin, dass das Buchveröffentlichungsschema ein ziemlich bekanntes Beispiel sei

Kimi + Coze (coze) ist eine tolle Kombination, ich möchte einen GPT-4o bauen Kimi + Coze (coze) ist eine tolle Kombination, ich möchte einen GPT-4o bauen Jun 01, 2024 pm 08:23 PM

Hallo zusammen, ich bin Laodu. Unter den inländischen Großmodellen ist die Leistung von Kimi sehr gut. Glücklicherweise unterstützt die Coze-Plattform das Kimi-Großmodell. Button ist eine Plattform zum Aufbau von Agentenintelligenz. Heute werden wir versuchen, mit Kimi+ Button einen Agenten mit GPT-4o-Effekt zu erstellen. Klicken Sie zunächst auf die Schaltfläche „Bot erstellen“ auf der Startseite. Der Bot ist eigentlich ein Agent. Im Bild hier ist das Modell der Moonshot-Serie das große Kimi-Modell. Das verbleibende Highlight des Bildes ist das „Plug-in“, das mit dem großen kombiniert werden kann Modell, um viele komplexe Funktionen auszuführen. Um ein paar Beispiele zu nennen, zum Beispiel die Sehfähigkeit. Fügen Sie ein Plug-in hinzu, damit große Modelle Bilder generieren und anzeigen können

Der Erste im Land! SenseTime veröffentlicht „Ririxin 5o', multimodales Echtzeit-Streaming-Interaktions-Benchmarking GPT-4o Der Erste im Land! SenseTime veröffentlicht „Ririxin 5o', multimodales Echtzeit-Streaming-Interaktions-Benchmarking GPT-4o Jul 11, 2024 pm 03:52 PM

5. Juli 2024, Shanghai – SenseTime, ein strategischer Partner der 2024 World Artificial Intelligence Conference und High-Level Conference on Artificial Intelligence Global Governance (WAIC2024), veranstaltete das Artificial Intelligence Forum „Love Without Boundaries·Xiang Xinli“ und veröffentlichte das erste Inländische künstliche Intelligenz Das WYSIWYG-Modell ist „jeden Tag 5o neu“, und das interaktive Erlebnis wird mit GPT-4o verglichen, wodurch ein neues KI-Interaktionsmodell realisiert wird. Durch die Integration modalübergreifender Informationen, die auf verschiedenen Formen wie Ton, Text, Bild und Video basieren, bringt das erste WYSIWYG-Modell des Landes „Ririxin 5o“ ein neues KI-Interaktionsmodell, d. h. Echtzeit-Streaming multimodaler Interaktion. Dies wurde auch allen vor Ort gezeigt