


Lesen Sie die Hälfte von „Das Drei-Körper-Problem' in einem Rutsch! Der stärkste Konkurrent von GPT-4 wurde plötzlich auf 100.000 Token hochgestuft und die Demonstration des Papiercodes war abgeschlossen
Als sich GPT-4 32K noch in der internen Testphase befand, erhöhten die starken Konkurrenten von OpenAI direkt die Kontextlänge.
Erst heute gab das Startup Anthropic bekannt, dass Claude eine Kontext-Token-Länge von 100.000 unterstützen konnte, was etwa 75.000 Wörtern entspricht. Was ist dieses Konzept?
Nachdem der durchschnittliche Mensch etwa 5 Stunden braucht, um die gleiche Menge an Inhalten zu lesen, muss er immer noch mehr Zeit mit dem Verdauen, Auswendiglernen und Analysieren verbringen.
Für Claude war es in weniger als 1 Minute erledigt.
Wirf das gesamte Buch „Der große Gatsby“ dazu, das etwa 72.000 Token hat, und ändere einen Satz: # 🎜🎜##🎜🎜 # Herr Carraway ist ein Softwareentwickler, der bei Anthropic an Tools für maschinelles Lernen arbeitet.
Kannst du es glauben? Claude brauchte nur 22 Sekunden, um den geänderten Satz zu finden.
Viele Internetnutzer sagten, dass mit Claude 100K das GPT-4 32K in ihren Händen nicht mehr gut sei.
Claude 100k, lecker!
Vor einiger Zeit diskutierten viele Leute in der OpenAI-Entwicklergemeinschaft über die Einführung von GPT-4 32K.
Darüber hinaus können viele GPT-4-Benutzer bereits die GPT-4 32k-Option auf ihrem PlayGround sehen.
Netizens, die diese Version freigeschaltet haben, haben sie Hunderten von Menschen zugänglich gemacht Anhand eines Datenpunkts eines Benutzers, der HyperWrite deinstalliert hat, sagt GPT-4 ihm genau, welche Verbesserungen er als nächstes vornehmen sollte.
Er lobte, dass GPT-4 32k der beste Produktmanager der Welt sei.
32k ist so großartig, wäre es dann nicht noch besser? mit 100K? Stärker.
Offensichtlich hat OpenAIs mächtiger Rivale Anthropic zuerst die Nase vorn.
Natürlich kann Claude neben dem Lesen langer Texte auch schnell die benötigten Informationen aus Dokumenten abrufen.
Sie können den Inhalt mehrerer Dokumente oder sogar eines Buches als Anregungen verwenden und dann Fragen stellen.
Wenn Sie in Zukunft auf einen Aufsatz stoßen, auch wenn dieser lang ist, bitten Sie Claude einfach, ihn zusammenzufassen. Das sind einfach gute Nachrichten für die Junioren, die es sind die Zeitung lesen.
Diese Art umfassender Fragen erfordert normalerweise die Analyse vieler Textteile Es gibt ein umfassendes Verständnis des Inhalts, und bei der Bewältigung dieses Problems kann man sagen, dass Claude besser ist als die auf Vektorsuche basierende Methode.
Claude kann auch Ihr „Code-Begleiter“ sein und in wenigen Minuten eine Demonstration durchführen. Laden Sie beispielsweise ein 240-seitiges Langchain-API-Dokument hoch, lassen Sie es auf diesem Dokument basieren und verwenden Sie das Sprachmodell von Anthropic, um eine einfache Demonstration von Langchain zu erstellen. Sie können Claude auch mit dem 85-seitigen Geschäftsbericht des Unternehmens füttern (10k). Bitten Sie dann darum, die Punkte hervorzuheben, die für potenzielle Investoren am wichtigsten sind, und ihre Bedeutung zu erläutern. Darüber hinaus kann Claude 100k auch etwa 6 Stunden Audiolautstärke bewältigen. Zum Beispiel hat AssemblyAI den Inhalt eines Carmack-Podcasts in 58.000 Text-Tokens transkribiert und dann Claude zum Zusammenfassen und für Fragen und Antworten verwendet.
Abschließend hat Claude zusammengefasst, was er tun kann, und die Berichterstattung kann als sehr umfassend bezeichnet werden.
- Dichte Dokumente wie Finanzberichte, Forschungsarbeiten usw. verstehen, zusammenfassen und interpretieren.
- Analysieren Sie die strategischen Risiken und Chancen des Unternehmens anhand des Geschäftsberichts. Risiken, Themen und unterschiedliche Argumentationsformen in Rechtsdokumenten
- Lesen Sie Hunderte Seiten Entwicklungsdokumentation und antworten Sie technische Fragen#🎜 🎜#
- Erstellen Sie schnell Prototypen, indem Sie Ihre gesamte Codebasis in einen Kontext setzen und sie intelligent erstellen oder ändernAnthropic sagt natürlich, dass 100K-Kontext immer noch eine Beta-Funktion ist und in diesem Zeitraum zum Standard-API-Preis berechnet wird.
Die offizielle Website gibt auch den konkreten Preis an: # 🎜 ### #🎜 🎜 #
Abschluss: $0,00551 / 1K Token#🎜🎜 ## 🎜 🎜# Nr. 🎜🎜 #Im Vergleich zu OpenAI, dieser Preis ist bereits sehr erschwinglich.
Laut der offiziellen OpenAI-Website kostet die GPT-4 32k-Eingabeaufforderung 0,06 $ und die Fertigstellung 0,12 $. Entsprechend muss man das 5-6-fache des Preises ausgeben, um das Modell anzusprechen.
Netizens sagten, dass Claude 100k schneller und billiger ist als GPT-4 32k.
Netizen-Echttest
Ein solches Blockbuster-Update muss für das Erlebnis der Netizens unverzichtbar sein. Einige Internetnutzer sagten, dass 100.000 einfach unglaublich seien und mehrere vollständige Arbeiten, teilweise vollständige Codebasen und sogar einen 250-seitigen Roman verarbeiten könnten.
Übrigens haben viele Internetnutzer zuerst Claude getestet und festgestellt, dass die Wirkung ziemlich gut war. Anfangs sind 100 KB auf die API beschränkt, und das von Claude angewendete Standardmodell ist immer noch 9 KB. Aber bald unterstützt die Claude-Anwendungsschnittstelle auch 100K.
Ein Internetnutzer nutzte den 100-seitigen „GPT-4 Technical Report“ Test, die Ergebnisse können nur als erstaunlich bezeichnet werden.
Einige Leute haben Dazai Osamus „menschliche Disqualifikation“ direkt gefüttert, fragte Claude danach Ich habe die Handlung der Geschichte auf Englisch gelesen und absolut zutreffende Antworten gegeben.
Gleichzeitig stellte dieser Internetnutzer den Toolformer ein Er hat den vollständigen Quellcode von Throw Zero dafür entwickelt und Claude beschreibt genau, wofür es verwendet wird.
Darüber hinaus lobte Claude auch die Modularität des Codes und machte Vorschläge für das Hinzufügen einiger Unit-Tests.
Das Gedicht „Beowulf“ in die Mischung zu werfen und den Charakter von Beowulf zu analysieren, ist ebenfalls sehr treffend.
Nvidia-Wissenschaftler Jim Fan sagte, dass dies der Killertrick von Anthropic sei . Das zukünftige Wettrüsten in Bezug auf die Kontextlänge nimmt schnell zu.
In Bezug auf die Bedeutung der Unterstützung von 100k sagten Internetnutzer, dass thailändische Hosen scharf seien! Dies ist ein guter Beweis dafür, warum lange Texte für LLM wichtig sind. Viele Internetnutzer haben auf GPT-4 hingewiesen.
Die Geburt von Claude-100K hat AnthropicAI offiziell zu einem echten Konkurrenten von OpenAI gemacht.
Das bedeutet auch, dass Unternehmen wie OpenAI und Google in diesem Bereich konkurrieren müssen, was ein großer Gewinn für die Nutzer ist 》
#🎜 🎜##🎜🎜 #
Einige Internetnutzer beklagten, dass die Zeit zu schnell fortgeschritten sei.
Es dauerte weniger als einen Tag, bis Google bekannt gab, dass PaLM 2 sich bei fortgeschrittenen Inferenzaufgaben auszeichnet, während Claude von Anthropic jetzt 100.000 Token in weniger als einer Minute verarbeiten kann. Der Fortschritt der künstlichen Intelligenz ist in der Tat beeindruckend.
Wenn der von Ihnen eingegebene Token jedoch weniger als 9K beträgt, scheint Antropic das Vorgängermodell aufzurufen.
Aus ihrer Sicht wird dies eine neue Ära grundlegender Modelle für maschinelles Lernen einläuten.
Der von Forschern im Jahr 2022 vorgeschlagene FlashAttention-Algorithmus hat die Machbarkeit von 32k bewiesen.
„Absolut zu wild! Wird es in ein paar Jahren möglich sein, eine Token-Kontextlänge von 1 Million zu unterstützen?“ 🎜 🎜#
Vor einiger Zeit veröffentlichten Forscher von DeepPavlov, AIRI und dem London Mathematical Sciences Institute einen technischen Bericht mit The Recurrent Memory Transformer (RMT) erhöht die effektive Kontextlänge von BERT auf „beispiellose 2 Millionen Token“ und behält gleichzeitig eine hohe Speicherabrufgenauigkeit bei.
Papieradresse: https://arxiv.org /abs/2304.11062
Diese Methode kann lokale und globale Informationen speichern und verarbeiten und die Informationen an Ort und Stelle halten Verwenden von Schleifen. Fluss zwischen Segmenten der Eingabesequenz.
Obwohl RMT auf nahezu unendliche Sequenzlängen erweitert werden kann, ohne den Speicherverbrauch zu erhöhen, besteht immer noch das Problem des Speicherverfalls in RNN und einer längeren Argumentationszeit.
Tatsächlich verbirgt sich hinter RMT ein völlig neuer Speichermechanismus.
Die spezifische Operationsmethode besteht darin, das Modell durch Hinzufügen eines speziellen Speichertokens zur Eingabe- oder Ausgabesequenz zu trainieren, ohne das ursprüngliche Transformer-Modell zu ändern, um Speicheroperationen und -sequenzen zu steuern Repräsentationsverarbeitung.
Im Vergleich zu Transformer-XL benötigt RMT weniger Speicher und kann längere Aufgabensequenzen bewältigen.
Natürlich ist Claude 100k schon ein ziemlich großer Anfang, bevor man endlich eine Million Token erreicht.
Das obige ist der detaillierte Inhalt vonLesen Sie die Hälfte von „Das Drei-Körper-Problem' in einem Rutsch! Der stärkste Konkurrent von GPT-4 wurde plötzlich auf 100.000 Token hochgestuft und die Demonstration des Papiercodes war abgeschlossen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen



Bei der Konvertierung von Zeichenfolgen in Objekte in Vue.js wird JSON.Parse () für Standard -JSON -Zeichenfolgen bevorzugt. Bei nicht standardmäßigen JSON-Zeichenfolgen kann die Zeichenfolge durch Verwendung regelmäßiger Ausdrücke verarbeitet und Methoden gemäß dem Format oder dekodierten URL-kodiert reduziert werden. Wählen Sie die entsprechende Methode gemäß dem String -Format aus und achten Sie auf Sicherheits- und Codierungsprobleme, um Fehler zu vermeiden.

Vue- und Element-UI-kaskadierte Dropdown-Boxen V-Model-Bindung gemeinsame Grubenpunkte: V-Model bindet ein Array, das die ausgewählten Werte auf jeder Ebene des kaskadierten Auswahlfelds darstellt, nicht auf einer Zeichenfolge; Der Anfangswert von ausgewählten Optionen muss ein leeres Array sein, nicht null oder undefiniert. Die dynamische Belastung von Daten erfordert die Verwendung asynchroner Programmierkenntnisse, um Datenaktualisierungen asynchron zu verarbeiten. Für riesige Datensätze sollten Leistungsoptimierungstechniken wie virtuelles Scrollen und fauler Laden in Betracht gezogen werden.

Um die Zeitüberschreitung für Vue Axios festzulegen, können wir eine Axios -Instanz erstellen und die Zeitleitungsoption angeben: in globalen Einstellungen: vue.Prototyp. $ Axios = axios.create ({Timeout: 5000}); In einer einzigen Anfrage: this. $ axios.get ('/api/user', {timeout: 10000}).

Verarbeiten Sie 7 Millionen Aufzeichnungen effizient und erstellen Sie interaktive Karten mit Geospatial -Technologie. In diesem Artikel wird untersucht, wie über 7 Millionen Datensätze mithilfe von Laravel und MySQL effizient verarbeitet und in interaktive Kartenvisualisierungen umgewandelt werden können. Erstes Herausforderungsprojektanforderungen: Mit 7 Millionen Datensätzen in der MySQL -Datenbank wertvolle Erkenntnisse extrahieren. Viele Menschen erwägen zunächst Programmiersprachen, aber ignorieren die Datenbank selbst: Kann sie den Anforderungen erfüllen? Ist Datenmigration oder strukturelle Anpassung erforderlich? Kann MySQL einer so großen Datenbelastung standhalten? Voranalyse: Schlüsselfilter und Eigenschaften müssen identifiziert werden. Nach der Analyse wurde festgestellt, dass nur wenige Attribute mit der Lösung zusammenhängen. Wir haben die Machbarkeit des Filters überprüft und einige Einschränkungen festgelegt, um die Suche zu optimieren. Kartensuche basierend auf der Stadt

Zusammenfassung: Es gibt die folgenden Methoden zum Umwandeln von VUE.JS -String -Arrays in Objektarrays: Grundlegende Methode: Verwenden Sie die Kartenfunktion, um regelmäßige formatierte Daten zu entsprechen. Erweitertes Gameplay: Die Verwendung regulärer Ausdrücke kann komplexe Formate ausführen, müssen jedoch sorgfältig geschrieben und berücksichtigt werden. Leistungsoptimierung: In Betracht ziehen die große Datenmenge, asynchrone Operationen oder effiziente Datenverarbeitungsbibliotheken können verwendet werden. Best Practice: Clear Code -Stil, verwenden Sie sinnvolle variable Namen und Kommentare, um den Code präzise zu halten.

Der Artikel führt den Betrieb der MySQL -Datenbank vor. Zunächst müssen Sie einen MySQL -Client wie MySQLworkBench oder Befehlszeilen -Client installieren. 1. Verwenden Sie den Befehl mySQL-uroot-P, um eine Verbindung zum Server herzustellen und sich mit dem Stammkonto-Passwort anzumelden. 2. Verwenden Sie die Erstellung von Createdatabase, um eine Datenbank zu erstellen, und verwenden Sie eine Datenbank aus. 3.. Verwenden Sie CreateTable, um eine Tabelle zu erstellen, Felder und Datentypen zu definieren. 4. Verwenden Sie InsertInto, um Daten einzulegen, Daten abzufragen, Daten nach Aktualisierung zu aktualisieren und Daten nach Löschen zu löschen. Nur indem Sie diese Schritte beherrschen, lernen, mit gemeinsamen Problemen umzugehen und die Datenbankleistung zu optimieren, können Sie MySQL effizient verwenden.

Remote Senior Backend Engineer Job Vacant Company: Circle Standort: Remote-Büro-Jobtyp: Vollzeitgehalt: 130.000 bis 140.000 US-Dollar Stellenbeschreibung Nehmen Sie an der Forschung und Entwicklung von Mobilfunkanwendungen und öffentlichen API-bezogenen Funktionen, die den gesamten Lebenszyklus der Softwareentwicklung abdecken. Die Hauptaufgaben erledigen die Entwicklungsarbeit unabhängig von RubyonRails und arbeiten mit dem Front-End-Team von React/Redux/Relay zusammen. Erstellen Sie die Kernfunktionalität und -verbesserungen für Webanwendungen und arbeiten Sie eng mit Designer und Führung während des gesamten funktionalen Designprozesses zusammen. Fördern Sie positive Entwicklungsprozesse und priorisieren Sie die Iterationsgeschwindigkeit. Erfordert mehr als 6 Jahre komplexes Backend für Webanwendungen

Die MySQL -Leistungsoptimierung muss von drei Aspekten beginnen: Installationskonfiguration, Indexierung und Abfrageoptimierung, Überwachung und Abstimmung. 1. Nach der Installation müssen Sie die my.cnf -Datei entsprechend der Serverkonfiguration anpassen, z. 2. Erstellen Sie einen geeigneten Index, um übermäßige Indizes zu vermeiden und Abfrageanweisungen zu optimieren, z. B. den Befehl Erklärung zur Analyse des Ausführungsplans; 3. Verwenden Sie das eigene Überwachungstool von MySQL (ShowProcessList, Showstatus), um die Datenbankgesundheit zu überwachen und die Datenbank regelmäßig zu sichern und zu organisieren. Nur durch kontinuierliche Optimierung dieser Schritte kann die Leistung der MySQL -Datenbank verbessert werden.
