Natürlich ist das einzige, das das OpenAI von gestern schlagen kann, das OpenAI von heute.
Gerade jetzt hat OpenAI überraschenderweise das groß angelegte multimodale Modell GPT-4 veröffentlicht, das die Eingabe von Bildern und Text unterstützt und Textergebnisse generiert.
Bekannt als das fortschrittlichste KI-System der Geschichte!
GPT-4 hat nicht nur die Augen, um Bilder zu verstehen, sondern erzielte auch bei wichtigen Prüfungen, einschließlich GRE, nahezu perfekte Ergebnisse, meisterte verschiedene Benchmarks und strotzt nur so vor Leistungsindikatoren.
OpenAI verbrachte 6 Monate damit, GPT-4 mithilfe kontroverser Testverfahren und Erkenntnissen aus ChatGPT iterativ anzupassen, was zu den besten Ergebnissen aller Zeiten in Bezug auf Realismus, Kontrollierbarkeit und mehr führte.
Jeder erinnert sich noch daran, dass Microsoft und Google Anfang Februar drei Tage lang heftig gekämpft haben. Als Microsoft am 8. Februar ChatGPT und Bing veröffentlichte, hieß es, dass Bing „auf einer ChatGPT-ähnlichen Technologie“ basiert.
Heute ist das Rätsel endlich gelöst – das große Modell dahinter ist GPT-4!
Geoffrey Hinton, einer der drei Giganten des Turing Award, staunte darüber: „Nachdem die Raupe Nährstoffe aufgenommen hat, verwandelt sie sich in einen Kokon und wird zum Schmetterling. Und der Mensch hat Milliarden davon extrahiert.“ Goldnuggets des Verständnisses, GPT-4 ist der menschliche Schmetterling.“
Übrigens können ChatGPT Plus-Benutzer jetzt loslegen.
In lockeren Gesprächen ist der Unterschied zwischen GPT-3.5 und GPT-4 sehr subtil. Erst wenn die Komplexität der Aufgabe einen ausreichenden Schwellenwert erreicht, wird der Unterschied deutlich, da GPT-4 zuverlässiger, kreativer und in der Lage ist, differenziertere Anweisungen zu verarbeiten als GPT-3.5.
Um die Unterschiede zwischen den beiden Modellen zu verstehen, wurde OpenAI anhand verschiedener Benchmarks und einiger für Menschen konzipierter Probeprüfungen getestet.
GPT-4 Bei den verschiedenen Prüfungen gibt es mehrere Tests, die fast perfekte Punktzahlen sind:
with USA Beispielsweise kann GPT3.5 bei der BAR Lawyer License Unified Examination die 10 %-Marke und GPT4 die 90 %-Marke erreichen. Die Biologieolympiade stieg direkt vom 31-Prozent-Niveau von GPT3.5 auf das 99-Prozent-Niveau.
Darüber hinaus hat OpenAI GPT-4 anhand traditioneller Benchmarks bewertet, die für Modelle des maschinellen Lernens entwickelt wurden. Den experimentellen Ergebnissen nach zu urteilen, ist GPT-4 viel besser als bestehende groß angelegte Sprachmodelle und die meisten SOTA-Modelle:
Darüber hinaus ist die Leistung von GPT-4 in verschiedenen Sprachen: Die Genauigkeit von Chinesisch liegt bei etwa 80 % ist bereits besser als die englische Leistung von GPT-3.5.
Viele bestehende ML-Benchmarks sind auf Englisch verfasst. Um einen ersten Blick auf die Fähigkeiten von GPT-4 in anderen Sprachen zu werfen, verwendeten die Forscher Azure Translate, um den MMLU-Benchmark (ein Satz von 14.000 Multiple-Choice-Fragen zu 57 Themen) in mehrere Sprachen zu übersetzen.
In 24 der 26 getesteten Sprachen übertrifft GPT-4 GPT-3.5 und andere große Sprachmodelle (Chinchilla, PaLM). Englische Sprachleistung:
#???? Programmierung Anwendungseffekte in anderen Aspekten. Darüber hinaus nutzen Insider es, um Menschen bei der Bewertung der KI-Ergebnisse zu helfen. Diesbezüglich kommentierte Jim Fan, ein Schüler von Li Feifei und NVIDIA-KI-Wissenschaftler: „Das Stärkste an GPT-4 ist tatsächlich seine Denkfähigkeit. Es.“ hat starke Leistungen in den Prüfungen GRE, SAT und Jura. Mit anderen Worten: GPT-4 hat seinen Abschluss in Stanford gemacht #Netizen: Es ist vorbei, sobald GPT-4 freigegeben ist, werden wir Menschen nicht mehr gebraucht...
#🎜🎜 #Bilder lesen und Stellen Sie kleine Fragen und verstehen Sie die Memes sogar besser als InternetnutzerDer Höhepunkt dieses Upgrades von GPT-4 ist natürlich die Multimodalität.
GPT-4 kann nicht nur Grafiksymbole analysieren und zusammenfassen, sondern sogar Memes lesen und erklären, wo sich die Memes befinden und warum sie lustig sind. In diesem Sinne kann es sogar viele Menschen sofort töten.
OpenAI behauptet, dass GPT-4 kreativer und kollaborativer sei als frühere Modelle. Es kann Benutzer für kreative und technische Schreibaufgaben generieren, bearbeiten und iterieren, wie zum Beispiel das Komponieren von Liedern, das Schreiben von Drehbüchern oder das Erlernen des Schreibstils des Benutzers. GPT-4 kann Bilder als Eingabe verwenden und Titel, Kategorien und Analysen generieren. Geben Sie ihm zum Beispiel ein Bild von Zutaten und fragen Sie es, was es mit diesen Zutaten machen kann.
# 🎜 🎜# Darüber hinaus ist GPT-4 in der Lage, Text mit mehr als 25.000 Wörtern zu verarbeiten, was die Erstellung langer Inhalte, längere Konversationen sowie die Suche und Analyse von Dokumenten ermöglicht.
GPT-4 übertrifft ChatGPT in seinen erweiterten Inferenzfunktionen. Wie folgt:
Meme-Erkennung
Zeigen Sie ihm beispielsweise ein seltsames Meme und fragen Sie dann, was es ist lustig auf dem Bild.
Nachdem GPT-4 erhalten wurde, analysiert es zunächst den Inhalt einer Welle von Bildern und gibt dann Antworten. Analysieren Sie beispielsweise das Folgende Bild für Bild.
GPT-4 reagierte sofort: das „Lighting Charger“ im Bild „Kabel“, es sieht aus wie eine große und veraltete VGA-Schnittstelle, angeschlossen an dieses kleine und moderne Smartphone, ist der Kontrast stark.
Bei einem anderen Meme wie diesem fragen Sie nach dem GPT-4-Meme Wo ?
Es antwortete fließend: Das Lustige an diesem Meme ist „Picture The.“ Text stimmt nicht überein.“
Im Text heißt es eindeutig, dass es sich um ein Foto der Erde handelt, das aus dem Weltraum aufgenommen wurde, aber das Bild ist eigentlich nur ein Haufen Hühnernuggets, die wie eine Karte angeordnet sind.
GPT-4 kann auch Comics verstehen: Warum müssen wir dem neuronalen Netzwerk Schichten hinzufügen?
Es trifft den Nagel auf den Kopf, dieser Cartoon persifliert statistisches Lernen und Neuronale Unterschiede in der Art und Weise, wie Netzwerke die Modellleistung verbessern.
Wie hoch ist der durchschnittliche tägliche Fleischkonsum in Georgien und Westasien? Begründen Sie die Frage Schritt für Schritt, bevor Sie Ihre Antwort geben.
Tatsächlich listet GPT-4 seine eigenen Problemlösungsschritte klar auf——
1 . Bestimmen Sie den durchschnittlichen täglichen Fleischkonsum in Georgien.
2. Bestimmen Sie den durchschnittlichen täglichen Fleischkonsum in Westasien.
3 Addieren Sie die Werte aus Schritt 1 und 2. #🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜#Physics Fragen#🎜🎜 ## 🎜🎜 ## 🎜🎜 #GPT-4 ist erforderlich, um ein physikalisches Problem der Ecole Polytechnique in Paris zu lösen, bei dem es sich um das Strahlungsdetektionsprinzip des Bolometers handelt. Es ist erwähnenswert, dass dies immer noch eine französische Frage ist.
Der anschließende Problemlösungsprozess ist voller hoher Energie.
Glauben Sie, dass dies alle Funktionen von GPT-4 sind?
Chef Greg Brockman ging direkt online für eine Demonstration. Durch dieses Video können Sie die Fähigkeiten von GPT-4 intuitiv spüren.
Das Erstaunlichste ist, dass GPT-4 ein ausgeprägtes Verständnis für Code hat und Ihnen beim Generieren von Code hilft.
Greg zeichnete ein gekritzeltes Diagramm direkt auf das Papier, machte ein Foto, schickte es an GPT und sagte, schreibe den Webseitencode gemäß diesem Layout, und dann er habe es geschrieben.
Wenn etwas schief geht, machen Sie außerdem einen Screenshot des Fehlers Nachricht oder sogar die Fehlermeldung, werfen Sie sie an GPT-4 und Sie erhalten entsprechende Eingabeaufforderungen.
Netizens riefen an: GPT-4-Konferenz, lehren Sie Schritt für Schritt, wie Sie Programmierer ersetzen.
Übrigens können Sie Steuern auch mit GPT-4 einreichen. Wissen Sie, Amerikaner verbringen jedes Jahr viel Zeit und Geld damit, Steuern einzureichen.
Das gleiche wie das vorherige GPT-Modell, das GPT-4 Grundmodell Das Training nutzt öffentliche Internetdaten und von OpenAI autorisierte Daten mit dem Ziel, das nächste Wort im Dokument vorherzusagen.
Die Daten sind ein internetbasierter Korpus, der richtige/falsche Lösungen für mathematische Probleme, schwache/starke Argumentation, Widersprüche/Konsistenzen enthält. Aussage, ausreichend, um eine große Zahl darzustellen von Ideologien und Ideen.
Wenn der Benutzer eine Aufforderung zum Stellen einer Frage gibt, kann das Basismodell verschiedene Antworten geben, die Antwort kann jedoch weit von der Absicht des Benutzers entfernt sein.
Daher hat OpenAI das Verhalten des Modells mithilfe von Reinforcement Learning basierend auf menschlichem Feedback (RLHF) verfeinert, um es an die Absicht des Benutzers anzupassen.
Allerdings scheinen die Fähigkeiten des Modells hauptsächlich aus dem Prozess vor dem Training zu stammen, und RLHF kann die Testergebnisse nicht verbessern (wenn es nicht aktiv gestärkt wird, wird es tatsächlich abnehmen). Testergebnisse).
Das Basismodell muss das Projekt dazu veranlassen, zu wissen, dass es die Frage beantworten soll, daher kommt die Anleitung des Modells hauptsächlich aus dem Post-Training-Prozess.
Ein Hauptaugenmerk des GPT-4-Modells liegt auf der Etablierung eines vorhersehbar skalierbaren Deep-Learning-Stacks. Denn für große Trainings wie GPT-4 ist eine umfassende modellspezifische Abstimmung nicht machbar.
Daher entwickelte das OpenAI-Team Infrastruktur und Optimierungen, die auf mehreren Ebenen vorhersehbares Verhalten aufweisen.
Um diese Skalierbarkeit zu überprüfen, haben die Forscher den endgültigen Verlust von GPT-4 auf der internen Codebasis (nicht Teil des Trainingssatzes) im Voraus genau vorhergesagt Methode Die Inferenz erfolgt anhand eines Modells, das mit derselben Methode trainiert wurde, jedoch mit 1/10.000 der Berechnung. Jetzt kann OpenAI die während des Trainingsverlusts optimierten Metriken genau vorhersagen. Zum Beispiel die Erfolgsquote einer Teilmenge des HumanEval-Datensatzes aus einem Modell mit einem Rechenaufwand von 1/1000 ableiten und erfolgreich vorhersagen:
# 🎜 🎜#
Es gibt auch einige Fähigkeiten, die noch schwer vorhersehbar sind. Beispielsweise zielte der Wettbewerb „Inverse Scaling“ darauf ab, eine Metrik zu finden, die mit zunehmender Rechenlast des Modells schlechter wird, und die Aufgabe „Rückblick-Vernachlässigung“ war einer der Gewinner. Aber GPT-4 kehrt diesen Trend um:
OpenAI glaubt, dass es genau das kann Die Fähigkeit des maschinellen Lernens, die Zukunft vorherzusagen, ist für die Technologiesicherheit von entscheidender Bedeutung, wird jedoch nicht ausreichend beachtet.
Jetzt investiert OpenAI mehr Energie in die Entwicklung entsprechender Methoden und ruft die Branche zur Zusammenarbeit auf.
BeitragslisteGleichzeitig mit der Veröffentlichung von GPT-4 veröffentlichte Open AI auch die Organisationsstruktur und Personalliste von GPT- 4 .
Nach oben und unten wischen, um alles zu sehen#🎜🎜 ##🎜 🎜#
Professor Chen Baoquan von der Universität Peking sagte:Egal wie gut der Film ist, niemand wird sich den Abspann von Anfang bis Ende ansehen. Die Show von Open AI verfolgt nicht einmal diesen ungewöhnlichen Ansatz. Es besteht kein Zweifel, dass dies die Liste der „Darsteller“ (Mitwirkenden) sein wird, die nicht nur am meisten gelesen, sondern auch sorgfältig studiert wird. Der größte Reiz ist die detaillierte Klassifizierung der Beiträge, die fast einer groben Abteilungsstruktur entspricht. Diese sehr „mutige“ Offenlegung ist tatsächlich von weitreichender Bedeutung. Sie spiegelt das Kernkonzept von Open AI wider und weist in gewissem Maße auch auf die Richtung zukünftiger Fortschritte hin .
Das obige ist der detaillierte Inhalt vonDer GPT-4-König ist gekrönt! Ihre Fähigkeit, Bilder zu lesen und Fragen zu beantworten, ist erstaunlich. Sie können Stanford alleine betreten.. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!