Inhaltsverzeichnis
,
Heim Technologie-Peripheriegeräte KI KI hat unabhängig voneinander schnelle Wörter entworfen. Google DeepMind hat herausgefunden, dass „tiefes Atmen' in der Mathematik große Modelle um 8 Punkte steigern kann!

KI hat unabhängig voneinander schnelle Wörter entworfen. Google DeepMind hat herausgefunden, dass „tiefes Atmen' in der Mathematik große Modelle um 8 Punkte steigern kann!

Sep 22, 2023 pm 08:13 PM
ai 模型

Fügen Sie „Atmen Sie tief ein“ zum Aufforderungswort hinzu, und die Mathematikpunktzahl des KI-Großmodells erhöht sich um weitere 8,4 Punkte!

Die neueste Entdeckung des Google DeepMind-Teams ist, dass die Verwendung dieses neuen „Zauberspruchs“ (Tief durchatmen) in Kombination mit dem jeder bereits vertrauten „Lass uns Schritt für Schritt denken“ (Lass uns Schritt für Schritt denken ), das große Modell liegt in GSM8K-Daten vor. Die Punktzahl am Set verbesserte sich von 71,8 auf 80,2 Punkte.

Und dieses wirkungsvollste Aufforderungswort wurde von KI selbst gefunden.

... Das Langzeitpapier „Großes Sprachmodell ist ein Optimierer“KI hat unabhängig voneinander schnelle Wörter entworfen. Google DeepMind hat herausgefunden, dass „tiefes Atmen in der Mathematik große Modelle um 8 Punkte steigern kann!

hat wieder einmal für Aufsehen gesorgt.

KI hat unabhängig voneinander schnelle Wörter entworfen. Google DeepMind hat herausgefunden, dass „tiefes Atmen in der Mathematik große Modelle um 8 Punkte steigern kann!

Insbesondere die vom großen Modell selbst entworfenen Aufforderungswörter werden gegenüber dem Big-Bench-Hard-Datensatz um bis zu 50 % verbessert

.

KI hat unabhängig voneinander schnelle Wörter entworfen. Google DeepMind hat herausgefunden, dass „tiefes Atmen in der Mathematik große Modelle um 8 Punkte steigern kann!

Manche Leute konzentrieren sich auch auf

„Die besten Aufforderungswörter für verschiedene Modelle sind unterschiedlich“

KI hat unabhängig voneinander schnelle Wörter entworfen. Google DeepMind hat herausgefunden, dass „tiefes Atmen in der Mathematik große Modelle um 8 Punkte steigern kann!.

In der Arbeit wurde nicht nur die Aufgabe des Prompt-Word-Designs getestet, sondern auch die Fähigkeit großer Modelle zu klassischen Optimierungsaufgaben wie der linearen Regression und dem Problem des Handlungsreisenden getestet

Verschiedene Modelle haben unterschiedliche optimale Prompt-Wörter

KI hat unabhängig voneinander schnelle Wörter entworfen. Google DeepMind hat herausgefunden, dass „tiefes Atmen in der Mathematik große Modelle um 8 Punkte steigern kann! Optimierungsprobleme gibt es überall. Auf Ableitungen und Gradienten basierende Algorithmen sind leistungsstarke Werkzeuge, aber in realen Anwendungen treten häufig Situationen auf, in denen Gradienten nicht anwendbar sind.

Um dieses Problem zu lösen, entwickelte das Team eine neue Methode OPRO, die Optimierung durch prompte Worte (Ooptimization by

PRO

mpting). KI hat unabhängig voneinander schnelle Wörter entworfen. Google DeepMind hat herausgefunden, dass „tiefes Atmen in der Mathematik große Modelle um 8 Punkte steigern kann!

Anstatt Optimierungsprobleme formal zu definieren und mit Programmen zu lösen, beschreiben wir Optimierungsprobleme durch natürliche Sprache und benötigen große Modelle, um neue Lösungen zu generieren.

Eine Graphflusszusammenfassung ist ein rekursiver Aufruf eines großen Modells.

In jedem Optimierungsschritt werden die zuvor generierten Lösungen und Bewertungen als Eingabe verwendet, das große Modell generiert neue Lösungen und Bewertungen und fügt diese dann den Eingabeaufforderungswörtern zur Verwendung im nächsten Optimierungsschritt hinzu. Das Papier verwendet hauptsächlich Googles

PaLM 2

und Bards

text-bison

KI hat unabhängig voneinander schnelle Wörter entworfen. Google DeepMind hat herausgefunden, dass „tiefes Atmen in der Mathematik große Modelle um 8 Punkte steigern kann! Version als Bewertungsmodell.

Als Optimierer werden wir vier Modelle verwenden, darunter GPT-3.5 und GPT-4.

Forschungsergebnisse zeigen, dass die von verschiedenen Modellen entworfenen Aufforderungswortstile und anwendbaren Aufforderungswortstile ebenfalls unterschiedlich sind. Zuvor in Das optimale Aufforderungswort Das von der KI für die GPT-Reihe entworfene Eingabeaufforderungswort lautet: KI hat unabhängig voneinander schnelle Wörter entworfen. Google DeepMind hat herausgefunden, dass „tiefes Atmen in der Mathematik große Modelle um 8 Punkte steigern kann!

„Lassen Sie uns dies Schritt für Schritt erarbeiten, um sicherzustellen, dass wir die richtige Antwort haben.“

Dieses Eingabeaufforderungswort wurde mit der APE-Methode erstellt Das Papier wurde auf der ICLR 2023 veröffentlicht und übertraf die von Menschen entworfenen Versionen auf GPT-3 (text-davinci-002). „Lass uns Schritt für Schritt denken.“ Auf Google-basiertem PaLM 2 und Bard schnitt die APE-Version in diesem Benchmark-Test schlechter ab als die menschliche Version

Unter den neuen Aufforderungswörtern, die durch die

OPRO-Methode entwickelt wurden, haben tief durchatmen“ und „Zerlegen Sie dieses Problem“ die beste Wirkung für PaLM.

Für die Text-Bison-Version des großen Bard-Modells ist es eher geneigt, detailliertere Eingabeaufforderungswörter bereitzustellen.

KI hat unabhängig voneinander schnelle Wörter entworfen. Google DeepMind hat herausgefunden, dass „tiefes Atmen in der Mathematik große Modelle um 8 Punkte steigern kann!

Darüber hinaus zeigt das Papier auch das Potenzial großer Modelle in mathematischen Optimierern

Als Beispiel für ein kontinuierliches Optimierungsproblem.

KI hat unabhängig voneinander schnelle Wörter entworfen. Google DeepMind hat herausgefunden, dass „tiefes Atmen in der Mathematik große Modelle um 8 Punkte steigern kann!Travelling-Salesman-Problem

als Beispiel für ein diskretes Optimierungsproblem.

Mit nur Hinweisen können große Modelle gute Lösungen finden, die manchmal mit handgefertigten Heuristiken übereinstimmen oder diese übertreffen.

KI hat unabhängig voneinander schnelle Wörter entworfen. Google DeepMind hat herausgefunden, dass „tiefes Atmen in der Mathematik große Modelle um 8 Punkte steigern kann!Das Team ist jedoch auch davon überzeugt, dass große Modelle herkömmliche Gradienten-basierte Optimierungsalgorithmen noch nicht ersetzen können. Wenn das Problem groß ist, wie zum Beispiel das Problem des Handlungsreisenden mit einer großen Anzahl von Knoten, ist die Leistung der OPRO-Methode nicht ideal

Das Team legte Ideen für zukünftige Verbesserungsrichtungen vor. Sie glauben, dass aktuelle große Modelle Fehlerfälle nicht effektiv nutzen können und dass die bloße Bereitstellung von Fehlerfällen es großen Modellen nicht ermöglichen kann, die Fehlerursachen zu erfassen zwischen hochwertigen und minderwertigen Generierungshinweisen.

Diese Informationen haben das Potenzial, dem Optimierermodell dabei zu helfen, in der Vergangenheit generierte Hinweise effektiver zu verbessern, und können die Anzahl der für die Hinweisoptimierung erforderlichen Stichproben weiter reduzieren.

Das Papier gibt eine große Anzahl optimaler Hinweiswörter frei.

Das Papier stammt von Zusammenschluss von Google und der DeepMind-Abteilung, aber die Autoren stammen hauptsächlich aus dem ursprünglichen Google Brain-Team, darunter

Quoc Le

,

Zhou Dengyong. Wir sind beide Fudan-Alumnus Chengrun Yang, der an der Cornell University einen Ph.D. abschloss, und Absolvent der Shanghai Jiao Tong University

Chen Xinyan, der an der UC Berkeley einen Ph.D. abschloss. Das Team lieferte auch viele der besten Aufforderungswörter, die in Experimenten in der Arbeit gewonnen wurden, darunter praktische Szenarien wie Filmempfehlungen und gefälschte Filmnamen. Wenn Sie es benötigen, können Sie selbst darauf zurückgreifen

Papieradresse: https://arxiv.org/abs/2309.03409

Das obige ist der detaillierte Inhalt vonKI hat unabhängig voneinander schnelle Wörter entworfen. Google DeepMind hat herausgefunden, dass „tiefes Atmen' in der Mathematik große Modelle um 8 Punkte steigern kann!. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

AI Hentai Generator

AI Hentai Generator

Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

R.E.P.O. Energiekristalle erklärten und was sie tun (gelber Kristall)
2 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
Repo: Wie man Teamkollegen wiederbelebt
4 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
Hello Kitty Island Abenteuer: Wie man riesige Samen bekommt
4 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌

Heiße Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Wie erstelle ich dynamisch ein Objekt über eine Zeichenfolge und rufe seine Methoden in Python auf? Wie erstelle ich dynamisch ein Objekt über eine Zeichenfolge und rufe seine Methoden in Python auf? Apr 01, 2025 pm 11:18 PM

Wie erstellt in Python ein Objekt dynamisch über eine Zeichenfolge und ruft seine Methoden auf? Dies ist eine häufige Programmieranforderung, insbesondere wenn sie konfiguriert oder ausgeführt werden muss ...

Wie hört Uvicorn kontinuierlich auf HTTP -Anfragen ohne Serving_forver () an? Wie hört Uvicorn kontinuierlich auf HTTP -Anfragen ohne Serving_forver () an? Apr 01, 2025 pm 10:51 PM

Wie hört Uvicorn kontinuierlich auf HTTP -Anfragen an? Uvicorn ist ein leichter Webserver, der auf ASGI basiert. Eine seiner Kernfunktionen ist es, auf HTTP -Anfragen zu hören und weiterzumachen ...

Wie kann man Go oder Rost verwenden, um Python -Skripte anzurufen, um eine echte parallele Ausführung zu erreichen? Wie kann man Go oder Rost verwenden, um Python -Skripte anzurufen, um eine echte parallele Ausführung zu erreichen? Apr 01, 2025 pm 11:39 PM

Wie kann man Go oder Rost verwenden, um Python -Skripte anzurufen, um eine echte parallele Ausführung zu erreichen? Vor kurzem habe ich Python verwendet ...

Wie kann die technische Fragen und Antworten in der Chatgpt -Ära auf Herausforderungen reagieren? Wie kann die technische Fragen und Antworten in der Chatgpt -Ära auf Herausforderungen reagieren? Apr 01, 2025 pm 11:51 PM

Die technische Q & A -Community in der Chatgpt -Ära: SegmentFaults Antwortstrategie Stackoverflow ...

Wie kann man mit dem Fehler in der Python-Multi-Process-Rohrkommunikation anmutig umgehen? Wie kann man mit dem Fehler in der Python-Multi-Process-Rohrkommunikation anmutig umgehen? Apr 01, 2025 pm 11:12 PM

Python Multi-Process-Rohrfehler "Pipe ist geschlossen"? Wenn Sie die Pipe-Methode in Pythons Multiprocessing-Modul für die Kommunikation über Eltern-Kind-Prozess verwenden, können Sie ...

Wie löse ich das Problem des fehlenden dynamischen Ladeninhalts beim Erhalten von Webseitendaten? Wie löse ich das Problem des fehlenden dynamischen Ladeninhalts beim Erhalten von Webseitendaten? Apr 01, 2025 pm 11:24 PM

Probleme und Lösungen, die bei der Verwendung der Anforderungsbibliothek zum Crawl -Webseitendaten auftreten. Wenn Sie die Anforderungsbibliothek verwenden, um Webseitendaten zu erhalten, begegnen Sie manchmal auf die ...

So stellen Sie den Debian Mail Server wieder her So stellen Sie den Debian Mail Server wieder her Apr 02, 2025 am 07:33 AM

Detaillierte Schritte zum Wiederherstellen von Debian Mail Server In diesem Artikel können Sie den Debian -Mailserver wiederherstellen. Bevor Sie beginnen, ist es wichtig, sich an die Bedeutung der Datensicherung zu erinnern. Wiederherstellungsschritte: Sicherungsdaten: Stellen Sie sicher, dass Sie alle wichtigen E -Mail -Daten und Konfigurationsdateien sichern, bevor Sie Wiederherstellungsvorgänge ausführen. Dadurch wird sichergestellt, dass Sie eine Fallback -Version haben, wenn während des Wiederherstellungsprozesses Probleme auftreten. Protokolldateien überprüfen: Überprüfen Sie die E -Mail -Server -Protokolldateien (z. B. /var/log/mail.log) auf Fehler oder Ausnahmen. Protokolldateien bieten häufig wertvolle Hinweise zur Ursache des Problems. STOP -Service: Stoppen Sie den Mail -Dienst, um weitere Datenversorgung zu verhindern. Verwenden Sie den folgenden Befehl: SU

Wie man Zookeeper Performance -Tuning auf Debian betreibt Wie man Zookeeper Performance -Tuning auf Debian betreibt Apr 02, 2025 am 07:42 AM

In diesem Artikel wird beschrieben, wie die Zookeeper -Leistung auf Debian -Systemen optimiert werden kann. Wir beraten Hardware, Betriebssystem, Zookeeper -Konfiguration und Überwachung. 1. Optimieren Sie die Speichermedien-Upgrade auf Systemebene: Das Ersetzen herkömmlicher mechanischer Festplatten durch SSD-Solid-State-Laufwerke verbessert die E/A-Leistung erheblich und verringert die Zugriffslatenz. Deaktivieren Sie die Swap -Partitionierung: Durch Anpassung der Kernelparameter reduzieren Sie die Abhängigkeit von Swap -Partitionen und vermeiden Sie Leistungsverluste, die durch häufige Speicher- und Festplatten -Swaps verursacht werden. Obergrenze für den Dateideskriptor: Erhöhen Sie die Anzahl der Dateideskriptoren, die gleichzeitig vom System geöffnet werden dürfen, um zu vermeiden, dass Ressourcenbeschränkungen die Verarbeitungseffizienz von Zookeeper beeinflussen. 2. Zookeeper -Konfigurationsoptimierungszoo.CFG -Dateikonfiguration

See all articles