Neuigkeiten vom 4. April: Das neueste Sprachmodell von OpenAI, GPT-4, ist nicht nur in der Lage, verschiedene Texte wie Menschen zu generieren, sondern kann auch Tests entwerfen und ausführen, um die eigene Leistung zu bewerten und zu verbessern. Dank dieser „Reflexions“-Technologie konnte GPT-4 in vielen schwierigen Tests erhebliche Verbesserungen erzielen und die Testleistung um 30 % steigern.
GPT-4 ist nach GPT, GPT-2 und GPT-3 das fortschrittlichste von OpenAI eingeführte System und derzeit das größte multimodale Modell (kann Bild- und Texteingaben akzeptieren und Text ausgeben). Es nutzt Deep-Learning-Technologie und nutzt künstliche neuronale Netze, um menschliches Schreiben zu imitieren.
Die Forscher Noah Shinn und Ashwin Gopinath schrieben in der Arbeit: „Wir haben eine neuartige Technologie entwickelt, die es KI-Agenten ermöglicht, das menschliche Selbst zu simulieren, Ihre eigene Leistung zu reflektieren und zu bewerten. Bei der Durchführung verschiedener Tests fügt GPT-4 einige zusätzliche Schritte hinzu, Dadurch kann es seine eigenen Tests entwerfen, um seine eigenen Antworten zu überprüfen, Fehler und Mängel zu identifizieren und dann basierend auf seinen Erkenntnissen Verbesserungen vorzunehmen. reflektierende Schleife, und die Genauigkeit steigt von 67 % auf 88 % Das Forschungsteam nutzte diese Technologie, um verschiedene Leistungstests für GPT-4 durchzuführen. Im HumanEval-Test musste GPT-4 164 noch nie dagewesene Python-Programmierprobleme lösen. Die ursprüngliche Genauigkeit betrug 67 %. Nach dem Einsatz der Reflexionstechnologie stieg die Genauigkeit. Im Alfworld-Test muss die KI Entscheidungen treffen und mehrstufige Aufgaben lösen, indem sie eine Reihe zulässiger Operationen in verschiedenen interaktiven Umgebungen ausführt. Durch den Einsatz von Reflexionstechniken stieg die Genauigkeit von GPT-4 von 73 % auf 97 %, wobei nur vier Aufgaben fehlschlugen. Im HotPotQA-Test hat GPT-4 auf Wikipedia zugegriffen und 100 Fragen beantwortet, die das Parsen von Inhalten und Begründungen aus mehreren unterstützenden Dokumenten erforderten. Die ursprüngliche Genauigkeit betrug 34 %. Nach dem Einsatz der Reflexionstechnologie stieg die Genauigkeit.
Diese Forschung zeigt, dass Lösungen für KI-Probleme manchmal auf der KI selbst beruhen. IT House stellte fest, dass dies ein bisschen wie ein generatives kontradiktorisches Netzwerk ist, bei dem zwei KIs ihre Fähigkeiten gegenseitig verbessern. Beispielsweise versucht eine KI, einige Bilder zu erzeugen, die wie echte Bilder aussehen, und die andere KI versucht, sie zu unterscheiden welche sind falsch. Aber in diesem Fall ist GPT sowohl Autor als auch Redakteur und nutzt Selbstreflexion, um die Qualität seines oder ihres Outputs zu verbessern.
Das obige ist der detaillierte Inhalt vonDie Fähigkeit von GPT-4 hat sich nach der „Selbstreflexion' erheblich verbessert und die Testleistung ist um 30 % gestiegen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!