Obwohl ChatGPT den Menschen der Wiederherstellung von Intelligenz näher zu bringen scheint, haben wir bisher nie vollständig verstanden, was Intelligenz ist, ob natürlich oder künstlich.
Es ist offensichtlich notwendig, die Prinzipien der Weisheit zu verstehen. Wie kann man die Intelligenz großer Sprachmodelle verstehen? Die von OpenAI gegebene Lösung lautet: Fragen Sie, was GPT-4 sagt.
Am 9. Mai veröffentlichte OpenAI seine neueste Forschung, die GPT-4 zur automatischen Interpretation des Verhaltens von Neuronen in großen Sprachmodellen verwendete und viele interessante Ergebnisse erzielte.
Ein einfacher Ansatz zur Interpretierbarkeitsforschung besteht darin, zunächst die KI zu verstehen Modell Was die verschiedenen Komponenten (Neuronen und Aufmerksamkeitsköpfe) tun. Bei herkömmlichen Methoden müssen Menschen Neuronen manuell untersuchen, um festzustellen, welche Merkmale der Daten sie darstellen. Dieser Prozess ist schwer zu skalieren und seine Anwendung auf neuronale Netze mit Hunderten oder Hunderten von Milliarden Parametern ist unerschwinglich teuer.
Also schlug OpenAI eine automatisierte Methode vor – mit GPT-4, um Erklärungen des Neuronenverhaltens in natürlicher Sprache zu generieren und zu bewerten und sie auf Neuronen in einem anderen Sprachmodell anzuwenden – hier sind sie wählte GPT-2 als experimentelle Probe und veröffentlichte einen Datensatz mit Interpretationen und Bewertungen dieser GPT-2-Neuronen.
Diese Technologie ermöglicht es Menschen, die Vorteile von GPT zu nutzen – 4 zur Definition und automatischen Messung des quantitativen Konzepts der Interpretierbarkeit von KI-Modellen: Es wird verwendet, um die Fähigkeit von Sprachmodellen zu messen, neuronale Aktivierungen mithilfe natürlicher Sprache zu komprimieren und zu rekonstruieren. Aufgrund ihrer quantitativen Natur können wir nun den Fortschritt beim Verständnis der Rechenziele neuronaler Netze messen.
OpenAI sagte, dass mithilfe des von ihnen festgelegten Benchmarks und der Verwendung von KI zur Erklärung von KI Ergebnisse erzielt werden können, die nahe am menschlichen Niveau liegen. Greg Brockman, Mitbegründer von OpenAI, sagte auch, dass wir einen wichtigen Schritt in Richtung automatisierter Alignment-Forschung mit KI gemacht haben.
Spezifische Methode
Die Methode zur Verwendung von KI zur Erklärung von KI umfasst die Ausführung von drei Schritten für jedes Neuron: #🎜 🎜#Schritt 1: Verwenden Sie GPT-4, um eine Erklärung zu generieren #
Generieren Sie bei einem gegebenen GPT-2-Neuron eine Erklärung seines Verhaltens durch Zeigt GPT-4-relevante Textsequenzen und Aktivierungen.Vom Modell generierte Erklärungen: Verweise auf Filme, Charaktere und Unterhaltung.
Schritt 2: Verwenden Sie GPT-4 für die Simulation
erneut Simulieren Sie mit GPT-4, was das interpretierte Neuron tun würde.
Schritt 3: Vergleich
Erklärungen werden basierend darauf bewertet, wie gut simulierte Aktivierungen mit echten Aktivierungen übereinstimmen – in diesem Fall erzielte GPT-4 einen Wert von 0,34.
Mithilfe seiner eigenen Bewertungsmethode begann OpenAI, die Wirksamkeit seiner Technologie in verschiedenen Teilen des Netzwerks zu messen, und versuchte, die Technologie für Teile zu verbessern, die derzeit unklar waren. Beispielsweise funktioniert ihre Technik bei größeren Modellen nicht gut, möglicherweise weil spätere Schichten schwieriger zu interpretieren sind.
OpenAI sagte, dass die überwiegende Mehrheit ihrer Erklärungen zwar nicht besonders gut abgeschnitten habe Sie glauben jedoch, dass sie jetzt ML-Techniken nutzen können, um ihre Fähigkeit, Erklärungen zu generieren, weiter zu verbessern. Sie stellten beispielsweise fest, dass Folgendes zur Verbesserung ihrer Punktzahl beitrug:
OpenAI sagte, dass sie einen von GPT-4 geschriebenen Datensatz und ein Visualisierungstool zusammenstellen, das alle 307.200 Neuronen in GPT-2 Open Source erklärt. Gleichzeitig stellen sie auch Code zur Interpretation und Bewertung mithilfe von Modellen bereit, die auf der OpenAI-API öffentlich verfügbar sind. Sie hoffen, dass die Forschungsgemeinschaft neue Techniken entwickeln wird, um Erklärungen mit höherer Punktzahl zu generieren, sowie bessere Werkzeuge zur Erforschung von GPT-2 durch Erklärungen.
Sie fanden heraus, dass es mehr als 1.000 Neuronen mit Erklärungswerten von mindestens 0,8 gab, was bedeutet, dass sie laut GPT-4 Activate die meisten Neuronen mit der höchsten Ränge ausmachten Verhalten. Die meisten dieser gut erklärten Neuronen sind nicht sehr interessant. Allerdings fanden sie auch viele interessante Neuronen, die GPT-4 nicht verstand. OpenAI hofft, dass mit der Verbesserung der Erklärungen schnell interessante qualitative Erkenntnisse zu Modellberechnungen gewonnen werden können.
Hier sind einige Beispiele für die Aktivierung von Neuronen in verschiedenen Schichten, wobei höhere Schichten abstrakter sind:
#🎜🎜 ## 🎜🎜#
Es scheint, dass die Konzepte, die GPT versteht, sich von denen des Menschen unterscheiden?OpenAI Future Work
Das obige ist der detaillierte Inhalt vonOpenAI nutzt GPT-4, um die 300.000 Neuronen von GPT-2 zu erklären: So sieht Weisheit aus. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!