Produziert von 51CTO Technology Stack (WeChat-ID: blog51cto)
Es ist bekannt, dass LLM Halluzinationen hervorrufen kann – also falsche, irreführende oder bedeutungslose Informationen generieren kann.
Interessanterweise betrachten manche Menschen, wie etwa OpenAI-CEO Sam Altman, die Vorstellungskraft von KI als Kreativität, während andere glauben, dass Vorstellungskraft dabei helfen könnte, neue wissenschaftliche Entdeckungen zu machen.
Allerdings ist es in den meisten Fällen entscheidend, die richtige Antwort zu geben, und Halluzinationen sind kein Merkmal, sondern ein Fehler.
Wie kann man also die Halluzination von LLM reduzieren? Langer Kontext? LAPPEN? Feinabstimmung?
Tatsächlich sind Langkontext-LLMs nicht narrensicher, die Vektorsuch-RAG ist nicht zufriedenstellend und die Feinabstimmung bringt ihre eigenen Herausforderungen und Einschränkungen mit sich.
Hier sind einige fortgeschrittene Techniken, mit denen Sie die LLM-Illusion reduzieren können.
Es gibt tatsächlich viele Diskussionen darüber, ob die Verwendung besserer oder fortschrittlicherer Eingabeaufforderungen das Halluzinationsproblem großer Sprachmodelle (LLM) lösen kann.
Bilder
Manche Leute denken, dass das Schreiben detaillierterer Aufforderungswörter nicht hilft, das Problem von (Halluzinationen) zu lösen, aber Leute wie Google Brain-Mitbegründer Andrew Ng sehen das Potenzial. Sie schlugen eine neue Methode vor, um durch Deep-Learning-Technologie schnelle Wörter zu generieren, um Menschen dabei zu helfen, Probleme besser zu lösen. Diese Methode nutzt eine große Datenmenge und leistungsstarke Rechenleistung, um automatisch Aufforderungswörter im Zusammenhang mit dem Problem zu generieren und so die Effizienz der Problemlösung zu verbessern. Obwohl dieser Bereich
Andrew Ng glaubt, dass GPT-4 und andere fortschrittliche Modelle aufgrund ihrer Inferenzfähigkeiten sehr gut darin sind, komplexe Eingabeaufforderungswörter mit detaillierten Anweisungen zu interpretieren.
Bilder
„Mit dem Lernen mit mehreren Beispielen können Entwickler Dutzende oder sogar Hunderte von Beispielen in einem Stichwort angeben, was effektiver ist als das Lernen mit wenigen Beispielen“, schrieb er.
Bilder
Um Prompt-Wörter zu verbessern, zeichnen sich auch viele neue Entwicklungen ab. Beispielsweise hat Anthropic am 10. Mai ein neues „Prompt-Generator“-Tool veröffentlicht, das einfache Beschreibungen in für große optimierte Advanced-Prompt-Wörter umwandeln kann Sprachmodelle (LLMs). Über die Anthropic-Konsole können Sie Aufforderungswörter für die Produktion generieren.
Kürzlich sagte Marc Andreessen auch, dass wir mit den richtigen Eingabeaufforderungen das Potenzial von Supergenies in KI-Modellen freisetzen können. „Prompting-Techniken in verschiedenen Bereichen könnten dieses potenzielle Supergenie freisetzen“, fügte er hinzu.
Chain-of-Verification (CoVe) von Meta AI ist eine weitere Technologie. Dieser Ansatz reduziert Halluzinationen in großen Sprachmodellen (LLMs), indem er die Faktenprüfung in überschaubare Schritte aufteilt, die Antwortgenauigkeit verbessert und sich an menschengesteuerten Faktenprüfungsprozessen orientiert.
Bilder
CoVe umfasst die Generierung erster Antworten, die Planung von Validierungsfragen, die unabhängige Beantwortung dieser Fragen und die Generierung einer endgültigen validierten Antwort. Dieser Ansatz verbessert die Genauigkeit des Modells erheblich, indem seine Ausgabe systematisch validiert und korrigiert wird.
Es verbessert die Leistung bei verschiedenen Aufgaben wie listenbasierten Fragen, der Beantwortung von Fragen im geschlossenen Buch und der Generierung langer Texte, indem es Halluzinationen reduziert und die sachliche Korrektheit erhöht.
RAG (Retrieval Enhanced Generation) ist nicht mehr auf den Vektordatenbankabgleich beschränkt, was den Abrufeffekt erheblich verbessert.
Bilder
Zum Beispiel die Integration von Knowledge Graphen (KGs) in RAG. Durch die Nutzung strukturierter und miteinander verbundener Daten in Wissensgraphen können die Argumentationsfähigkeiten aktueller RAG-Systeme erheblich verbessert werden.
Eine weitere Technik ist Raptor, die Probleme, die sich über mehrere Dokumente erstrecken, durch die Schaffung einer höheren Abstraktionsebene behandelt. Dies ist besonders nützlich bei der Beantwortung von Anfragen, die mehrere Dokumentkonzepte betreffen.
Bilder
Ansätze wie Raptor passen gut zu großen Sprachmodellen (LLMs) mit langem Kontext, da Sie das gesamte Dokument ohne Chunking direkt einbetten können.
Diese Methode reduziert Halluzinationsphänomene durch die Integration eines externen Abrufmechanismus in das Transformatormodell. Wenn eine Anfrage eingeht, ruft Raptor zunächst relevante und überprüfte Informationen aus externen Wissensdatenbanken ab.
Diese abgerufenen Daten werden dann zusammen mit der ursprünglichen Abfrage in den Kontext des Modells eingebettet. Indem die Antworten des Modells auf Fakten und relevanten Informationen basieren, stellt Raptor sicher, dass die generierten Inhalte sowohl korrekt als auch kontextbezogen sind.
Der Artikel „Erleichterung des Halluzinationsphänomens großer Sprachmodelle durch konforme Abstinenz“ stellt eine Methode vor, um zu bestimmen, wann das Modell keine Antworten geben sollte, indem konforme Vorhersagemethoden angewendet werden, um Halluzinationen in großen Sprachmodellen zu reduzieren. LLMs).
Bilder
Durch die Verwendung von Selbstkonsistenz zur Bewertung der Ähnlichkeit von Antworten und die Nutzung konformer Vorhersagen für strenge Garantien stellt dieser Ansatz sicher, dass das Modell nur dann reagiert, wenn es von seiner Genauigkeit überzeugt ist.
Diese Methode begrenzt effektiv das Auftreten von Halluzinationen und sorgt gleichzeitig für eine ausgeglichene Entzugsrate, was besonders bei Aufgaben von Vorteil ist, die lange Antworten erfordern. Es verbessert die Zuverlässigkeit der Modellausgabe erheblich, indem fehlerhafte oder unlogische Antworten vermieden werden.
Vor kurzem reduziert ServiceNow Halluzinationen in der strukturierten Ausgabe durch RAG, verbessert die Leistung großer Sprachmodelle (LLM) und erreicht eine Generalisierung außerhalb der Domäne bei gleichzeitiger Minimierung des Ressourcenverbrauchs.
Bilder
Die Technik beinhaltet ein RAG-System, das relevante JSON-Objekte aus einer externen Wissensdatenbank abruft, bevor der Text generiert wird. Dadurch wird sichergestellt, dass der Generierungsprozess auf genauen und relevanten Daten basiert.
Bilder
Durch die Einbeziehung dieses Vorab-Abrufschritts ist es weniger wahrscheinlich, dass das Modell falsche oder erfundene Informationen produziert, wodurch Halluzinationen reduziert werden. Darüber hinaus ermöglicht dieser Ansatz die Verwendung kleinerer Modelle ohne Leistungseinbußen, was ihn sowohl effizient als auch effektiv macht.
Um mehr über AIGC zu erfahren, besuchen Sie bitte:
https://www.51cto.com/aigc/
Das obige ist der detaillierte Inhalt vonZusätzlich zu RAG gibt es fünf Möglichkeiten, die Illusion großer Modelle zu beseitigen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!