


Verwendung einer suchverstärkten Generierungstechnologie zur Lösung des Halluzinationsproblems künstlicher Intelligenz
Autor|. Rahul Pradhan
Quelle|
Künstliche Intelligenz wird voraussichtlich die einflussreichste Technologie unserer Zeit werden. Jüngste Fortschritte in der Transformer-Technologie und der generativen künstlichen Intelligenz haben ihr Potenzial gezeigt, Innovation und Einfallsreichtum in großem Maßstab freizusetzen.
Generative KI ist jedoch nicht ohne Herausforderungen – Herausforderungen, die die Anwendung und Wertschöpfung dieser transformativen Technologie sogar erheblich behindern können. Da generative KI-Modelle immer komplexer und leistungsfähiger werden, stellen sie auch einzigartige Herausforderungen dar, einschließlich der Generierung von Ausgaben, die nicht auf den Eingabedaten basieren.
Diese sogenannten „Illusionen“ beziehen sich auf die vom Modell erzeugten Ausgaben Die Ergebnisse sind zwar kohärent, können jedoch von den Fakten oder dem Eingabekontext getrennt sein. In diesem Artikel werden die transformativen Auswirkungen der generativen künstlichen Intelligenz kurz vorgestellt, die Mängel und Herausforderungen der Technologie untersucht und Techniken diskutiert, die zur Linderung von Halluzinationen eingesetzt werden können.
Die transformative Wirkung generativer KI
Umformuliert als: Generative KI-Modelle nutzen den komplexen Rechenprozess des Deep Learning, um Muster in großen Datensätzen zu identifizieren und diese Informationen zu nutzen, um neue, überzeugende Ergebnisse zu erstellen. Diese Modelle nutzen neuronale Netze in der maschinellen Lerntechnologie, die von der Art und Weise inspiriert sind, wie das menschliche Gehirn Informationen verarbeitet und interpretiert, und lernen und verbessern sich im Laufe der Zeit weiter
OpenAIs GPT-4 und Googles PaLM 2 usw. Generative KI-Modelle versprechen Innovationen in den Bereichen Automatisierung, Datenanalyse und Benutzererfahrung. Diese Modelle können Code schreiben, Artikel zusammenfassen und sogar bei der Diagnose von Krankheiten helfen. Die Machbarkeit und der endgültige Wert dieser Modelle hängen jedoch von ihrer Genauigkeit und Zuverlässigkeit ab. In kritischen Bereichen wie dem Gesundheitswesen, Finanz- oder Rechtsdienstleistungen ist die Zuverlässigkeit der Genauigkeit von entscheidender Bedeutung. Damit jedoch alle Benutzer das volle Potenzial generativer KI ausschöpfen können, müssen diese Herausforderungen angegangen werden.
Nachteile großer Sprachmodelle
LLMs sind grundsätzlich probabilistisch und nicht deterministisch. Sie generieren Text basierend auf der Wahrscheinlichkeit, dass eine bestimmte Wortfolge als nächstes auftritt. LLM hat keine Vorstellung von Wissen und verlässt sich vollständig auf die Navigation durch einen Korpus trainierter Daten als Empfehlungsmaschine. Der von ihnen generierte Text folgt im Allgemeinen grammatikalischen und semantischen Regeln, basiert jedoch vollständig auf statistischer Konsistenz mit der Eingabeaufforderung.
Diese probabilistische Natur des LLM ist sowohl ein Vorteil als auch ein Nachteil. Wenn das Ziel darin besteht, zur richtigen Antwort zu gelangen oder auf der Grundlage der Antwort eine kritische Entscheidung zu treffen, dann ist Halluzination schlimm und kann sogar Schaden anrichten. Wenn das Ziel jedoch ein kreatives Unterfangen ist, kann die künstlerische Kreativität mit dem LLM gefördert werden, was dazu führt, dass relativ schnell Kunstwerke, Handlungsstränge und Drehbücher entstehen.
Das Misstrauen gegenüber den Ergebnissen eines LLM-Modells kann jedoch unabhängig vom Ziel schwerwiegende Folgen haben. Dies würde nicht nur das Vertrauen in die Fähigkeiten dieser Systeme untergraben, sondern auch den Einfluss von KI auf die Beschleunigung menschlicher Produktivität und Innovation erheblich verringern.
Letztendlich ist KI nur so gut wie die Daten, auf denen sie trainiert wird. Die Illusion von LLM wird hauptsächlich durch Fehler im Datensatz und im Training verursacht, einschließlich der folgenden Aspekte :
- Überanpassung: Wenn das Modell zu gut auf den Trainingsdaten lernt (einschließlich Rauschen und Ausreißer) Wann kommt es zu einer Überanpassung? Modellkomplexität, verrauschte Trainingsdaten oder unzureichende Trainingsdaten können zu einer Überanpassung führen. Dies führt zu einer minderwertigen Mustererkennung, bei der sich das Modell nicht gut auf neue Daten verallgemeinern lässt, was zu Klassifizierungs- und Vorhersagefehlern, sachlich falschen Ausgaben, Ausgaben mit niedrigem Signal-Rausch-Verhältnis oder regelrechten Halluzinationen führt.
- Datenqualität: Eine falsche Kennzeichnung und Klassifizierung der für das Training verwendeten Daten kann bei Halluzinationen eine wichtige Rolle spielen. Verzerrte Daten oder ein Mangel an relevanten Daten können tatsächlich zu einer Modellausgabe führen, die korrekt erscheint, sich jedoch je nach dem Umfang der vom Modell empfohlenen Entscheidungen als schädlich erweisen könnte.
- Datenknappheit: Datenknappheit oder der Bedarf an frischen oder relevanten Daten ist eines der wichtigen Probleme, die Illusionen hervorrufen und Unternehmen daran hindern, generative KI einzuführen. Das Aktualisieren von Daten mit den neuesten Inhalten und Kontextdaten trägt dazu bei, Illusionen und Voreingenommenheit zu reduzieren.
Bekämpfung von Halluzinationen in großen Sprachmodellen
Es gibt verschiedene Möglichkeiten, Halluzinationen in LLMs zu bekämpfen, einschließlich Techniken wie Feinabstimmung, Hint Engineering und Retrieval-Augmented Generation (RAG).
- Feinabstimmung bezieht sich auf die Neuschulung eines Modells mithilfe eines domänenspezifischen Datensatzes, um für diese Domäne relevante Inhalte genauer zu generieren. Das erneute Trainieren oder Feintuning des Modells nimmt jedoch viel Zeit in Anspruch und außerdem veralten die Daten ohne kontinuierliches Training schnell. Darüber hinaus bringt die Umschulung des Modells auch eine enorme Kostenbelastung mit sich.
- Hint Engineering zielt darauf ab, LLM dabei zu helfen, qualitativ hochwertige Ergebnisse zu erzielen, indem es beschreibendere und anschaulichere Funktionen als Hinweise in der Eingabe bereitstellt. Wenn Sie dem Modell zusätzlichen Kontext geben und es auf Fakten stützen, verringert sich die Wahrscheinlichkeit, dass das Modell halluziniert.
- Retrieval Augmented Generation (RAG) ist ein Framework, das sich darauf konzentriert, die Grundlage für LLM mit den genauesten und aktuellsten Informationen zu schaffen. Die Reaktionsfähigkeit von LLM kann verbessert werden, indem das Modell in Echtzeit mit Fakten aus externen Wissensdatenbanken gefüttert wird.
Retrieval-Augmented Generation und Echtzeitdaten
Retrieval-Augmented Generation ist eine der vielversprechendsten Techniken zur Verbesserung der Genauigkeit großer Sprachmodelle. Es stellt sich heraus, dass RAG in Kombination mit Echtzeitdaten Halluzinationen deutlich reduzieren kann.
RAG ermöglicht es Unternehmen, LLM zu nutzen, indem sie die neuesten proprietären und kontextbezogenen Daten nutzen. Darüber hinaus kann RAG den Eingabeinhalt auch mit spezifischen Kontextinformationen anreichern und so dem Sprachmodell dabei helfen, genauere und kontextbezogene Antworten zu generieren. In Unternehmensumgebungen ist eine Feinabstimmung oft unpraktisch, aber RAG bietet eine kostengünstige, ertragreiche Alternative für die Bereitstellung einer personalisierten, informierten Benutzererfahrung
Um das RAG-Modell zu verbessern, ist eine Kombination aus Effizienzgründen erforderlich RAG mit einem Betriebsdatenspeicher, der in der Lage ist, Daten in der Muttersprache von LLMs zu speichern, nämlich hochdimensionale mathematische Vektoren, sogenannte Einbettungen, die die Bedeutung des Textes kodieren. Wenn ein Benutzer eine Anfrage stellt, wandelt die Datenbank diese in einen numerischen Vektor um. Auf diese Weise können verwandte Texte über die Vektordatenbank abgefragt werden, unabhängig davon, ob sie dieselben Begriffe enthalten oder nicht.
Eine hochverfügbare, leistungsstarke Datenbank, die mithilfe der semantischen Suche große Mengen unstrukturierter Daten speichern und abfragen kann, ist eine Schlüsselkomponente des RAG-Prozesses.
Das obige ist der detaillierte Inhalt vonVerwendung einer suchverstärkten Generierungstechnologie zur Lösung des Halluzinationsproblems künstlicher Intelligenz. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

Video Face Swap
Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen

Diese Seite berichtete am 27. Juni, dass Jianying eine von FaceMeng Technology, einer Tochtergesellschaft von ByteDance, entwickelte Videobearbeitungssoftware ist, die auf der Douyin-Plattform basiert und grundsätzlich kurze Videoinhalte für Benutzer der Plattform produziert Windows, MacOS und andere Betriebssysteme. Jianying kündigte offiziell die Aktualisierung seines Mitgliedschaftssystems an und führte ein neues SVIP ein, das eine Vielzahl von KI-Schwarztechnologien umfasst, wie z. B. intelligente Übersetzung, intelligente Hervorhebung, intelligente Verpackung, digitale menschliche Synthese usw. Preislich beträgt die monatliche Gebühr für das Clipping von SVIP 79 Yuan, die Jahresgebühr 599 Yuan (Hinweis auf dieser Website: entspricht 49,9 Yuan pro Monat), das fortlaufende Monatsabonnement beträgt 59 Yuan pro Monat und das fortlaufende Jahresabonnement beträgt 499 Yuan pro Jahr (entspricht 41,6 Yuan pro Monat). Darüber hinaus erklärte der Cut-Beamte auch, dass diejenigen, die den ursprünglichen VIP abonniert haben, das Benutzererlebnis verbessern sollen

Übersetzer |. Bugatti Review |. Chonglou Dieser Artikel beschreibt, wie man die GroqLPU-Inferenz-Engine verwendet, um ultraschnelle Antworten in JanAI und VSCode zu generieren. Alle arbeiten daran, bessere große Sprachmodelle (LLMs) zu entwickeln, beispielsweise Groq, der sich auf die Infrastrukturseite der KI konzentriert. Die schnelle Reaktion dieser großen Modelle ist der Schlüssel, um sicherzustellen, dass diese großen Modelle schneller reagieren. In diesem Tutorial wird die GroqLPU-Parsing-Engine vorgestellt und erläutert, wie Sie mithilfe der API und JanAI lokal auf Ihrem Laptop darauf zugreifen können. In diesem Artikel wird es auch in VSCode integriert, um uns dabei zu helfen, Code zu generieren, Code umzugestalten, Dokumentation einzugeben und Testeinheiten zu generieren. In diesem Artikel erstellen wir kostenlos unseren eigenen Programmierassistenten für künstliche Intelligenz. Einführung in die GroqLPU-Inferenz-Engine Groq

Verbessern Sie die Produktivität, Effizienz und Genauigkeit der Entwickler, indem Sie eine abrufgestützte Generierung und ein semantisches Gedächtnis in KI-Codierungsassistenten integrieren. Übersetzt aus EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG, Autor JanakiramMSV. Obwohl grundlegende KI-Programmierassistenten natürlich hilfreich sind, können sie oft nicht die relevantesten und korrektesten Codevorschläge liefern, da sie auf einem allgemeinen Verständnis der Softwaresprache und den gängigsten Mustern beim Schreiben von Software basieren. Der von diesen Coding-Assistenten generierte Code eignet sich zur Lösung der von ihnen zu lösenden Probleme, entspricht jedoch häufig nicht den Coding-Standards, -Konventionen und -Stilen der einzelnen Teams. Dabei entstehen häufig Vorschläge, die geändert oder verfeinert werden müssen, damit der Code in die Anwendung übernommen wird

Um mehr über AIGC zu erfahren, besuchen Sie bitte: 51CTOAI.x Community https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou unterscheidet sich von der traditionellen Fragendatenbank, die überall im Internet zu sehen ist erfordert einen Blick über den Tellerrand hinaus. Large Language Models (LLMs) gewinnen in den Bereichen Datenwissenschaft, generative künstliche Intelligenz (GenAI) und künstliche Intelligenz zunehmend an Bedeutung. Diese komplexen Algorithmen verbessern die menschlichen Fähigkeiten, treiben Effizienz und Innovation in vielen Branchen voran und werden zum Schlüssel für Unternehmen, um wettbewerbsfähig zu bleiben. LLM hat ein breites Anwendungsspektrum und kann in Bereichen wie der Verarbeitung natürlicher Sprache, der Textgenerierung, der Spracherkennung und Empfehlungssystemen eingesetzt werden. Durch das Lernen aus großen Datenmengen ist LLM in der Lage, Text zu generieren

Large Language Models (LLMs) werden auf riesigen Textdatenbanken trainiert und erwerben dort große Mengen an realem Wissen. Dieses Wissen wird in ihre Parameter eingebettet und kann dann bei Bedarf genutzt werden. Das Wissen über diese Modelle wird am Ende der Ausbildung „verdinglicht“. Am Ende des Vortrainings hört das Modell tatsächlich auf zu lernen. Richten Sie das Modell aus oder verfeinern Sie es, um zu erfahren, wie Sie dieses Wissen nutzen und natürlicher auf Benutzerfragen reagieren können. Aber manchmal reicht Modellwissen nicht aus, und obwohl das Modell über RAG auf externe Inhalte zugreifen kann, wird es als vorteilhaft angesehen, das Modell durch Feinabstimmung an neue Domänen anzupassen. Diese Feinabstimmung erfolgt mithilfe von Eingaben menschlicher Annotatoren oder anderer LLM-Kreationen, wobei das Modell auf zusätzliches Wissen aus der realen Welt trifft und dieses integriert

Maschinelles Lernen ist ein wichtiger Zweig der künstlichen Intelligenz, der Computern die Möglichkeit gibt, aus Daten zu lernen und ihre Fähigkeiten zu verbessern, ohne explizit programmiert zu werden. Maschinelles Lernen hat ein breites Anwendungsspektrum in verschiedenen Bereichen, von der Bilderkennung und der Verarbeitung natürlicher Sprache bis hin zu Empfehlungssystemen und Betrugserkennung, und es verändert unsere Lebensweise. Im Bereich des maschinellen Lernens gibt es viele verschiedene Methoden und Theorien, von denen die fünf einflussreichsten Methoden als „Fünf Schulen des maschinellen Lernens“ bezeichnet werden. Die fünf Hauptschulen sind die symbolische Schule, die konnektionistische Schule, die evolutionäre Schule, die Bayes'sche Schule und die Analogieschule. 1. Der Symbolismus, auch Symbolismus genannt, betont die Verwendung von Symbolen zum logischen Denken und zum Ausdruck von Wissen. Diese Denkrichtung glaubt, dass Lernen ein Prozess der umgekehrten Schlussfolgerung durch das Vorhandene ist

In diesem Artikel werden die Ergebnisse von „Local Deployment of Large Language Models in OpenHarmony“ auf der 2. OpenHarmony-Technologiekonferenz demonstriert. Open-Source-Adresse: https://gitee.com/openharmony-sig/tpc_c_cplusplus/blob/master/thirdparty/. InferLLM/docs/hap_integrate.md. Die Implementierungsideen und -schritte bestehen darin, das leichtgewichtige LLM-Modellinferenz-Framework InferLLM auf das OpenHarmony-Standardsystem zu übertragen und ein Binärprodukt zu kompilieren, das auf OpenHarmony ausgeführt werden kann. InferLLM ist ein einfaches und effizientes L

Herausgeber | Der Frage-Antwort-Datensatz (QA) von ScienceAI spielt eine entscheidende Rolle bei der Förderung der Forschung zur Verarbeitung natürlicher Sprache (NLP). Hochwertige QS-Datensätze können nicht nur zur Feinabstimmung von Modellen verwendet werden, sondern auch effektiv die Fähigkeiten großer Sprachmodelle (LLMs) bewerten, insbesondere die Fähigkeit, wissenschaftliche Erkenntnisse zu verstehen und zu begründen. Obwohl es derzeit viele wissenschaftliche QS-Datensätze aus den Bereichen Medizin, Chemie, Biologie und anderen Bereichen gibt, weisen diese Datensätze immer noch einige Mängel auf. Erstens ist das Datenformular relativ einfach, die meisten davon sind Multiple-Choice-Fragen. Sie sind leicht auszuwerten, schränken jedoch den Antwortauswahlbereich des Modells ein und können die Fähigkeit des Modells zur Beantwortung wissenschaftlicher Fragen nicht vollständig testen. Im Gegensatz dazu offene Fragen und Antworten
