Heim > Technologie-Peripheriegeräte > KI > Bitte schauen Sie sich am ersten Tag des Jahres 2023 die Jahresendzusammenfassung von ChatGPT an!

Bitte schauen Sie sich am ersten Tag des Jahres 2023 die Jahresendzusammenfassung von ChatGPT an!

PHPz
Freigeben: 2023-04-12 18:31:04
nach vorne
977 Leute haben es durchsucht

Das Aufkommen von ChatGPT ist möglicherweise der auffälligste KI-Durchbruch in der zweiten Hälfte des Jahres 2022, wenn auch möglicherweise nicht der technischste.

Vor nicht allzu langer Zeit, beim NeurIPS 2022 in New Orleans, gab es gleichzeitig endlose Gerüchte über GPT-4 , OpenAI wird auch zum Fokus der gesamten Nachrichtenmedien.

OpenAI hat ein neues Modell in der GPT-3-Serie von KI-Großsprachmodellen angekündigt: text-davinci-003, das ist Teil der „GPT-3.5-Serie“, die die Leistung verbessern kann, indem komplexere Anweisungen verarbeitet und qualitativ hochwertigere Inhalte in längerer Form erstellt werden.

Bitte schauen Sie sich am ersten Tag des Jahres 2023 die Jahresendzusammenfassung von ChatGPT an!

Das neue Modell basiert auf InstructGPT und wird mit menschlichem Feedback zur Verstärkung des Lernens verwendet um Sprachmodelle besser an menschliche Anweisungen anzupassen.

DaVinci-003 ist ein echtes Reinforcement Learning with Human Feedback (RLHF)-Modell, das bei der Feinabstimmung unter Aufsicht von Menschen demonstriert wurde wird bei Modellproben mit hoher Bewertung verwendet, um die Generierungsqualität zu verbessern. „

Als weiterer Teil der „GPT-3.5-Serie“ veröffentlichte OpenAI eine frühe Demonstration von ChatGPT. Das behauptete das Unternehmen Das interaktive Dialogmodell kann nicht nur eine Vielzahl von Folgefragen beantworten, sondern auch Fehler eingestehen, falsche Frageprämissen in Frage stellen und unangemessene Fragewünsche ablehnen.

Bitte schauen Sie sich am ersten Tag des Jahres 2023 die Jahresendzusammenfassung von ChatGPT an!

OpenAI gab im Blog an, dass die Forschungsversion von ChatGPT eine „OpenAI-Iteration“ sei Der jüngste Schritt bei der Bereitstellung zunehmend sicherer und nützlicher KI-Systeme basiert auf vielen Erkenntnissen aus früheren Modellbereitstellungen wie GPT-3 und Codex, die bei der Nutzung von Reinforcement Learning mit menschlichem Feedback (RLHF) schädlich und unecht waren Vor nicht allzu langer Zeit löste Googles Chatbot LaMDA eine Kontroverse darüber aus, ob KI bewusst ist.

Natürlich hat ChatGPT auch Einschränkungen.

In einem Blogbeitrag beschreibt OpenAI seine Einschränkungen, einschließlich der Tatsache, dass die Antworten manchmal vernünftig klingen, in Wirklichkeit jedoch falsch oder bedeutungslos sind .

„Die Lösung dieses Problems ist eine große Herausforderung, denn (1) während des Reinforcement-Learning-Trainings gibt es derzeit keine Garantie dafür, dass es zuverlässig ist.“ Quellen; (2) trainierte Modelle sind vorsichtiger und lehnen Fragen ab, die möglicherweise richtig beantwortet werden, da die ideale Antwort davon abhängt, was das Modell weiß, und nicht davon, was der menschliche Demonstrator weiß 🎜#

Open AI sagte, dass ChatGPT „manchmal auf schädliche Anweisungen reagiert oder voreingenommenes Verhalten zeigt. Wir verwenden die API, um Warnungen zu erhalten oder bestimmte Arten von zu blockieren.“ Es wird mit unsicheren Inhalten gerechnet, aber derzeit gibt es einige falsche Negativ- und Positivmeldungen. Wir sind sehr daran interessiert, Benutzerfeedback zu sammeln, um unsere laufende Arbeit zur Verbesserung dieses Modells zu unterstützen.

Obwohl ChatGPT möglicherweise noch viele Probleme hat, die verbessert werden müssen, können wir nicht leugnen, dass ChatGPT dies tun wird, bevor GPT-4 auf den Plan tritt immer noch das aktuelle erstklassige Sprachmodell in großem Maßstab.

In der jüngsten Community gibt es jedoch ein neues Modell, das die Begeisterung aller für Diskussionen entfacht hat. Das Wichtigste ist, dass es Open Source ist.

Diese Woche hat Philip Wang, ein Entwickler, der für das Reverse Engineering von Closed-Source-KI-Systemen, einschließlich Metas Make-A-Video, verantwortlich ist, PaLM + RLHF gepostet: ein Textgenerierungsmodell, das sich wie ChatGPT verhält.

Bitte schauen Sie sich am ersten Tag des Jahres 2023 die Jahresendzusammenfassung von ChatGPT an!

Codeadresse: https://github.com/lucidrains/PaLM-rlhf-pytorch

Dieses System kombiniert Googles großes Sprachmodell PaLM und Reinforcement Learning mit Human-Feedback-Technologie (RLHF). ein System, das fast jede Aufgabe bei ChatGPT erledigen kann, einschließlich des Verfassens von E-Mails und des Vorschlagens von Computercode.

Die Kraft von PaLm + RLHF

Seit seiner Veröffentlichung hat ChatGPT in der Technologiewelt für Aufsehen gesorgt, da es in der Lage ist, hochauflösenden, menschenähnlichen Text zu generieren und auf Benutzerfragen im Gespräch zu antworten. Ein Sturm.

Obwohl dies ein großer Fortschritt in den frühen Phasen der Chatbot-Entwicklung ist, haben viele Fans im Bereich der künstlichen Intelligenz Bedenken hinsichtlich der geschlossenen Natur von ChatGPT geäußert.

Bis heute bleibt das ChatGPT-Modell proprietär, was bedeutet, dass der zugrunde liegende Code nicht für die Öffentlichkeit einsehbar ist. Nur OpenAI weiß wirklich, wie es funktioniert und welche Daten es verarbeitet. Dieser Mangel an Transparenz kann weitreichende Folgen haben und das Vertrauen der Nutzer langfristig beeinträchtigen.

Viele Entwickler wollten unbedingt eine Open-Source-Alternative entwickeln, und jetzt ist sie endlich da. PaLM+RLHF wurde speziell für die Python-Sprache entwickelt und kann für PyTorch implementiert werden.

Entwickler können PaLM so einfach trainieren wie einen autoregressiven Transformator und dann menschliches Feedback nutzen, um das Belohnungsmodell zu trainieren.

PaLM + RLHF ist wie ChatGPT im Wesentlichen ein statistisches Tool zur Vorhersage von Wörtern. Wenn PaLM+RLHF mit einer großen Anzahl von Beispielen aus den Trainingsdaten gefüttert wird – beispielsweise Reddit-Beiträge, Nachrichtenartikel und E-Books –, lernt es anhand von Mustern wie dem semantischen Kontext des umgebenden Textes, wie wahrscheinlich es ist, dass ein Wort vorkommt.

Ist es wirklich so perfekt?

Natürlich gibt es immer noch eine große Lücke zwischen Ideal und Realität. PaLM + RLHF scheint perfekt, aber es gibt auch verschiedene Probleme. Das größte Problem ist, dass die Leute es noch nicht nutzen können.

Um PaLM + RLHF zu starten, müssen Benutzer Gigabyte an Text zusammenstellen, der aus verschiedenen Quellen wie Blogs, sozialen Medien, Nachrichtenartikeln, E-Books usw. stammt.

Diese Daten werden einem fein abgestimmten PaLm-Modell zugeführt, das mehrere Antworten generiert. Wenn Sie beispielsweise das Modell „Was sind die Grundkenntnisse der Wirtschaftswissenschaften?“ fragen, gibt PaLm Antworten wie „Wirtschaftswissenschaft ist die Sozialwissenschaft, die studiert …“.

Anschließend wird der Entwickler die Leute bitten, die vom Modell generierten Antworten vom besten zum schlechtesten zu ordnen und ein Belohnungsmodell zu erstellen. Schließlich werden die Rankings verwendet, um ein „Belohnungsmodell“ zu trainieren, das die Antworten des ursprünglichen Modells nimmt und sie nach Präferenz sortiert, um die beste Antwort für eine bestimmte Eingabeaufforderung herauszufiltern.

Dies ist jedoch ein teurer Prozess. Das Sammeln von Trainingsdaten und das Training des Modells selbst ist nicht billig. PaLM verfügt über 540 Milliarden Parameter, bei denen es sich um die aus den Trainingsdaten gelernten Teile des Sprachmodells handelt. Eine Studie aus dem Jahr 2020 zeigte, dass die Entwicklung eines Textgenerierungsmodells mit nur 1,5 Milliarden Parametern bis zu 1,6 Millionen US-Dollar kosten würde.

Um das Open-Source-Modell Bloom mit 176 Milliarden Parametern zu trainieren, verbrachten die Forscher von Hugging Face im Juli dieses Jahres drei Monate und verwendeten 384 NVIDIA A100-GPUs. Jeder A100 kostet Tausende von Dollar, was sich kein durchschnittlicher Benutzer leisten kann.

Auch nach dem Training des Modells ist es nicht trivial, ein Modell der Größe PaLM + RLHF zu betreiben. Bloom verfügt über einen dedizierten PC mit acht A100-GPUs, und der Betrieb von OpenAIs Textgenerierung GPT-3 (mit etwa 175 Milliarden Parametern) kostet etwa 87.000 US-Dollar pro Jahr.

KI-Forscher Sebastian Raschka weist in einem Artikel über PaLM + RLHF darauf hin, dass auch die Skalierung des notwendigen Entwicklungsworkflows eine Herausforderung sein kann. „Selbst wenn Ihnen jemand 500 GPUs gibt, um dieses Modell zu trainieren, müssen Sie sich dennoch um die Infrastruktur kümmern und über die Software verfügen, um damit umzugehen“, sagte er. „Obwohl dies machbar ist, erfordert es derzeit viel Aufwand.“ PaLM + RLHF ist derzeit nicht in der Lage, ChatGPT zu ersetzen.

Bisher gibt es keinen genauen Veröffentlichungstermin für PaLM + RLHF. Zur Veranschaulichung: Hugging Face brauchte drei Monate, um Bloom zu trainieren. Im Gegensatz dazu muss PaLM + RLHF mit 540 Milliarden Parametern möglicherweise 6–8 Monate warten, um eine aussagekräftige Version zu erstellen.

Die gute Nachricht ist, dass wir bisher drei bekannte Spieler haben, die an dieser Open-Source-ChatGPT-Alternative arbeiten: # 🎜🎜##🎜 🎜#

CarperAI

#🎜 🎜##🎜 🎜#LA ION#🎜 🎜#

Yannic Kilcher # 🎜🎜#

Auto perAI-Pläne arbeitet mit EleutherAI und den Startups Scale AI und Hugging Face zusammen, um das erste betriebsbereite, ChatGPT-ähnliche KI-Modell zu veröffentlichen, das mit menschlichem Feedback trainiert wird.
  • Code-Adresse: https://github.com/CarperAI/trlx
  • LAION, die gemeinnützige Organisation, die den ersten Datensatz für Stable Diffusion bereitgestellt hat, leitet ebenfalls eine Replikation mithilfe neuester maschineller Lernmethoden Technologie ChatGPT-Projekt.

Code-Adresse: https://github.com/LAION-AI /Open-Assistant

Bitte schauen Sie sich am ersten Tag des Jahres 2023 die Jahresendzusammenfassung von ChatGPT an!

LAION möchte einen „Assistenten der Zukunft“ schaffen, der nicht nur E-Mails und Anschreiben schreiben kann, sondern auch … auch „Sinnvolle Arbeit leisten, APIs verwenden, Informationen dynamisch recherchieren usw.“ Es befindet sich noch im Anfangsstadium, aber vor einigen Wochen wurde ein Projekt mit entsprechenden Ressourcen auf GitHub live geschaltet.

GPT-4chan, erstellt vom YouTube-Star und KI-Forscher Yannic Kilcher, ist eher so, als würde man „aus dem Schlick kommen und völlig gefärbt“ „Der schlechtredende Meister.“ #4chan Ängstlich und macht alle möglichen politisch inkorrekten Bemerkungen. Kilcher nutzte offiziell Beiträge auf 4chan, um das Modell zu trainieren, und die Ergebnisse sind vorhersehbar.

Ähnlich wie der allgemeine Ton des Forums waren die Antworten von GPT-4chan voller Rassismus, Sexismus und Antisemitismus. Darüber hinaus hat Kilcher das zugrunde liegende Modell auch auf Hugging Face veröffentlicht, damit andere es herunterladen können. Aufgrund der Verurteilung vieler KI-Forscher schränkten die Behörden jedoch schnell den Zugang der Internetnutzer zu dem Modell ein. Bitte schauen Sie sich am ersten Tag des Jahres 2023 die Jahresendzusammenfassung von ChatGPT an!

Während wir uns auf das Aufkommen weiterer Open-Source-Sprachmodelle freuen, können wir jetzt nur noch warten. Natürlich ist es auch eine gute Idee, ChatGPT weiterhin kostenlos zu nutzen.

Es ist erwähnenswert, dass OpenAI in der Entwicklung noch weit fortgeschritten ist, bevor eine Open-Source-Version offiziell veröffentlicht wird. Im Jahr 2023 ist GPT-4 zweifellos das, worauf sich KI-Enthusiasten auf der ganzen Welt freuen.

Unzählige KI-Giganten haben ihre eigenen Vorhersagen darüber gemacht, ob sie gut oder schlecht sind, aber wie OpenAI-COO Sam Altman sagte: „Allgemeine künstliche Intelligenz wird früher entwickelt als die meisten Menschen.“ Stellen Sie sich vor, und es wird alles verändern, was sich die meisten Menschen vorstellen.

Das obige ist der detaillierte Inhalt vonBitte schauen Sie sich am ersten Tag des Jahres 2023 die Jahresendzusammenfassung von ChatGPT an!. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Verwandte Etiketten:
Quelle:51cto.com
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage