Bei der Erläuterung der Funktionen von SoMin für Anzeigenkopien und Bannererstellung wird oft gefragt, ob GPT-3 durch ChatGPT ersetzt wurde oder ob es immer noch in einem veralteten Modus läuft.
Bei der Erklärung der Anzeigenkopie- und Bannererstellungsfunktionen von SoMin wird oft gefragt, ob GPT-3 durch ChatGPT ersetzt wurde oder ob es immer noch in einem veralteten Modus läuft. „Das haben wir nicht getan und haben auch nicht vor, dies zu tun.“ Ein SoMin-Sprecher antwortete, obwohl der von OpenAI gestartete Chatbot ChatGPT boomt. Das überrascht den Kunden oft, deshalb finden Sie hier eine Erklärung, warum er eine solche Antwort geben würde.
GPT-2, GPT-3, ChatGPT und das kürzlich eingeführte GPT-4 gehören alle zum gleichen Typ von Modellen der künstlichen Intelligenz – Transformer. Dies bedeutet, dass sie im Gegensatz zu maschinellen Lernmodellen früherer Generationen darauf trainiert werden, eine einheitlichere Aufgabe auszuführen, sodass sie nicht für jede spezifische Aufgabe neu trainiert werden müssen, um umsetzbare Ergebnisse zu erzielen. Letzteres erklärt ihre enorme Größe (175 Milliarden Parameter im Fall von GPT-3), während ein Modell möglicherweise „sich an das gesamte Internet erinnern“ muss, um flexibel genug zu sein, um basierend auf Benutzereingaben zwischen verschiedenen Datenelementen zu wechseln. Das Modell ist dann in der Lage, Ergebnisse zu generieren, wenn der Benutzer eine Abfragefrage, eine Beschreibung der Aufgabe und einige Beispiele eingibt (so wie Sie einen Bibliothekar nach Büchern fragen würden, die ihn interessieren). Dieser Ansatz wird als „Few-Shot-Learning“ bezeichnet und hat sich in letzter Zeit zu einem Trend bei der Bereitstellung von Eingaben für moderne Transformer-Modelle entwickelt.
Aber ist es immer notwendig, alles über das Internet zu wissen, um die aktuelle Aufgabe zu erledigen? Natürlich nicht – in vielen Fällen, wie bei ChatGPT, sind große (Millionen) aufgabenspezifische Datenproben erforderlich, diese Beispiele ermöglichen das Modell den Prozess „Reinforcement Learning from Human Feedback (RLHF)“ zu initiieren. Im Gegenzug wird RLHF einen kollaborativen Trainingsprozess zwischen KI und Menschen ableiten, um KI-Modelle weiter zu trainieren, um menschenähnliche Gespräche zu führen. Daher zeichnet sich ChatGPT nicht nur im Chatbot-Szenario aus, sondern hilft Menschen auch dabei, kurze Inhalte (z. B. Gedichte oder Liedtexte) oder lange Inhalte (z. B. Aufsätze) zu schreiben fundiertes Wissen Erklären Sie komplexe Themen; sorgen Sie für Brainstorming, neue Themen und Ideen, die im kreativen Prozess hilfreich sind, unterstützen Sie den Vertrieb bei der personalisierten Kommunikation, z. B. beim Generieren von E-Mails zur Beantwortung.
Während es technisch möglich ist, dass ein großes Transformer-Modell versucht, diese Aufgaben zu erfüllen, ist es unwahrscheinlich, dass dies von ChatGPT oder sogar GPT-4 erreicht wird – das liegt daran, dass ChatGPT und andere OpenAI-Transformer nur sehr begrenzte Kenntnisse darüber haben, was in passiert die Welt, weil es sich um vorab trainierte Modelle handelt, sodass ihre Daten aufgrund des sehr hohen Rechenaufwands der Modellumschulung nicht häufig genug aktualisiert werden. Dies ist wahrscheinlich das größte Manko aller bisher von OpenAI (und tatsächlich von allen anderen) erstellten vorab trainierten Modelle. Ein größeres Problem ist spezifisch für ChatGPT: Im Gegensatz zu GPT-3 wurde es anhand eines sehr fokussierten Konversationsdatensatzes trainiert, sodass ChatGPT seine Vorgänger nur bei Konversationsaufgaben übertrifft, während es andere menschliche Aufgaben erledigt. Es ist weniger fortgeschritten, wenn es um Produktivität geht Aufgaben.
Die Leute wissen jetzt, dass ChatGPT nur eine kleinere, spezifischere Version von GPT-3 ist, aber bedeutet das, dass es in naher Zukunft mehr dieser Modelle geben wird: für die Vermarktung von MarGPT, AdGPT für digitale Werbung, MedGPT für die Beantwortung medizinischer Fragen?
Das ist möglich und hier ist der Grund: Als das Unternehmen SoMin einen Antrag auf Zugang zu GPT-3 Beta einreichte, reichte es aus, ein langes Antragsformular auszufüllen, in dem die aktuelle Software ausführlich erläutert wurde Das würde gebaut werden, wurde aber gebeten, Feedback zur täglichen Verwendung des Modells und zu den erhaltenen Ergebnissen zu geben. Das Unternehmen OpenAI tat dies aus einem bestimmten Grund, vor allem weil es sich um ein Forschungsprojekt handelte und sie kommerzielle Einblicke in die besten Anwendungen des Modells benötigten, und sie finanzierten es per Crowdfunding im Austausch für die Chance, an dieser großen Revolution der künstlichen Intelligenz teilzunehmen. Chatbot-Apps scheinen zu den beliebtesten zu gehören, daher steht ChatGPT an erster Stelle. ChatGPT ist nicht nur kleiner (20 Milliarden Parameter gegenüber 175 Milliarden Parametern), sondern auch schneller und genauer als GPT-3 bei der Lösung von Konversationsaufgaben – für ein kostengünstiges/hochwertiges KI-Produkt. Für mich ist das ein perfektes Geschäft Fall.
Wenn es um generative KI geht: Ist größer besser? Die Antwort lautet: Es kommt darauf an. Wenn man ein allgemeines Lernmodell aufbaut, das in der Lage ist, viele Aufgaben zu erledigen, lautet die Antwort „Ja, je größer, desto besser“, wie die Vorteile von GPT-3 gegenüber GPT-2 und anderen Vorgängern belegen. Wenn man jedoch eine bestimmte Aufgabe gut ausführen möchte, wie den Chatbot in ChatGPT, dann sind Datenfokus und ein ordnungsgemäßer Trainingsprozess viel wichtiger als Modell und Datengröße. Aus diesem Grund werden bei SoMin nicht ChatGPT zum Generieren von Texten und Bannern verwendet, sondern spezifische digitale werbebezogene Daten, die GPT-3 dabei unterstützen, bessere Inhalte für neue Anzeigen zu erstellen, die noch nicht gesehen wurden.
Man könnte sich also fragen, wie sich die Zukunft der generativen KI entwickeln wird, wie OpenAI-CEO Sam Altman in seiner Rede erwähnte. Gleichzeitig verbreitete Altman auch das Gerücht, dass das Modell 100 Billionen Parameter habe. Daher wissen die Menschen, dass größer in dieser Art von Modell der künstlichen Intelligenz nicht immer besser bedeutet.
Das obige ist der detaillierte Inhalt vonChatGPT vs. GPT-3 vs. GPT-4 ist nur ein interner Kampf zwischen Chatbot-Familien. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!