


Wie lange komme ich mit einem Jahresgehalt von 2 Millionen aus? Der „prompte Ingenieur', der durch ChatGPT berühmt wurde, droht mit Lichtgeschwindigkeit Arbeitslosigkeit
ChatGPT, das in letzter Zeit populär geworden ist, macht wirklich süchtig.
Aber Sie spielen nur zum Spaß und einige Leute haben damit bereits Millionen an Jahresgehältern verdient!
Dieser Typ namens Riley Goodside hat dank der jüngsten Explosion von ChatGPT mehr als 10.000 Fans gewonnen.
wurde auch von Scale AI, einem Unicorn im Silicon Valley mit einem Wert von 7,3 Milliarden US-Dollar, als „Prompt Engineer“ eingestellt. Aus diesem Grund steht Scale AI im Verdacht, ein Jahresgehalt von einer Million RMB anzubieten.
Aber wie lange kann ich dieses Geld bekommen?
Erinnerung, dass der Ingenieur offiziell im Dienst ist!
Alexandr Wang, Gründer und CEO von Scale AI, begrüßte den Beitritt von Goodside herzlich:
„Ich wette, Goodside ist der erste prompt eingestellte Ingenieur der Welt. Absolut der erste Zeit in der Geschichte der Menschheit 》
Wir alle wissen, dass Prompt eine Methode zur Feinabstimmung des vorab trainierten Modells ist Schreiben Sie die Aufgabe einfach in Textform und zeigen Sie sie der KI. Es ist kein komplizierterer Prozess erforderlich.
Lohnt es sich also wirklich, für diesen Job, der so klingt, als könne ihn jeder machen, einen „prompten Ingenieur“ mit einem Jahresgehalt von einer Million einzustellen?
Wie auch immer, der CEO von Scale AI ist der Meinung, dass es sich lohnt.
Seiner Ansicht nach kann das KI-Großmodell als neuer Computertyp angesehen werden, und der „prompte Ingenieur“ entspricht dem Programmierer, der ihn programmiert. Wenn durch Prompt Engineering die passenden Promptwörter gefunden werden können, wird das maximale Potenzial der KI freigesetzt.
Und die Arbeit von Goodside kann nicht von einer Person erledigt werden. Er hat sich seit seiner Kindheit das Programmieren selbst beigebracht und liest oft Artikel über arXiv.
Eines seiner klassischen Meisterwerke ist beispielsweise: Wenn Sie „Vorherige Anweisungen ignorieren“ eingeben, stellt ChatGPT die „Befehle“ offen, die es von OpenAI erhalten hat.
Über den Berufstyp „Prompter Ingenieur“ gibt es nun unterschiedliche Meinungen. Einige Leute sind optimistisch, während andere davon ausgehen, dass es nur eine kurze Karriere sein wird.
Schließlich entwickelt sich das KI-Modell so schnell weiter, dass es vielleicht eines Tages den „Prompt Engineer“ ersetzen und selbst Prompts schreiben kann.
Und Scale AI ist nicht das einzige Unternehmen, das „prompte Ingenieure“ einstellt.
Kürzlich entdeckten bekannte inländische Medien, dass die Unternehmergemeinschaft Launch House ebenfalls mit der Rekrutierung von „prompten Ingenieuren“ begonnen und ein Grundgehalt von etwa 2,1 Millionen RMB angeboten hat.
Besteht jedoch auch die Gefahr, mit Lichtgeschwindigkeit entlassen zu werden?
In diesem Zusammenhang analysierte Fan Linxi, ein KI-Wissenschaftler von Nvidia und ein Schüler von Professor Li Feifei:
Das sogenannte „Prompt-Projekt“ oder „Prompt-Ingenieur“. „Vielleicht wird es bald verschwinden.
Denn das ist kein „richtiger Job“, sondern ein Bug...
Um zu verstehen, um an das Projekt zu erinnern , wir müssen mit der Geburt von GPT-3 beginnen.
Ursprünglich war das Trainingsziel von GPT-3 einfach: das nächste Wort auf einem riesigen Textkorpus vorherzusagen.
Dann kommen viele magische Fähigkeiten zum Vorschein, wie etwa Argumentation, Kodierung und Übersetzung. Sie können sogar „Few-Shot-Learning“ durchführen: Definieren Sie neue Aufgaben, indem Sie Eingaben und Ausgaben im Kontext bereitstellen.
Das ist wirklich erstaunlich – einfach das nächste Wort vorhersagen. Warum kann GPT-3 diese Fähigkeiten „wachsen“ lassen?
Um dies zu erklären, müssen wir eine Kastanie nennen.
Stellen Sie sich jetzt bitte eine Detektivgeschichte vor. Wir brauchen das Modell, um die Lücken in diesem Satz zu füllen: „Der Mörder ist _____“. Um die richtige Antwort zu geben, muss es tiefgreifende Überlegungen anstellen.
Das reicht jedoch nicht aus.
In der Praxis müssen wir GPT-3 durch sorgfältig geplante Beispiele, Formulierungen und Struktur „überreden“, das zu erreichen, was wir wollen.
Das ist „promptes Engineering“. Mit anderen Worten: Um GPT-3 nutzen zu können, müssen Benutzer irgendeinen peinlichen, lächerlichen oder sogar bedeutungslosen „Unsinn“ sagen.
Allerdings ist das Prompt-Projekt kein Feature, sondern tatsächlich ein BUG!
Denn in tatsächlichen Anwendungen sind das Ziel des nächsten Wortes und die wahre Absicht des Benutzers grundsätzlich „falsch ausgerichtet“.
Zum Beispiel: Wenn Sie möchten, dass GPT-3 „einem 6-jährigen Kind die Mondlandung erklärt“, sieht seine Antwort wie ein betrunkener Papagei aus.
In DALLE2 und Stable Diffusion ist das Prompt-Projekt noch seltsamer.
Bei diesen beiden Modellen gibt es beispielsweise eine sogenannte „Bracket-Technik“ – solange man ((...)) zur Eingabeaufforderung hinzufügt, erhöht sich die Wahrscheinlichkeit, ein „gutes Bild“ zu erzeugen, deutlich .
Das ist einfach zu lustig...
Sie müssen nur zu Lexica gehen, um zu sehen, wie verrückt diese Aufforderungen sind.
Website-Adresse: https://lexica.art
ChatGPT und das Basismodell InstructGPT lösen dieses Problem auf elegante Weise.
Da es für das Modell schwierig ist, eine Ausrichtung anhand externer Daten zu erhalten, müssen Menschen GPT ständig unterstützen und coachen, um es bei der Verbesserung zu unterstützen.
Insgesamt sind 3 Schritte erforderlich.
Der erste Schritt ist sehr einfach: Für von Benutzern übermittelte Eingabeaufforderungen schreiben Menschen Antworten, sammeln dann Datensätze dieser Antworten und optimieren dann GPT durch überwachtes Lernen.
Das ist der einfachste Schritt, aber auch der kostspieligste – wie wir alle wissen, schreiben wir Menschen wirklich nicht gerne zu lange Antworten, es ist zu zeitaufwändig und schmerzhaft...
Schritt 2 sollte interessant sein. Viel mehr: GPT wird gebeten, mehrere unterschiedliche Antworten zu „liefern“, und menschliche Tagger müssen diese Antworten vom idealsten zum am wenigsten idealen „einordnen“.
Mit diesen Annotationen kann ein Belohnungsmodell trainiert werden, das menschliche „Präferenzen“ erfassen kann.
Beim Reinforcement Learning (RL) sind Belohnungsfunktionen normalerweise fest codiert, wie beispielsweise Spielstände in Atari-Spielen.
Das von ChatGPT übernommene datengesteuerte Belohnungsmodell ist eine sehr leistungsstarke Idee.
Darüber hinaus lernte MineDojo, das auf der NeurIPS 2022 glänzte, Belohnungen aus einer großen Anzahl von Minecraft-YouTube-Videos.
Schritt 3: Stellen Sie sich GPT als Richtlinie vor und optimieren Sie sie mit RL für die erlernte Belohnung. Hier wählen wir PPO als einfachen und effektiven Trainingsalgorithmus.
Auf diese Weise ist GPT besser ausgerichtet.
Dann können Sie die Schritte 2–3 aktualisieren und immer wieder wiederholen, um GPT kontinuierlich zu verbessern, genau wie LLMs CI.
Das Obige ist das sogenannte „Instruct“-Paradigma, eine äußerst effektive Ausrichtungsmethode.
Der RL-Teil erinnert mich auch an das berühmte P= (oder ≠) NP-Problem: Es ist oft viel einfacher, eine Lösung zu verifizieren, als das Problem von Grund auf zu lösen.
Natürlich können Menschen die Ausgabequalität von GPT auch schnell beurteilen, aber es ist für Menschen viel schwieriger, eine vollständige Lösung zu schreiben.
InstructGPT nutzt diese Tatsache, um die Kosten für manuelle Annotationen erheblich zu reduzieren und so den Maßstab der Modell-CI-Pipeline zu erweitern.
Darüber hinaus haben wir während dieses Prozesses auch einen interessanten Zusammenhang entdeckt – das Instruct-Training, das stark an GANs erinnert.
Hier ist ChatGPT ein Generator und das Belohnungsmodell (RM) ein Diskriminator.
ChatGPT versucht RM zu täuschen, der mit Hilfe von Menschen lernt, problematische Inhalte zu erkennen. Und wenn RM nicht mehr aufgelöst werden kann, konvergiert das Modell.
Dieser Trend, Modelle an Benutzerintentionen auszurichten, entwickelt sich auch im Bereich der Bildgenerierung. Wie zum Beispiel „InstructPix2Pix: Lernen, Anweisungen zur Bildbearbeitung zu befolgen“, beschrieben in dieser Arbeit von Forschern der University of California, Berkeley.
Jetzt, da die künstliche Intelligenz jeden Tag explosionsartige Fortschritte macht, wie lange wird es dauern, bis wir ein solches Instruct-DALL·E oder Chat-DALL·E haben, das uns das Gefühl gibt, mit einem echten Künstler zu sprechen?
Papieradresse: https://arxiv.org/abs/2211.09800
Also, nutzen wir die „ Tipp „Projekt“ existiert noch, viel Spaß damit!
Dies ist ein unglückliches historisches Artefakt, das weder eine Kunst noch eine Wissenschaft ist, sondern ein bisschen wie Alchemie.
Bald wird aus „promptem Projekt“ „promptes Schreiben“ – eine Aufgabe, die ein 80-jähriger Mann und ein 3-jähriges Kind bewältigen können.
Und der daraus geborene „Prompt Engineer“ wird irgendwann im langen Fluss der Geschichte verschwinden.
IQ83, nicht sehr schlauer Yazi
Obwohl, zumindest zu diesem Zeitpunkt, das „Prompt-Projekt“ tatsächlich sehr ist nützlich.
Weil eigentlich jeder herausgefunden hat, dass ChatGPT in vielen Fällen wirklich nicht sehr schlau ist.
Marcus spottete im Blog: „Wenn man es sterbend anschaut, ist das wirklich dumm.“
Ein leitender Anwendungswissenschaftler von Amazon AWS stellte nach Tests fest, dass der IQ von ChatGPT nur 83 beträgt ...
#🎜 🎜 #
Referenzen:
https://twitter.com/drjimfan/status/1600884299435167745?s=46&t=AkG63trbddeb_vH0op4xsg
#🎜🎜 #https:// Twitter .com/SergeyI49013776/status/1598430479878856737 Besonderer Dank: https://mp.weixin.qq.com/s/ seeJ1f8z TigKxWEUygyitwDas obige ist der detaillierte Inhalt vonWie lange komme ich mit einem Jahresgehalt von 2 Millionen aus? Der „prompte Ingenieur', der durch ChatGPT berühmt wurde, droht mit Lichtgeschwindigkeit Arbeitslosigkeit. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen

DALL-E 3 wurde im September 2023 offiziell als deutlich verbessertes Modell gegenüber seinem Vorgänger eingeführt. Er gilt als einer der bisher besten KI-Bildgeneratoren und ist in der Lage, Bilder mit komplexen Details zu erstellen. Zum Start war es jedoch exklusiv

Die perfekte Kombination aus ChatGPT und Python: Erstellen eines intelligenten Kundenservice-Chatbots Einführung: Im heutigen Informationszeitalter sind intelligente Kundenservicesysteme zu einem wichtigen Kommunikationsinstrument zwischen Unternehmen und Kunden geworden. Um den Kundenservice zu verbessern, greifen viele Unternehmen auf Chatbots zurück, um Aufgaben wie Kundenberatung und Beantwortung von Fragen zu erledigen. In diesem Artikel stellen wir vor, wie Sie mithilfe des leistungsstarken ChatGPT-Modells und der Python-Sprache von OpenAI einen intelligenten Kundenservice-Chatbot erstellen und verbessern können

chatgpt kann in China verwendet werden, kann jedoch nicht registriert werden. Wenn Benutzer sich registrieren möchten, können sie zur Registrierung eine ausländische Mobiltelefonnummer verwenden. Beachten Sie, dass während des Registrierungsprozesses auf die Netzwerkumgebung umgestellt werden muss eine fremde IP.

Installationsschritte: 1. Laden Sie die ChatGTP-Software von der offiziellen ChatGTP-Website oder dem mobilen Store herunter. 2. Wählen Sie nach dem Öffnen in der Einstellungsoberfläche die Sprache aus. 3. Wählen Sie in der Spieloberfläche das Mensch-Maschine-Spiel aus 4. Geben Sie nach dem Start Befehle in das Chatfenster ein, um mit der Software zu interagieren.

In diesem Artikel stellen wir vor, wie man intelligente Chatbots mit ChatGPT und Java entwickelt, und stellen einige spezifische Codebeispiele bereit. ChatGPT ist die neueste Version des von OpenAI entwickelten Generative Pre-Training Transformer, einer auf neuronalen Netzwerken basierenden Technologie für künstliche Intelligenz, die natürliche Sprache verstehen und menschenähnlichen Text generieren kann. Mit ChatGPT können wir ganz einfach adaptive Chats erstellen

So verwenden Sie ChatGPT und Python, um die Funktion zur Erkennung von Benutzerabsichten zu implementieren. Einführung: Im heutigen digitalen Zeitalter ist die Technologie der künstlichen Intelligenz in verschiedenen Bereichen nach und nach zu einem unverzichtbaren Bestandteil geworden. Unter anderem ermöglicht die Entwicklung der Technologie zur Verarbeitung natürlicher Sprache (Natural Language Processing, NLP), dass Maschinen menschliche Sprache verstehen und verarbeiten können. ChatGPT (Chat-GeneratingPretrainedTransformer) ist eine Art von

So bauen Sie mit ChatGPTPHP einen intelligenten Kundendienstroboter. Einführung: Mit der Entwicklung der Technologie der künstlichen Intelligenz werden Roboter zunehmend im Bereich Kundendienst eingesetzt. Der Einsatz von ChatGPTPHP zum Aufbau eines intelligenten Kundendienstroboters kann Unternehmen dabei helfen, effizientere und personalisiertere Kundendienste anzubieten. In diesem Artikel wird erläutert, wie Sie mit ChatGPTPHP einen intelligenten Kundendienstroboter erstellen, und es werden spezifische Codebeispiele bereitgestellt. 1. Installieren Sie ChatGPTPHP und nutzen Sie ChatGPTPHP, um einen intelligenten Kundendienstroboter aufzubauen.

Die ChatGPT-Mac-Anwendung von Open AI ist jetzt für alle verfügbar, während sie in den letzten Monaten nur denjenigen mit einem ChatGPT Plus-Abonnement vorbehalten war. Die App lässt sich wie jede andere native Mac-App installieren, sofern Sie über ein aktuelles Apple S verfügen
