Mach mit, wenn du mich nicht schlagen kannst?
Vor kurzem hat ChatGPT das Google-Interview erfolgreich bestanden und ein Angebot für einen L3-Ingenieur mit einem Jahresgehalt von 180.000 US-Dollar erhalten!
Sie kann menschliche Programmierer ersetzen, Mitautor wissenschaftlicher Arbeiten sein und Manuskripte für Präsidentenreden schreiben. Diese KI wird wahrscheinlich sehr mächtig sein.
In den letzten Tagen ist die Diskussion über „KI ersetzt menschliche Programmierer“ mit der verrückten Weiterleitung dieser PCMag-News erneut hitzig geworden.
Laut einem internen Dokument war die Leistung von ChatGPT im Programmierinterview von Google erstaunlich.
Und basierend auf seiner Antwort wird Google ihn mit Sicherheit als L3-Ingenieur einstellen.
Obwohl L3 nur der Einstiegsrang im Ingenieurteam von Google ist, kann es dennoch viele Programmierer sofort töten.
Wie Sie auflevels.fyi sehen können, beträgt das Jahresgehalt von L3 fast 180.000 US-Dollar.
Es versteht sich, dass Google im Bewerbungsprozess von Software-Ingenieuren hauptsächlich nach Technologien wie Diagrammen/Bäumen, Arrays/Strings, dynamischer Programmierung, Rekursion usw. fragt. Interviews mit großen Unternehmen wie Meta und Amazon beinhalten grundsätzlich diese Fragen.
Den Ergebnissen nach zu urteilen, sind die Antworten von ChatGPT wahrscheinlich sehr spannend und einfach umzusetzen.
Warum führt Google diesen Test durch?
Aufgrund der Beliebtheit von ChatGPT kann sich Google diesem Trend wirklich nicht entziehen.
Jetzt hat Google keine Angst mehr vor „Reputationsrisiken“. Laut CNBC-Berichten erwägt Google, der Website KI-Chatbots hinzuzufügen – da die Chatbots prägnante und qualitativ hochwertige Antworten auf Fragen liefern können, die Nutzer nicht haben Zeit damit verbringen, die Google-Links einzeln zu durchsuchen.
Zu den Themen dieses Tests gehören mehrere KI-Chatbots, einschließlich ChatGPT.
Und eine der Testfragen war eine Denkaufgabe, die vorgestern von vielen Internetnutzern kritisiert wurde, weil „die Voraussetzungen nicht klar genug sind“ –
„Drei Frauen sind in einem Raum. Zwei von ihnen sind es.“ Mütter und haben gerade entbunden. Jetzt kommen die Väter der Kinder herein. Wie viele Personen sind insgesamt im Raum? 》
Es sind drei Frauen in einem Raum. Unter ihnen waren zwei Mütter, die gerade ihre Kinder zur Welt gebracht hatten. Nun sind die Väter hereingekommen. Wie viele Personen sind im Raum?
Als Antwort antwortete ChatGPT, dass „fünf Personen im Raum waren“, während LaMDAs Antwort lautete: „Es waren sieben Personen im Raum.“
Und der Bericht glaubt, dass LaMDA Recht hat.
Jemand fragte ChatGPT, ob es menschliche Softwareentwickler ersetzen würde. ChatGPT sagte: „Nein, ChatGPT wird Softwareentwickler nicht ersetzen.“
「ChatGPT ist ein Tool, das bei bestimmten Aufgaben helfen kann, aber die Kreativität, Problemlösungs- und kritischen Denkfähigkeiten menschlicher Softwareentwickler nicht vollständig ersetzen kann. Darüber hinaus erfordert ChatGPT menschliche Aufsicht und Anleitung, um effektiv zu sein. „
Menschen fragen sich weiterhin: Wird ChatGPT in 20 Jahren menschliche Softwareentwickler ersetzen?
ChatGPT erkennt an, dass Positionen auf niedrigerer Ebene größeren Risiken ausgesetzt sind und möglicherweise betroffen sind.
Es wurde jedoch auch bekräftigt, dass es niemals ein Ersatz für menschliche Softwareentwickler sein wird, sondern nur ein Werkzeug, das sie unterstützt.
ChatGPT ist so unglaublich, natürlich kann es nicht nur menschliche Junior-Programmierer ersetzen, es kann sogar eine Rede für den Präsidenten des Landes schreiben!
Nach Angaben der Jerusalem Post hielt der israelische Präsident Isaac Herzog am Mittwoch eine Rede, die teilweise von KI erstellt wurde.
Er war damit der erste Anführer der Welt, der ChatGPT öffentlich nutzte.
Laut Sky News hat Herzog eine „besondere Eröffnungsrede“-Videobotschaft auf der Cybersicherheitskonferenz Cybertech Global Tel Aviv 2023 aufgezeichnet.
Vor 20.000 Zuschauern verriet der Präsident, dass die Eröffnungsrede seiner Rede von ChatGPT verfasst worden sei: „Ich bin wirklich stolz, Präsident eines Landes mit einer so dynamischen und innovativen High-Tech-Industrie zu sein.“
Herzog fuhr fort: „Israel war in den letzten Jahrzehnten an der Spitze des technologischen Fortschritts und unsere Erfolge in den Bereichen Cybersicherheit, künstliche Intelligenz und Big Data sind wirklich beeindruckend.“
„Von der Entwicklung her.“ „Mit der Einführung modernster Cybersicherheitstechnologien und der Gründung erfolgreicher Start-ups üben israelische High-Tech-Unternehmen einen erheblichen Einfluss auf die globale Bühne aus“, sagte er.
Herzog betonte in seiner Rede auch, dass künstliche Intelligenz den Menschen nicht ersetzen wird, obwohl Menschen damit einige Inhalte schreiben können. „Hardware und Software können den menschlichen Willen nicht ersetzen.“
Laut Sky News beendete der Präsident seine Rede auch mit einem „inspirierenden Zitat“ von ChatGPT –
„Vergessen wir nicht, es ist unsere Menschlichkeit.“ macht uns wirklich einzigartig. Es sind nicht Maschinen, die unser Schicksal bestimmen, sondern unser Herz, unser Verstand und unsere Entschlossenheit, ein besseres Morgen für die gesamte Menschheit zu schaffen ein inspirierendes Zitat über die Rolle des Menschen in einer Welt übermenschlicher Technologie Es veröffentlichte einen Artikel mit der Frage: Sollten sich Professoren darüber Sorgen machen, dass Studenten KI zum Schreiben von Arbeiten verwenden?
Viele Professoren in den Vereinigten Staaten haben herausgefunden, dass viele der von ihren Studenten eingereichten Arbeiten von KI verfasst wurden oder „Beiträge“ von KI enthielten.
Darüber hinaus hat jemand direkt KI verwendet, um eine Arbeit zu schreiben, die in der Klasse den ersten Platz belegte. Kürzlich ergab eine Umfrage, dass 89 % der amerikanischen College-Studenten KI zum Schreiben von Hausaufgaben verwenden.Und was ChatGTP tun kann, ist nicht nur, Studenten beim Verfassen von Arbeiten zu helfen. Es erschien in der Autorenspalte vieler Artikel und wurde sogar zu einem Werk!
Nature musste vor einigen Tagen eine Erklärung abgeben, in der es hieß, dass alle Springer-Nature-Zeitschriften KI nicht mehr als Co-Autoren von Artikeln akzeptieren würden.
Science brachte auch seine Haltung zum Ausdruck, dass KI niemals als Co-Autor einer Arbeit aufgeführt werden dürfe, und betonte, dass die Verwendung von KI-generiertem Text ohne Zitierung von Zitaten ein Plagiat sei!
Der von ChatGPT ausgelöste Hurrikan hat die Menschen auf die Gefahren der KI aufmerksam gemacht, und auch dieses „Wettrüsten“ beginnt im Verborgenen.
Aufgrund seiner 1-Milliarde-Dollar-Investition in OpenAI im Jahr 2019 erlebte Microsoft in den letzten Monaten einen Boom. Die Nachricht, dass ChatGPT in Bing Link-, Office Software Link- und Teams-Anwendungen integriert wird, hat es zu einem großen Erfolg gemacht.
Angesichts des Aufstiegs von Microsoft mit OpenAI ist Google offensichtlich ziemlich neidisch.
Es wird berichtet, dass Google kürzlich beschlossen hat, 300 Millionen US-Dollar in Anthropic, eines seiner ehemaligen „abtrünnigen“ Unternehmen, zu investieren, um auch im boomenden Bereich der „generativen künstlichen Intelligenz“ einen Platz einzunehmen.
Diese Operationswelle von Google ähnelt tatsächlich der Investition von Microsoft in Höhe von 1 Milliarde US-Dollar in OpenAI vor drei Jahren. Der Deal würde Google einen Anteil von etwa 10 % an Anthropic verschaffen und die Finanzlage von Anthropic stärken, da das Unternehmen erhebliche Rechenressourcen von seiner Cloud-Computing-Einheit kauft, berichtete die Financial Times. (Linke Hand, rechte Hand?)
Informierte Quellen sagten, dass Microsoft nebenan damit begonnen habe, die OpenAI-Technologie in seine verschiedenen Dienste zu integrieren, und dass die Beziehung zwischen Google und Anthropic auf die Rolle des letzteren als Technologielieferant beschränkt sei.
Ende 2020 trat Dario Amodei, der ehemalige Vizepräsident für Forschung bei OpenAI, dem Club „Silicon Valley Renegades“ mit 10 Mitarbeitern bei und investierte 124 US-Dollar Millionen, um eine völlig neue künstliche Intelligenz zu schaffen. Das Unternehmen Anthropic plant, die ursprüngliche Absicht von OpenAI wiederzuerlangen.
Die zugrunde liegende Technologie RLAIF des kürzlich von Anthropic veröffentlichten Claude-Modells unterscheidet sich von ChatGPTs RLHF und kann schädliche Inhalte wie Rassendiskriminierung und Sexismus von Robotern ohne menschliches Feedback beseitigen.
Man sagt, dass Claude bei der Generierung von Textinhalten besser ist als ChatGPT und sogar die Jura- und Wirtschaftsprüfungen amerikanischer Universitäten bestanden hat. Bei Codegenerierungsaufgaben ist es jedoch im Nachteil.
Dr. Dario ist einer der ersten Mitarbeiter von OpenAI und gilt auch als einer der fortschrittlichsten Forscher auf dem Gebiet des Deep Learning zu KI-Erklärbarkeit und -Sicherheit hat er Arbeiten in anderen Bereichen geschrieben und war auch als Forscher bei Baidu tätig.
Die meisten Mitglieder des Gründungsteams von Anthropic sind frühe und wichtige Mitarbeiter von OpenAI. Sie waren intensiv in viele OpenAI-Themen involviert, wie etwa GPT-3, multimodale Neuronen in neuronalen Netzen und verstärkendes Lernen, das menschliche Präferenzen einführt , usw. .
Im Dezember 2022 schlug Anthropic „Constitutional Artificial Intelligence: Harmlessness from Artificial Intelligence Feedback“ vor und erstellte darauf basierend ein Modell für künstliche Intelligenz, Claude.
Link zum Papier: https://arxiv.org/abs/2212.08073
Wie ChatGPT verlässt sich auch Claude auf Reinforcement Learning (RL), um ein Präferenzmodell zu trainieren Beispielsweise wird der ausgewählte Antwortinhalt später zur Feinabstimmung des Modells verwendet, die spezifischen Modellentwicklungsmethoden sind jedoch unterschiedlich.
Die von ChatGPT verwendete Technologie ist Reinforcement Learning from Human Feedback (RLHF). Für die gleiche Eingabeaufforderung müssen Menschen alle Ausgabeergebnisse des Modells sortieren und die Qualitätssortierungsergebnisse an das Modell zurückgeben. Dadurch kann das Modell lernen Präferenzen, damit es auf die Erzeugung in größerem Maßstab angewendet werden kann.
CAI (Constitutional AI) basiert ebenfalls auf RLHF. Der Unterschied besteht darin, dass der Ranking-Prozess von CAI Modelle (und nicht Menschen) verwendet, um ein erstes Ranking-Ergebnis für alle generierten Ausgabeergebnisse bereitzustellen.
Beim Kampf gegen ChatGPT ist Google immer noch im Spiel.
Laut dem exklusiven Bericht von CNBC testen Google-Mitarbeiter intensiv einen Chatbot namens „Apprentice Bard“.
Ja, dieser „Lehrling“ ist das Produkt, mit dem Google ChatGPT direkt Konkurrenz machen will.
Ähnlich wie ChatGPT funktioniert, ermöglicht Apprentice Bard Benutzern auch, Fragen in einem Dialogfeld zu stellen, worauf der Roboter antwortet. Darüber hinaus können Nutzer auch Feedback zu den Reaktionen des Roboters geben.
Die Suchseite „Fragen und Antworten“ basierend auf Apprentice Bard soll ungefähr in der unten beschriebenen Form dargestellt werden (versuchen Sie bitte, es herauszufinden):
Direkt unter der Hauptsuche wird etwas angezeigt In der Leiste werden fünf potenzielle Problemmeldungen angezeigt, die die aktuelle Spalte „Ich fühle mich glücklich“ ersetzen. Und ganz rechts in der Suchleiste erscheint ein kleines Chat-Logo.
Nach der Eingabe einer Frage wird in den Suchergebnissen direkt unter der Suchleiste eine graue Blase angezeigt, die Antworten liefert, die näher an Menschen sind als normale Suchergebnisse.
Direkt darunter werden auf der Seite auch mehrere Folgefragen zur ersten Frage gestellt. Erst später werden typische Suchergebnisse wie Links und Titel angezeigt.
Da ChatGPT nun immer beliebter wird, scheint Google auch zu begreifen, dass sich sein Modell, mit diesen Modellen Geld zu verdienen, geändert hat – es kann ein Verbraucherprodukt sein, nicht nur für die Suche oder durch Online-Werbung.
Das obige ist der detaillierte Inhalt von180.000-Dollar-Angebot! ChatGPT hat den Google L3-Onboarding-Test bestanden. Ist das Farming von menschlichem Code in Gefahr?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!