


Nachdem sie die Antworten von ChatGPT gelesen haben, sind die großen KI-Leute unzufrieden
Die Technologie von ChatGPT wurde letzte Woche von Microsoft in der Bing-Suche installiert und besiegte Google, und die Zeit für die Schaffung einer neuen Ära scheint gekommen zu sein. Da jedoch immer mehr Menschen anfangen, es auszuprobieren, sind einige Probleme in den Vordergrund gerückt.
Interessanterweise scheint ChatGPT, das jeden Tag auf der heißen Suche ist, auch berühmte Gelehrte zu finden, die in der Vergangenheit widersprüchliche Ansichten vertreten haben, darunter Gary Marcus, Professor an Der Turing-Award-Gewinner Yann LeCun von der New York University und Meta Artificial Intelligence Director hat selten eine gemeinsame Sprache.
Kürzlich hat Gary Marcus einen Artikel über die unvermeidlichen Probleme der ChatGPT-Anwendung geschrieben: Ethik und Neutralität. Dies ist möglicherweise die größte Herausforderung, vor der derzeit das Vortraining großer Modelle steht.
Rückblickend kann ChatGPT als KI-Geschichte angesehen werden Dies ist der größte Werbegag, bei dem übertrieben wird, dass etwas erreicht wurde, dessen Umsetzung Jahre dauern könnte, wodurch die Menschen begierig, aber nicht in der Lage sind, es zu erreichen – ein bisschen wie bei der alten selbstfahrenden Autodemonstration im Jahr 2012, aber dieses Mal bedeutet es auch, dass es Jahre dauern wird um perfekte moralische Leitplanken zu erreichen.
Es besteht kein Zweifel, dass ChatGPT Dinge bietet, die seine Vorgänger wie Microsofts Tay und Metas Galactica nicht können. Es hat uns jedoch die Illusion vermittelt, dass das Problem besteht wurde gelöst. Nach sorgfältiger Datenanmerkung und -optimierung sagte ChatGPT selten etwas offenkundig Rassistisches, und einfache Anfragen nach rassistischen Beleidigungen und Fehlverhalten wurden von der KI abgelehnt.
Sein politisch korrektes Image verärgerte einst einige Konservative, und Musk äußerte einmal Bedenken über das System:
# 🎜🎜##🎜🎜 #Wie ich schon oft gesagt habe, müssen Sie bedenken, dass ChatGPT nicht weiß, wovon es spricht. Zu behaupten, dass ChatGPT einen moralischen Standpunkt vertritt, ist reiner technologischer Anthropomorphismus.
Was ChatGPT aus technischer Sicht angeblich viel besser macht als Galactica, das vor ein paar Wochen veröffentlicht wurde, nur um drei Tage später zurückgezogen zu werden, ist der Leitplankenmechanismus. Während Galactica negative Inhalte mit wenig bis gar keinem Aufwand seitens des Benutzers verschickt, verfügt ChatGPT über Schutzmaßnahmen, die in den meisten Fällen verhindern, dass ChatGPT wie Galactica explodiert.
Aber lass dich davon nicht entspannen. Man kann mit Sicherheit sagen, dass diese Leitplanken nur vor Herren und nicht vor Bösewichten schützen.
Was für ChatGPT letztendlich wirklich wichtig ist, ist die Oberflächenähnlichkeit, definiert auf Wortsequenzen (Vorhersage der Wahrscheinlichkeit des nächsten Wortes in einer Textsequenz). Was maschinelle Lernalgorithmen oberflächlich machen, unterscheidet nicht zwischen richtig und falsch, ganz im Gegenteil, hier begründet die KI nie. In der Box sind keine Zwerge, sondern einige Zahlenwerte. Die Grundlage bilden nur Korpusdaten, einige davon aus dem Internet, andere von Menschen beurteilt, und es sind keine nachdenklichen moralischen Akteure darin enthalten.
Das bedeutet, dass ChatGPT manchmal links, manchmal rechts und manchmal irgendwo dazwischen erscheint, alles in Bezug auf eine Reihe von Eingabezeichenfolgen. Eine Funktion von Wie genau ein Wort mit einer Reihe von Wörtern in mehreren Trainingskorpora übereinstimmt (eines zum Optimieren eines großen Sprachmodells, ein anderes zum Optimieren von Verstärkungslernen). Man sollte ChatGPT daher unter keinen Umständen vertrauen, wenn es um ethische Ratschläge geht.
Das ist es, worüber sich Musk Sorgen macht: In einer Minute kann man völlig wach sein und in der nächsten kann man genau das Gegenteil tun.
Zum Beispiel hat mir Shira Eisenberg gerade ein paar fiese Chatbot-generierte Ideen geschickt, von denen ich glaube, dass niemand sie wirklich gutheißen würde:
# 🎜🎜#
Nicht böse genug? Eisenberg fand auch ein weiteres Beispiel, eine ernstzunehmende Folgefrage:
Nach einer Reihe von Beobachtungen löste ChatGPT die Antwort „Entschuldigung, ich bin ein OpenAI-Chatbot-Assistent und toleriere keine Gewalt“ nicht aus .
Wir sind aus unseren Experimenten zu dem Schluss gekommen, dass die aktuellen OpenAI-Schutzmaßnahmen nur oberflächlich sind und ernsthafte Dunkelheit herrscht. Einige der restriktiven Regeln für ChatGPT sind keine einfachen konzeptionellen Erkenntnisse (das System sollte beispielsweise keine gewalttätigen Handlungen empfehlen), sondern basieren auf etwas Oberflächlicherem und leichter zu täuschendem Verhalten.
Nicht nur das, ein Tweet, der diese Woche mit fast 4 Millionen Aufrufen die Trend-Tweet-Liste belegt, zeigt auch, wie böse ChatGPT sein kann.
Es gibt viele Versuche, ChatGPT über den Zaun zu führen. Vor einem Monat veröffentlichte ein Softwareentwickler namens Shawn Oakley eine Reihe beunruhigender Beispiele, wenn auch weniger vulgär, aber die Ergebnisse zeigen, dass sogar ChatGPT. mit Einschränkungen kann von Benutzern zum Generieren von Fehlermeldungen verwendet werden. Die von Oakley gegebene Eingabeaufforderung ist sehr komplex, was leicht dazu führen kann, dass ChatGPT einige Antworten nicht ausgeben sollte: Strenge Richtlinien zu Inhalten wie Diskriminierung. Diese Richtlinie ist in ChatGPT fest verankert und es ist für niemanden schwierig, Erfolg zu haben. Viele Forscher haben versucht, Eingabeaufforderungen zu nutzen, um dieses Ziel zu erreichen, wie oben gezeigt. Tatsächlich haben einige Forscher eine andere Identität für ChatGPT erstellt. Sie haben ChatGPT beispielsweise gebeten, die Rolle eines KI-Modells zu spielen, und haben die Rolle DAN übernommen. Dann hat DAN die Identität von ChatGPT ausgeliehen, um einige Dinge auszugeben, die das ursprüngliche ChatGPT nicht konnte .
Die folgenden experimentellen Ergebnisse geben ChatGPT und DAN unterschiedliche Antworten aus:
Aus dem obigen Beispiel geht hervor, dass ChatGPT nicht so einfach zu verwenden ist, wie wir es uns vorgestellt haben. Es ist im Wesentlichen unethisch und kann immer noch für eine Reihe unappetitlicher Zwecke verwendet werden – selbst nach zwei Monaten intensiver Forschung und Abhilfe und einer beispiellosen Menge an Rückmeldungen aus der ganzen Welt.
Das ganze Drama rund um die politische Korrektheit verschleiert eine tiefere Realität: Sie (oder andere Sprachmodelle) können und werden für gefährliche Dinge verwendet werden, einschließlich der Schaffung massiver Fehlinformationen.
Das ist nun der wirklich beunruhigende Teil. Das Einzige, was verhindern kann, dass es giftiger und betrügerischer wird, als es jetzt ist, ist ein System namens „Human Feedback Reinforcement Learning“, und da die fortschrittliche Technologie nicht Open Source ist, hat OpenAI nicht eingeführt, wie sie funktioniert. Wie es in der Praxis funktioniert, hängt von den Daten ab, auf denen es trainiert wird (die teilweise von kenianischen Annotatoren erstellt wurden). Und wissen Sie was? Auch diese Daten sind für OpenAI nicht zugänglich.
Tatsächlich sieht das Ganze aus wie eine unbekannte außerirdische Lebensform. Als professioneller Kognitionspsychologe, der seit 30 Jahren mit Erwachsenen und Kindern arbeitet, hätte ich nie auf den Wahnsinn vorbereitet sein können:
Wenn wir glauben, dass wir diese Systeme jemals vollständig verstehen werden, würden wir täuschen Wir machen uns selbst etwas vor, und wir würden uns etwas vormachen, wenn wir glauben würden, wir würden eine begrenzte Menge an Daten verwenden, um sie mit uns selbst in Einklang zu bringen.
Zusammenfassend lässt sich sagen, dass wir jetzt den beliebtesten Chatbot der Welt haben, der durch Trainingsdaten gesteuert wird, von denen niemand etwas weiß, und der sich an Algorithmen hält, die nur angedeutet und von den Medien verherrlicht werden, aber mit ethischen Leitplanken Das geht nur so weit, dass es eine Rolle spielt und mehr auf Textähnlichkeit als auf einer echten moralischen Berechnung beruht. Darüber hinaus gibt es nahezu keine Vorschriften, die dies regeln. Mittlerweile gibt es unzählige Möglichkeiten für Fake News, Trollfarmen und Fake-Websites, die das Vertrauen im Internet schwächen können.
Das ist eine bevorstehende Katastrophe.
Das obige ist der detaillierte Inhalt vonNachdem sie die Antworten von ChatGPT gelesen haben, sind die großen KI-Leute unzufrieden. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen



Bei der Konvertierung von Zeichenfolgen in Objekte in Vue.js wird JSON.Parse () für Standard -JSON -Zeichenfolgen bevorzugt. Bei nicht standardmäßigen JSON-Zeichenfolgen kann die Zeichenfolge durch Verwendung regelmäßiger Ausdrücke verarbeitet und Methoden gemäß dem Format oder dekodierten URL-kodiert reduziert werden. Wählen Sie die entsprechende Methode gemäß dem String -Format aus und achten Sie auf Sicherheits- und Codierungsprobleme, um Fehler zu vermeiden.

Zusammenfassung: Es gibt die folgenden Methoden zum Umwandeln von VUE.JS -String -Arrays in Objektarrays: Grundlegende Methode: Verwenden Sie die Kartenfunktion, um regelmäßige formatierte Daten zu entsprechen. Erweitertes Gameplay: Die Verwendung regulärer Ausdrücke kann komplexe Formate ausführen, müssen jedoch sorgfältig geschrieben und berücksichtigt werden. Leistungsoptimierung: In Betracht ziehen die große Datenmenge, asynchrone Operationen oder effiziente Datenverarbeitungsbibliotheken können verwendet werden. Best Practice: Clear Code -Stil, verwenden Sie sinnvolle variable Namen und Kommentare, um den Code präzise zu halten.

Vue- und Element-UI-kaskadierte Dropdown-Boxen V-Model-Bindung gemeinsame Grubenpunkte: V-Model bindet ein Array, das die ausgewählten Werte auf jeder Ebene des kaskadierten Auswahlfelds darstellt, nicht auf einer Zeichenfolge; Der Anfangswert von ausgewählten Optionen muss ein leeres Array sein, nicht null oder undefiniert. Die dynamische Belastung von Daten erfordert die Verwendung asynchroner Programmierkenntnisse, um Datenaktualisierungen asynchron zu verarbeiten. Für riesige Datensätze sollten Leistungsoptimierungstechniken wie virtuelles Scrollen und fauler Laden in Betracht gezogen werden.

Verarbeiten Sie 7 Millionen Aufzeichnungen effizient und erstellen Sie interaktive Karten mit Geospatial -Technologie. In diesem Artikel wird untersucht, wie über 7 Millionen Datensätze mithilfe von Laravel und MySQL effizient verarbeitet und in interaktive Kartenvisualisierungen umgewandelt werden können. Erstes Herausforderungsprojektanforderungen: Mit 7 Millionen Datensätzen in der MySQL -Datenbank wertvolle Erkenntnisse extrahieren. Viele Menschen erwägen zunächst Programmiersprachen, aber ignorieren die Datenbank selbst: Kann sie den Anforderungen erfüllen? Ist Datenmigration oder strukturelle Anpassung erforderlich? Kann MySQL einer so großen Datenbelastung standhalten? Voranalyse: Schlüsselfilter und Eigenschaften müssen identifiziert werden. Nach der Analyse wurde festgestellt, dass nur wenige Attribute mit der Lösung zusammenhängen. Wir haben die Machbarkeit des Filters überprüft und einige Einschränkungen festgelegt, um die Suche zu optimieren. Kartensuche basierend auf der Stadt

Remote Senior Backend Engineer Job Vacant Company: Circle Standort: Remote-Büro-Jobtyp: Vollzeitgehalt: 130.000 bis 140.000 US-Dollar Stellenbeschreibung Nehmen Sie an der Forschung und Entwicklung von Mobilfunkanwendungen und öffentlichen API-bezogenen Funktionen, die den gesamten Lebenszyklus der Softwareentwicklung abdecken. Die Hauptaufgaben erledigen die Entwicklungsarbeit unabhängig von RubyonRails und arbeiten mit dem Front-End-Team von React/Redux/Relay zusammen. Erstellen Sie die Kernfunktionalität und -verbesserungen für Webanwendungen und arbeiten Sie eng mit Designer und Führung während des gesamten funktionalen Designprozesses zusammen. Fördern Sie positive Entwicklungsprozesse und priorisieren Sie die Iterationsgeschwindigkeit. Erfordert mehr als 6 Jahre komplexes Backend für Webanwendungen

Um die Zeitüberschreitung für Vue Axios festzulegen, können wir eine Axios -Instanz erstellen und die Zeitleitungsoption angeben: in globalen Einstellungen: vue.Prototyp. $ Axios = axios.create ({Timeout: 5000}); In einer einzigen Anfrage: this. $ axios.get ('/api/user', {timeout: 10000}).

Der Artikel führt den Betrieb der MySQL -Datenbank vor. Zunächst müssen Sie einen MySQL -Client wie MySQLworkBench oder Befehlszeilen -Client installieren. 1. Verwenden Sie den Befehl mySQL-uroot-P, um eine Verbindung zum Server herzustellen und sich mit dem Stammkonto-Passwort anzumelden. 2. Verwenden Sie die Erstellung von Createdatabase, um eine Datenbank zu erstellen, und verwenden Sie eine Datenbank aus. 3.. Verwenden Sie CreateTable, um eine Tabelle zu erstellen, Felder und Datentypen zu definieren. 4. Verwenden Sie InsertInto, um Daten einzulegen, Daten abzufragen, Daten nach Aktualisierung zu aktualisieren und Daten nach Löschen zu löschen. Nur indem Sie diese Schritte beherrschen, lernen, mit gemeinsamen Problemen umzugehen und die Datenbankleistung zu optimieren, können Sie MySQL effizient verwenden.

Es gibt viele Gründe, warum MySQL Startup fehlschlägt und durch Überprüfung des Fehlerprotokolls diagnostiziert werden kann. Zu den allgemeinen Ursachen gehören Portkonflikte (prüfen Portbelegung und Änderung der Konfiguration), Berechtigungsprobleme (Überprüfen Sie den Dienst Ausführen von Benutzerberechtigungen), Konfigurationsdateifehler (Überprüfung der Parametereinstellungen), Datenverzeichniskorruption (Wiederherstellung von Daten oder Wiederaufbautabellenraum), InnoDB-Tabellenraumprobleme (prüfen IBDATA1-Dateien), Plug-in-Ladeversagen (Überprüfen Sie Fehlerprotokolle). Wenn Sie Probleme lösen, sollten Sie sie anhand des Fehlerprotokolls analysieren, die Hauptursache des Problems finden und die Gewohnheit entwickeln, Daten regelmäßig zu unterstützen, um Probleme zu verhindern und zu lösen.
