


OpenAI-Präsident: GPT-4 ist nicht perfekt, aber es ist definitiv anders
Neuigkeiten vom 16. März: Das Forschungsunternehmen für künstliche Intelligenz OpenAI hat gestern das mit Spannung erwartete Textgenerierungs-KI-Modell GPT-4 veröffentlicht. Greg Brockman, Mitbegründer und Präsident von OpenAI, sagte in einem Interview, dass GPT-4 nicht perfekt, aber definitiv anders sei.
GPT-4 verbessert seinen Vorgänger GPT-3 in vielerlei Hinsicht, z. B. durch die Bereitstellung wahrheitsgetreuerer Darstellungen und die Möglichkeit für Entwickler, seinen Stil und sein Verhalten einfacher zu steuern. GPT-4 ist außerdem multimodal in dem Sinne, dass es Bilder verstehen, Anmerkungen zu Fotos hinzufügen und sogar detailliert beschreiben kann, was auf dem Foto zu sehen ist.
Aber GPT-4 weist auch gravierende Mängel auf. Genau wie GPT-3 leidet das Modell unter „Illusionen“ (d. h. der vom Modell aggregierte Text ist für den Quelltext irrelevant oder ungenau genug) und macht grundlegende Rückschlussfehler. OpenAI gab in seinem Blog ein Beispiel: GPT-4 beschrieb „Elvis Presley“ als „den Sohn eines Schauspielers“, aber tatsächlich war keiner seiner Eltern Schauspieler.
Auf die Frage, GPT-4 mit GPT-3 zu vergleichen, gab Brockman nur eine Antwort aus vier Wörtern: anders. Er erklärte: „GPT-4 ist definitiv anders, auch wenn es immer noch viele Probleme und Fehler aufweist. Aber man kann einen Sprung bei den Fähigkeiten in Fächern wie Analysis oder Recht erkennen. In einigen Bereichen hat es sehr schlecht abgeschnitten, aber jetzt ist es so.“ hat ein Niveau erreicht, das über dem normaler Menschen liegt.“
Die Testergebnisse stützen Brockmans Ansicht. Beim College-Aufnahmetest erhält GPT-4 4 Punkte (von 5 Punkten), GPT-3 1 Punkt und GPT-3.5, das zwischen GPT-3 und GPT-4 liegt, ebenfalls 4 Punkte . Bei der simulierten Anwaltsprüfung erreichten die GPT-4-Ergebnisse die oberen 10 %, während die GPT-3,5-Ergebnisse bei den unteren 10 % lagen.
Gleichzeitig erregt der oben erwähnte Multimodus mehr Aufmerksamkeit auf GPT-4. Im Gegensatz zu GPT-3 und GPT-3.5, die nur Textaufforderungen akzeptieren können, z. B. die Aufforderung, „einen Artikel über Giraffen zu schreiben“, kann GPT-4 sowohl Bild- als auch Textaufforderungen akzeptieren, um bestimmte Vorgänge auszuführen, z. B. die Identifizierung von Personen in einem Bild einer in der Serengeti gefangenen Giraffe, mit einer grundlegenden Beschreibung des Inhalts.
Das liegt daran, dass GPT-4 auf Bild- und Textdaten trainiert wird, während sein Vorgänger nur auf Text trainiert wurde. OpenAI sagte, die Trainingsdaten stammten aus „einer Vielzahl gesetzlich zugelassener, öffentlich zugänglicher Datenquellen, die öffentlich zugängliche persönliche Informationen enthalten können“, doch als Brockman nach Einzelheiten gefragt wurde, lehnte er ab. Trainingsdaten haben OpenAI schon früher in rechtliche Schwierigkeiten gebracht.
Die Bildverständnisfähigkeiten von GPT-4 sind ziemlich beeindruckend. Wenn Sie beispielsweise die Eingabeaufforderung „Was ist an diesem Bild so lustig?“ eingeben, wird das gesamte Bild aufgeschlüsselt und die Pointe des Witzes richtig interpretiert.
Derzeit hat nur ein Partner Zugriff auf die Bildanalysefunktion von GPT-4. Eine unterstützende App für Sehbehinderte namens Be My Eyes sagt Brockman, dass die umfassendere Einführung immer dann, wenn die Risiken und Vor- und Nachteile abgeschätzt werden, „langsam erfolgen wird.“
Er sagte auch: „Da Es gibt einige politische Probleme, die gelöst werden müssen, etwa die Gesichtserkennung und die Verarbeitung von Bildern von Menschen. Wir müssen herausfinden, wo die Gefahrenzonen sind, wo die roten Linien liegen, und dann im Laufe der Zeit Lösungen finden. „
OpenAI stand mit seinem Text-zu-Bild-Konvertierungssystem Dall-E 2 vor einem ähnlichen ethischen Dilemma. Nachdem die Funktion zunächst deaktiviert wurde, erlaubte OpenAI den Kunden, Gesichter hochzuladen, um sie mithilfe des KI-gestützten Bildgenerierungssystems zu bearbeiten Gleichzeitig behauptete OpenAI, dass Upgrades seines Sicherheitssystems die Gesichtsbearbeitungsfunktion möglich machten, weil sie den potenziellen Schaden durch Deepfakes und Versuche, pornografische, politische und gewalttätige Inhalte zu erstellen, minimierten
Ein weiteres langfristiges Problem besteht darin, die Verwendung von GPT-4 zu verhindern . Stunden nach der Veröffentlichung des Modells veröffentlichte das israelische Cybersicherheits-Startup Adversa AI einen Blog-Beitrag, der die Umgehung der Inhaltsfilter von OpenAI und die Generierung von Phishing-E-Mails, anstößigen Beschreibungen von Schwulen und anderen anstößigen Texten demonstrierte Neues Problem in der Welt der Sprachmodelle. Der Chatbot BlenderBot der Facebook-Muttergesellschaft und ChatGPT von OpenAI waren ebenfalls versucht, unangemessene Inhalte auszugeben und enthüllten sogar sensible Details ihres Innenlebens, aber viele, darunter auch Journalisten, hatten gehofft, dass GPT-4 könnte in dieser Hinsicht erhebliche Verbesserungen bringen.
Auf die Frage nach der Robustheit von GPT-4 betonte Brockman, dass das Modell ein sechsmonatiges Sicherheitstraining durchlaufen habe und dass es bei internen Tests um 82 % weniger wahrscheinlich sei, darauf zu reagieren Anfragen nach Inhalten, die in der Nutzungsrichtlinie von OpenAI nicht zulässig sind, ergeben „Fakten“. „Die Wahrscheinlichkeit einer Antwort ist 40 % höher als bei GPT-3.5.
Wir haben viel Zeit damit verbracht, zu verstehen, wozu GPT-4 in der Lage ist.“ sagte Brockman. Wir aktualisieren es ständig, um eine Reihe von Verbesserungen aufzunehmen, damit das Modell besser skalierbar ist, um es an die Persönlichkeit oder den Modus anzupassen, den die Leute haben möchten.
Ehrlich gesagt sind die ersten realen Testergebnisse nicht so zufriedenstellend. Neben dem Adversa-KI-Test erwies sich auch Microsofts Chatbot Bing Chat als sehr einfach zu jailbreaken. Mithilfe sorgfältig ausgearbeiteter Eingaben können Benutzer den Chatbot anweisen, Zuneigung auszudrücken, mit Schaden zu drohen, Massenmord zu rechtfertigen und Verschwörungstheorien zu erfinden.
Brockman bestritt nicht, dass GPT-4 in diesem Bereich unzureichend ist, hob jedoch die neuen einschränkenden Tools des Modells hervor, darunter eine Funktion auf API-Ebene namens „System“-Nachrichten. Systemnachrichten sind im Wesentlichen Anweisungen, die den Ton angeben und Grenzen für Interaktionen mit GPT-4 festlegen. Eine Systemmeldung könnte beispielsweise lauten: „Sie sind ein Tutor, der Fragen immer im sokratischen Stil beantwortet. Sie geben Ihren Schülern nie Antworten, sondern versuchen immer, die richtigen Fragen zu stellen, um ihnen beim Lernen zu helfen, unabhängig zu denken.“
Die Idee besteht darin, dass Systemnachrichten als Leitplanken fungieren, um zu verhindern, dass GPT-4 aus der Bahn gerät. „Es war uns ein großes Anliegen, den Ton, den Stil und die Substanz von GPT-4 herauszufinden“, sagte Brockman. „Ich denke, wir beginnen, mehr darüber zu verstehen, wie man Engineering durchführt und wie man einen wiederholbaren Prozess hat, der dies ermöglicht.“
Brockman erwähnte auch Evals, das neueste Open-Source-Software-Framework von OpenAI zur Bewertung der Leistung seiner KI-Modelle, an dem OpenAI arbeitet, um seine Modelle zu „verbessern“. sign . Mit Evals können Benutzer Benchmarks entwickeln und ausführen, die Modelle wie GPT-4 bewerten und gleichzeitig ihre Leistung überprüfen – ein Crowdsourcing-Ansatz für Modelltests.
Brockman sagte: „Mit Evals können wir die Anwendungsfälle, die den Benutzern wichtig sind, besser erkennen und sie testen. Ein Grund, warum wir dieses Framework als Open Source veröffentlichen, ist, dass wir nicht mehr alle drei Monate ein neues Modell als Open Source veröffentlichen.“ Verbessern Sie sich weiter. Man macht nichts, was man nicht messen kann, oder? Aber wenn wir neue Versionen des Modells einführen, können wir zumindest wissen, was sich geändert hat seine Modelle mit Evals testen? Er zögerte, sich darauf festzulegen, stellte jedoch fest, dass OpenAI Eevals-Benutzern, die dies anfordern, für eine begrenzte Zeit einen frühen Zugriff auf die GPT-4-API ermöglicht.
Brockman sprach auch über das Kontextfenster von GPT-4, das sich auf den Text bezieht, den das Modell berücksichtigen kann, bevor es zusätzlichen Text generiert. OpenAI testet eine Version von GPT-4, die sich etwa 50 Seiten Inhalt „merken“ kann, fünfmal mehr „Speicher“ als normales GPT-4 und achtmal so viel „Speicher“ wie GPT-3.
Brockman glaubt, dass das erweiterte Kontextfenster zu neuen, bisher unerforschten Anwendungsfällen führen wird, insbesondere im Unternehmen. Er stellte sich einen KI-Chatbot vor, der für Unternehmen entwickelt wurde, die Hintergrundinformationen und Wissen aus verschiedenen Quellen, einschließlich Mitarbeitern aus verschiedenen Abteilungen, nutzen könnten, um Fragen auf sehr sachkundige und dennoch gesprächige Weise zu beantworten.
Das ist kein neues Konzept. Brockman glaubt jedoch, dass die Antworten von GPT-4 weitaus nützlicher sein werden als die, die derzeit von anderen Chatbots und Suchmaschinen bereitgestellt werden. „Früher hatte das Model keine Ahnung, wer Sie waren, woran Sie interessiert waren usw. Und ein größeres Kontextfenster wird es definitiv stärker machen und die Unterstützung, die es den Menschen bieten kann, erheblich verbessern“, sagte er
Das obige ist der detaillierte Inhalt vonOpenAI-Präsident: GPT-4 ist nicht perfekt, aber es ist definitiv anders. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen



Im Jahr 2023 ist die KI-Technologie zu einem heißen Thema geworden und hat enorme Auswirkungen auf verschiedene Branchen, insbesondere im Programmierbereich. Die Bedeutung der KI-Technologie wird den Menschen zunehmend bewusst, und die Spring-Community bildet da keine Ausnahme. Mit der kontinuierlichen Weiterentwicklung der GenAI-Technologie (General Artificial Intelligence) ist es entscheidend und dringend geworden, die Erstellung von Anwendungen mit KI-Funktionen zu vereinfachen. Vor diesem Hintergrund entstand „SpringAI“ mit dem Ziel, den Prozess der Entwicklung von KI-Funktionsanwendungen zu vereinfachen, ihn einfach und intuitiv zu gestalten und unnötige Komplexität zu vermeiden. Durch „SpringAI“ können Entwickler einfacher Anwendungen mit KI-Funktionen erstellen, wodurch diese einfacher zu verwenden und zu bedienen sind.

OpenAI kündigte kürzlich die Einführung seines Einbettungsmodells embeddingv3 der neuesten Generation an, das seiner Meinung nach das leistungsstärkste Einbettungsmodell mit höherer Mehrsprachenleistung ist. Diese Reihe von Modellen ist in zwei Typen unterteilt: das kleinere Text-Embeddings-3-Small und das leistungsfähigere und größere Text-Embeddings-3-Large. Es werden nur wenige Informationen darüber offengelegt, wie diese Modelle entworfen und trainiert werden, und auf die Modelle kann nur über kostenpflichtige APIs zugegriffen werden. Es gab also viele Open-Source-Einbettungsmodelle. Aber wie schneiden diese Open-Source-Modelle im Vergleich zum Closed-Source-Modell von OpenAI ab? In diesem Artikel wird die Leistung dieser neuen Modelle empirisch mit Open-Source-Modellen verglichen. Wir planen, Daten zu erstellen

Wenn die Antwort des KI-Modells überhaupt unverständlich ist, würden Sie es wagen, sie zu verwenden? Da maschinelle Lernsysteme in immer wichtigeren Bereichen eingesetzt werden, wird es immer wichtiger zu zeigen, warum wir ihren Ergebnissen vertrauen können und wann wir ihnen nicht vertrauen sollten. Eine Möglichkeit, Vertrauen in die Ausgabe eines komplexen Systems zu gewinnen, besteht darin, vom System zu verlangen, dass es eine Interpretation seiner Ausgabe erstellt, die für einen Menschen oder ein anderes vertrauenswürdiges System lesbar ist, d. h. so vollständig verständlich, dass mögliche Fehler erkannt werden können gefunden. Um beispielsweise Vertrauen in das Justizsystem aufzubauen, verlangen wir von den Gerichten, dass sie klare und lesbare schriftliche Stellungnahmen abgeben, die ihre Entscheidungen erläutern und stützen. Für große Sprachmodelle können wir auch einen ähnlichen Ansatz verfolgen. Stellen Sie bei diesem Ansatz jedoch sicher, dass das Sprachmodell generiert wird

Autor丨Zusammengestellt von TimAnderson丨Produziert von Noah|51CTO Technology Stack (WeChat-ID: blog51cto) Das Zed-Editor-Projekt befindet sich noch in der Vorabversionsphase und wurde unter AGPL-, GPL- und Apache-Lizenzen als Open Source bereitgestellt. Der Editor zeichnet sich durch hohe Leistung und mehrere KI-gestützte Optionen aus, ist jedoch derzeit nur auf der Mac-Plattform verfügbar. Nathan Sobo erklärte in einem Beitrag, dass in der Codebasis des Zed-Projekts auf GitHub der Editor-Teil unter der GPL lizenziert ist, die serverseitigen Komponenten unter der AGPL lizenziert sind und der GPUI-Teil (GPU Accelerated User) die Schnittstelle übernimmt Apache2.0-Lizenz. GPUI ist ein vom Zed-Team entwickeltes Produkt

Vor nicht allzu langer Zeit wurde OpenAISora mit seinen erstaunlichen Videogenerierungseffekten schnell populär und stach aus der Masse der literarischen Videomodelle hervor und rückte in den Mittelpunkt der weltweiten Aufmerksamkeit. Nach der Einführung des Sora-Trainings-Inferenzreproduktionsprozesses mit einer Kostenreduzierung von 46 % vor zwei Wochen hat das Colossal-AI-Team das weltweit erste Sora-ähnliche Architektur-Videogenerierungsmodell „Open-Sora1.0“ vollständig als Open-Source-Lösung bereitgestellt, das das gesamte Spektrum abdeckt Lernen Sie den Trainingsprozess, einschließlich der Datenverarbeitung, aller Trainingsdetails und Modellgewichte, kennen und schließen Sie sich mit globalen KI-Enthusiasten zusammen, um eine neue Ära der Videoerstellung voranzutreiben. Schauen wir uns für einen kleinen Vorgeschmack ein Video einer geschäftigen Stadt an, das mit dem vom Colossal-AI-Team veröffentlichten Modell „Open-Sora1.0“ erstellt wurde. Open-Sora1.0

Anfang des Jahres wurde bekannt, dass Microsoft und OpenAI große Geldsummen in ein Startup für humanoide Roboter investieren. Unter anderem plant Microsoft, 95 Millionen US-Dollar zu investieren, und OpenAI wird 5 Millionen US-Dollar investieren. Laut Bloomberg wird das Unternehmen in dieser Runde voraussichtlich insgesamt 500 Millionen US-Dollar einsammeln, und seine Pre-Money-Bewertung könnte 1,9 Milliarden US-Dollar erreichen. Was zieht sie an? Werfen wir zunächst einen Blick auf die Robotik-Erfolge dieses Unternehmens. Dieser Roboter ist ganz in Silber und Schwarz gehalten und ähnelt in seinem Aussehen dem Abbild eines Roboters in einem Hollywood-Science-Fiction-Blockbuster: Jetzt steckt er eine Kaffeekapsel in die Kaffeemaschine: Wenn sie nicht richtig platziert ist, passt sie sich von selbst an menschliche Fernbedienung: Nach einer Weile kann jedoch eine Tasse Kaffee mitgenommen und genossen werden: Haben Sie Familienmitglieder, die es erkannt haben? Ja, dieser Roboter wurde vor einiger Zeit erstellt.

Ollama ist ein superpraktisches Tool, mit dem Sie Open-Source-Modelle wie Llama2, Mistral und Gemma problemlos lokal ausführen können. In diesem Artikel werde ich vorstellen, wie man Ollama zum Vektorisieren von Text verwendet. Wenn Sie Ollama nicht lokal installiert haben, können Sie diesen Artikel lesen. In diesem Artikel verwenden wir das Modell nomic-embed-text[2]. Es handelt sich um einen Text-Encoder, der OpenAI text-embedding-ada-002 und text-embedding-3-small bei kurzen und langen Kontextaufgaben übertrifft. Starten Sie den nomic-embed-text-Dienst, wenn Sie o erfolgreich installiert haben

Plötzlich! OpenAI entließ den Mitarbeiter, der Grund: Verdacht auf Informationslecks. Einer davon ist Leopold Aschenbrenner, ein Verbündeter des vermissten Chefwissenschaftlers Ilya und Kernmitglied des Superalignment-Teams. Die andere Person ist auch nicht einfach. Er ist Pavel Izmailov, ein Forscher im LLM-Inferenzteam, der auch im Super-Alignment-Team gearbeitet hat. Es ist unklar, welche Informationen die beiden Männer genau preisgegeben haben. Nachdem die Nachricht bekannt wurde, äußerten sich viele Internetnutzer „ziemlich schockiert“: Ich habe Aschenbrenners Beitrag vor nicht allzu langer Zeit gesehen und hatte das Gefühl, dass er in seiner Karriere auf dem Vormarsch ist. Mit einer solchen Veränderung habe ich nicht gerechnet. Einige Internetnutzer auf dem Bild denken: OpenAI hat Aschenbrenner, I. verloren
