Inhaltsverzeichnis
Das größte Problem, mit dem OpenAI jetzt konfrontiert ist, ist, dass es begrenzt ist durch GPU
Die kurzfristige Roadmap von OpenAI
Das Plugin hat kein PMF und wird in absehbarer Zeit nicht in der API enthalten sein
OpenAI wird es vermeiden, mit seinen Kunden zu konkurrieren, außer mit ChatGPT-ähnlichen Produkten.
Regulierung ist notwendig, aber Open Source auch.
Das Gesetz der Skalierung existiert immer noch
Heim Technologie-Peripheriegeräte KI Sam Altman spricht über OpenAI: Angesichts der GPU-Knappheitspanik könnte GPT-3 Open Source sein

Sam Altman spricht über OpenAI: Angesichts der GPU-Knappheitspanik könnte GPT-3 Open Source sein

Jun 09, 2023 pm 03:27 PM
芯片 ai

Seit dem Aufkommen von ChatGPT haben große Modelle und KI-Technologie weltweit große Aufmerksamkeit erregt. Einerseits staunen die Menschen über die neuen Fähigkeiten großer Modelle, andererseits sind sie besorgt über die Steuerbarkeit und zukünftige Entwicklung künstlicher Intelligenz. In diesem Jahr haben viele Experten auf dem Gebiet der KI, darunter die Turing-Award-Gewinner Geoffrey Hinton und Yoshua Bengio, gemeinsam davor gewarnt, dass große KI-Modelle eine Reihe von Risiken mit sich bringen werden, und einige haben sogar einen Stopp der Entwicklung nachfolgender großer Modelle gefordert KI-Modelle für GPT-4.

OpenAI ist als Unternehmen hinter großen Modellen wie ChatGPT und GPT-4 zweifellos in den Vordergrund gerückt. Sam Altman, CEO von OpenAI, ist derzeit auf einer weltweiten Vortragsreise, um die „Angst“ der Menschen vor künstlicher Intelligenz zu zerstreuen und sich die Meinungen von Entwicklern und Benutzern von OpenAI-Produkten anzuhören.

Sam Altman谈OpenAI:面临GPU短缺恐慌,GPT-3或将开源

Laut Fortune traf sich Sam Altman im Mai hinter verschlossenen Türen mit einigen Entwicklern und Startup-Gründern und sprach über die Roadmap und Herausforderungen von OpenAI. Einer der Teilnehmer dieses nichtöffentlichen Treffens, Raza Habib, Mitbegründer und CEO von Humanloop, erwähnte kürzlich in einem Blog die Produktplanungs- und Entwicklungsengpässe von OpenAI.

Der ursprüngliche Blog wurde gelöscht, aber einige Internetnutzer haben einen Blog-Schnappschuss (Kopie) hochgeladen. Schauen wir uns den spezifischen Inhalt des Blogs an:

Das größte Problem, mit dem OpenAI jetzt konfrontiert ist, ist, dass es begrenzt ist durch GPU

Sehr schwerwiegende GPU-Einschränkungen, die auch die Umsetzung einiger ihrer kurzfristigen Pläne verzögerten. Die häufigsten Kundenbeschwerden betreffen heutzutage die Zuverlässigkeit und Geschwindigkeit von APIs. Sam erkannte das Problem an und erklärte, dass die meisten Probleme, über die sich Kunden beschwerten, auf GPU-Mangel zurückzuführen seien.

Bei der Textverarbeitung steht der längere 32k-Kontext noch nicht mehr Menschen zur Verfügung. Nun hat OpenAI das O(n^2)-Erweiterungsproblem des Aufmerksamkeitsmechanismus noch nicht vollständig überwunden. Obwohl OpenAI bald in der Lage zu sein scheint, 100.000 bis 1 Mio. Token-Kontextfenster (innerhalb dieses Jahres) zu erreichen, sind bei größeren Textverarbeitungsfenstern weitere Fortschritte erforderlich . Forschungsdurchbrüche.

Darüber hinaus ist die Feinabstimmungs-API derzeit auch durch die GPU-Versorgung begrenzt. OpenAI verwendet noch keine effizienten Feinabstimmungsmethoden wie Adapter oder LoRa, daher ist die Feinabstimmung sehr rechenintensiv in der Ausführung und Verwaltung. Sam gab bekannt, dass in Zukunft bessere Feinabstimmungstechnologien eingeführt werden und möglicherweise sogar eine Community für Forschungsmodelle geschaffen wird.

Darüber hinaus ist die Bereitstellung dedizierter Kapazität auch durch die GPU-Versorgung begrenzt. OpenAI bietet auch dedizierte Kapazität, sodass Kunden eine private Kopie ihres Modells erhalten. Um den Service nutzen zu können, müssen Kunden bereit sein, im Voraus 100.000 US-Dollar zu zahlen.

Die kurzfristige Roadmap von OpenAI

Während des Gesprächs teilte Sam die kurzfristige Roadmap für die OpenAI-API mit, die hauptsächlich in zwei Phasen unterteilt ist:

Roadmap für 2023:

  • OpenAIs Spitze Priorität ist der Start. Billigeres, schnelleres GPT-4 – Insgesamt besteht das Ziel von OpenAI darin, die Kosten für Intelligenz so weit wie möglich zu senken, damit die Kosten der API mit der Zeit sinken.
  • Längere Kontextfenster – In naher Zukunft könnten Kontextfenster bis zu 1 Million Token betragen.
  • Nudge API – Die Nudge API wird auf die neuesten Modelle erweitert, ihre genaue Form wird jedoch von den Entwicklern bestimmt.
  • Status-API – Wenn Sie nun die Chat-API aufrufen, müssen Sie immer wieder denselben Konversationsverlauf durchgehen und immer wieder für denselben Token bezahlen. Eine zukünftige Version der API wird in der Lage sein, sich den Sitzungsverlauf zu merken.
  • Weg bis 2024:
  • Multimodalität – Dies wurde im Rahmen der GPT-4-Veröffentlichung demonstriert, wird aber nicht für alle skalierbar sein, bis weitere GPUs online gehen.

Das Plugin hat kein PMF und wird in absehbarer Zeit nicht in der API enthalten sein

Viele Entwickler sind daran interessiert, über die API auf ChatGPT-Plugins zuzugreifen, aber Sam sagte, er glaube nicht, dass diese Plugins dies tun werden bald veröffentlicht werden. Die Verwendung anderer Plugins als Browsing deutet darauf hin, dass PMF noch nicht vorhanden ist. Sam wies darauf hin, dass viele Leute möchten, dass ihre Anwendungen innerhalb von ChatGPT liegen, aber was sie wirklich wollen, ist ChatGPT innerhalb der Anwendung.

OpenAI wird es vermeiden, mit seinen Kunden zu konkurrieren, außer mit ChatGPT-ähnlichen Produkten.

Viele Entwickler sagen, dass sie bei der Veröffentlichung neuer Produkte durch OpenAI nervös sind, wenn es um Apps geht, die mit der OpenAI-API erstellt wurden, weil OpenAI möglicherweise irgendwann ein Produkt herausbringt, das mit ihnen konkurriert . Sam sagte, dass OpenAI außer ChatGPT keine weiteren Produkte veröffentlichen wird. Er sagte, dass es viele großartige Plattformunternehmen gibt, die eine Killer-App haben und ChatGPT es ihnen ermöglichen wird, ihre API zu verbessern, indem sie Kunde ihres eigenen Produkts werden. Die Vision von ChatGPT besteht darin, ein superintelligenter Arbeitsassistent zu sein, aber es gibt viele andere GPT-Anwendungsfälle, auf die OpenAI nicht eingehen wird.

Regulierung ist notwendig, aber Open Source auch.

Obwohl Sam sich für die Regulierung zukünftiger Modelle einsetzt, glaubt er nicht, dass bestehende Modelle gefährlich sind und glaubt, dass eine Regulierung oder ein Verbot ein großer Fehler wäre. Er betonte noch einmal die Bedeutung von Open Source und sagte, dass OpenAI über Open Source GPT-3 nachdenke. Einer der Gründe, warum OpenAI bei der Open-Source-Entwicklung so langsam vorgeht, liegt darin, dass sie der Meinung sind, dass nicht viele Menschen und Unternehmen in der Lage sind, derart große Sprachmodelle ordnungsgemäß zu verwalten.

Das Gesetz der Skalierung existiert immer noch

In vielen aktuellen Artikeln wurde behauptet, dass „die Ära der riesigen KI-Modelle vorbei ist“. Sam meinte, das entspreche nicht genau dem, was er meinte.

Die internen Daten von OpenAI zeigen, dass das Gesetz der Skalierung immer noch gilt und eine Vergrößerung des Modells die Leistung weiter verbessern wird. Allerdings kann die Modellgröße nicht immer im gleichen Maßstab zunehmen, da OpenAI die Modellgröße in nur wenigen Jahren bereits millionenfach vergrößert hat und es unhaltbar wäre, dies auch weiterhin zu tun. Das bedeutet aber nicht, dass OpenAI aufhören wird, seine Modelle größer zu machen, aber es bedeutet, dass sie ihre Größe jedes Jahr verdoppeln oder verdreifachen könnten, anstatt um Größenordnungen zu wachsen.

Die Tatsache, dass das erweiterte Modell weiterhin gültig ist, hat wichtige Auswirkungen auf die Entwicklung von AGI. Die Idee der Skalierung besteht darin, dass wir wahrscheinlich bereits über die meisten Elemente verfügen, die zum Aufbau einer AGI erforderlich sind, und ein Großteil der verbleibenden Arbeit darin bestehen wird, vorhandene Methoden zu übernehmen und sie auf größere Modelle und größere Datensätze zu skalieren. Wenn die Ära der Modellerweiterungen vorbei ist, wird es noch länger dauern, bis wir AGI erreichen. Die Tatsache, dass das Gesetz der Skalierung immer noch gilt, bedeutet, dass wir AGI in kürzerer Zeit erreichen werden.

Das obige ist der detaillierte Inhalt vonSam Altman spricht über OpenAI: Angesichts der GPU-Knappheitspanik könnte GPT-3 Open Source sein. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

AI Hentai Generator

AI Hentai Generator

Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

R.E.P.O. Energiekristalle erklärten und was sie tun (gelber Kristall)
1 Monate vor By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Beste grafische Einstellungen
1 Monate vor By 尊渡假赌尊渡假赌尊渡假赌
Will R.E.P.O. Crossplay haben?
1 Monate vor By 尊渡假赌尊渡假赌尊渡假赌

Heiße Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

CentOS Shutdown -Befehlszeile CentOS Shutdown -Befehlszeile Apr 14, 2025 pm 09:12 PM

Der Befehl centOS stilldown wird heruntergefahren und die Syntax wird von [Optionen] ausgeführt [Informationen]. Zu den Optionen gehören: -h das System sofort stoppen; -P schalten Sie die Leistung nach dem Herunterfahren aus; -r neu starten; -t Wartezeit. Zeiten können als unmittelbar (jetzt), Minuten (Minuten) oder als bestimmte Zeit (HH: MM) angegeben werden. Hinzugefügten Informationen können in Systemmeldungen angezeigt werden.

Was sind die Backup -Methoden für Gitlab auf CentOS? Was sind die Backup -Methoden für Gitlab auf CentOS? Apr 14, 2025 pm 05:33 PM

Backup- und Wiederherstellungsrichtlinie von GitLab im Rahmen von CentOS -System Um die Datensicherheit und Wiederherstellung der Daten zu gewährleisten, bietet GitLab on CentOS eine Vielzahl von Sicherungsmethoden. In diesem Artikel werden mehrere gängige Sicherungsmethoden, Konfigurationsparameter und Wiederherstellungsprozesse im Detail eingeführt, um eine vollständige GitLab -Sicherungs- und Wiederherstellungsstrategie aufzubauen. 1. Manuell Backup Verwenden Sie den GitLab-RakegitLab: Backup: Befehl erstellen, um die manuelle Sicherung auszuführen. Dieser Befehl unterstützt wichtige Informationen wie GitLab Repository, Datenbank, Benutzer, Benutzergruppen, Schlüssel und Berechtigungen. Die Standardsicherungsdatei wird im Verzeichnis/var/opt/gitlab/backups gespeichert. Sie können /etc /gitlab ändern

So überprüfen Sie die CentOS -HDFS -Konfiguration So überprüfen Sie die CentOS -HDFS -Konfiguration Apr 14, 2025 pm 07:21 PM

Vollständige Anleitung zur Überprüfung der HDFS -Konfiguration in CentOS -Systemen In diesem Artikel wird die Konfiguration und den laufenden Status von HDFS auf CentOS -Systemen effektiv überprüft. Die folgenden Schritte helfen Ihnen dabei, das Setup und den Betrieb von HDFs vollständig zu verstehen. Überprüfen Sie die Hadoop -Umgebungsvariable: Stellen Sie zunächst sicher, dass die Hadoop -Umgebungsvariable korrekt eingestellt ist. Führen Sie im Terminal den folgenden Befehl aus, um zu überprüfen, ob Hadoop ordnungsgemäß installiert und konfiguriert ist: Hadoopsion-Check HDFS-Konfigurationsdatei: Die Kernkonfigurationsdatei von HDFS befindet sich im/etc/hadoop/conf/verzeichnis, wobei core-site.xml und hdfs-site.xml von entscheidender Bedeutung sind. verwenden

Wie ist die GPU -Unterstützung für Pytorch bei CentOS? Wie ist die GPU -Unterstützung für Pytorch bei CentOS? Apr 14, 2025 pm 06:48 PM

Aktivieren Sie die Pytorch -GPU -Beschleunigung am CentOS -System erfordert die Installation von CUDA-, CUDNN- und GPU -Versionen von Pytorch. Die folgenden Schritte führen Sie durch den Prozess: Cuda und Cudnn Installation Bestimmen Sie die CUDA-Version Kompatibilität: Verwenden Sie den Befehl nvidia-smi, um die von Ihrer NVIDIA-Grafikkarte unterstützte CUDA-Version anzuzeigen. Beispielsweise kann Ihre MX450 -Grafikkarte CUDA11.1 oder höher unterstützen. Download und installieren Sie Cudatoolkit: Besuchen Sie die offizielle Website von Nvidiacudatoolkit und laden Sie die entsprechende Version gemäß der höchsten CUDA -Version herunter und installieren Sie sie, die von Ihrer Grafikkarte unterstützt wird. Installieren Sie die Cudnn -Bibliothek:

CentOS installieren MySQL CentOS installieren MySQL Apr 14, 2025 pm 08:09 PM

Die Installation von MySQL auf CentOS umfasst die folgenden Schritte: Hinzufügen der entsprechenden MySQL Yum -Quelle. Führen Sie den Befehl mySQL-server aus, um den MySQL-Server zu installieren. Verwenden Sie den Befehl mySQL_SECURE_INSTALLATION, um Sicherheitseinstellungen vorzunehmen, z. B. das Festlegen des Stammbenutzerkennworts. Passen Sie die MySQL -Konfigurationsdatei nach Bedarf an. Tune MySQL -Parameter und optimieren Sie Datenbanken für die Leistung.

Detaillierte Erklärung des Docker -Prinzips Detaillierte Erklärung des Docker -Prinzips Apr 14, 2025 pm 11:57 PM

Docker verwendet Linux -Kernel -Funktionen, um eine effiziente und isolierte Anwendungsumgebung zu bieten. Sein Arbeitsprinzip lautet wie folgt: 1. Der Spiegel wird als schreibgeschützte Vorlage verwendet, die alles enthält, was Sie für die Ausführung der Anwendung benötigen. 2. Das Union File System (UnionFS) stapelt mehrere Dateisysteme, speichert nur die Unterschiede, speichert Platz und beschleunigt. 3. Der Daemon verwaltet die Spiegel und Container, und der Kunde verwendet sie für die Interaktion. 4. Namespaces und CGroups implementieren Container -Isolation und Ressourcenbeschränkungen; 5. Mehrere Netzwerkmodi unterstützen die Containerverbindung. Nur wenn Sie diese Kernkonzepte verstehen, können Sie Docker besser nutzen.

CentOS8 startet SSH CentOS8 startet SSH Apr 14, 2025 pm 09:00 PM

Der Befehl zum Neustart des SSH -Dienstes lautet: SystemCTL Neustart SSHD. Detaillierte Schritte: 1. Zugriff auf das Terminal und eine Verbindung zum Server; 2. Geben Sie den Befehl ein: SystemCTL Neustart SSHD; 1. Überprüfen Sie den Dienststatus: SystemCTL -Status SSHD.

Wie man eine verteilte Schulung von Pytorch auf CentOS betreibt Wie man eine verteilte Schulung von Pytorch auf CentOS betreibt Apr 14, 2025 pm 06:36 PM

Pytorch Distributed Training on CentOS -System erfordert die folgenden Schritte: Pytorch -Installation: Die Prämisse ist, dass Python und PIP im CentOS -System installiert sind. Nehmen Sie abhängig von Ihrer CUDA -Version den entsprechenden Installationsbefehl von der offiziellen Pytorch -Website ab. Für CPU-Schulungen können Sie den folgenden Befehl verwenden: PipinstallTorChTorChVisionTorChaudio Wenn Sie GPU-Unterstützung benötigen, stellen Sie sicher, dass die entsprechende Version von CUDA und CUDNN installiert ist und die entsprechende Pytorch-Version für die Installation verwenden. Konfiguration der verteilten Umgebung: Verteiltes Training erfordert in der Regel mehrere Maschinen oder mehrere Maschinen-Mehrfach-GPUs. Ort

See all articles