Heim Technologie-Peripheriegeräte KI Musks zweites KI-Produkt, PromptIDE, wird angekündigt und die Entwicklung von Grok ist untrennbar damit verbunden

Musks zweites KI-Produkt, PromptIDE, wird angekündigt und die Entwicklung von Grok ist untrennbar damit verbunden

Nov 07, 2023 pm 03:13 PM
工程 xai promptide

Netizen-Kommentare: Die Entwicklungsgeschwindigkeit des xAI-Teams ist zu schnell! Einfach unglaublich!


Es ist erst einen Tag her, seit Musks xAI Grok angekündigt hat. Gerade hat xAI ein weiteres KI-Produkt angekündigt, eine integrierte Entwicklungsumgebung, die für prompte Engineering- und Interpretierbarkeitsforschung verwendet werden kann: PromptIDE.

Die kontinuierlichen neuen Produktveröffentlichungen haben auch die Internetnutzer zum Seufzen gebracht: „Die Entwicklungsgeschwindigkeit des xAI-Teams ist einfach verrückt!“ Eine integrierte Entwicklungsumgebung für Interpretierbarkeitsforschung. Es beschleunigt das Prompt-Projekt durch das SDK, und das SDK kann komplexe Prompt-Technologie vervollständigen und auch Ergebnisanalysen durchführen, Netzwerkausgaben visualisieren usw.
Musks zweites KI-Produkt, PromptIDE, wird angekündigt und die Entwicklung von Grok ist untrennbar damit verbunden
Es ist erwähnenswert, dass xAI diese Technologie in großem Umfang bei der Entwicklung von Grok eingesetzt hat.


Mit PromptIDE können Ingenieure und Forscher transparent auf Grok-1-Modelle zugreifen (die Modelle, die Grok antreiben). Die IDE hilft Benutzern, schnell die Funktionen unseres Large Model (LLM) zu erkunden. Das Herzstück der IDE ist ein Python-Code-Editor, der in Kombination mit dem neuen SDK eine ausgefeilte Eingabeaufforderungstechnologie ermöglicht. Beim Ausführen einer Eingabeaufforderung in der IDE werden Benutzern einige nützliche Analysen angezeigt, z. B. Stichprobenwahrscheinlichkeit, aggregierte Aufmerksamkeitsmaske usw.

Die IDE speichert automatisch alle Eingabeaufforderungen, verfügt über eine integrierte Versionskontrolle und ermöglicht Benutzern außerdem den Vergleich der Ausgabe verschiedener Eingabeaufforderungstechnologien. Schließlich können Benutzer kleine Dateien wie CSV-Dateien hochladen und diese mithilfe einer einzigen Python-Funktion im SDK lesen. In Kombination mit den Parallelitätsfunktionen des SDK können selbst etwas größere Dateien schnell verarbeitet werden.
Das Folgende ist eine Demonstration der Hauptfunktionen der IDE.

Code-Editor und SDK

Der Kern von PromptIDE ist der Code-Editor + Python SDK, wobei das SDK ein neues Programmierparadigma bereitstellt, das komplexe Eingabeaufforderungstechnologie implementieren kann.
Musks zweites KI-Produkt, PromptIDE, wird angekündigt und die Entwicklung von Grok ist untrennbar damit verbunden
Wie in der Abbildung oben gezeigt, können Benutzer die Funktion „prompt()“ verwenden, um dem Kontext manuell Token hinzuzufügen, oder sie können die Funktion „sample()“ verwenden, um Token basierend auf dem Kontext zu generieren.

Darüber hinaus können mehrere Web Worker gleichzeitig ausgeführt werden, was bedeutet, dass Benutzer mehrere Eingabeaufforderungen parallel ausführen können.
Musks zweites KI-Produkt, PromptIDE, wird angekündigt und die Entwicklung von Grok ist untrennbar damit verbunden
Benutzer können auch mehrere Kontexte im selben Programm verwenden, um komplexe Eingabeaufforderungstechniken zu implementieren. Wenn eine Funktion mit dem @prompt_fn-Dekorator annotiert wird, wird sie in ihrem eigenen neuen Kontext ausgeführt und die Funktion kann einige Operationen unabhängig von ihrem übergeordneten Kontext ausführen. Dieses Programmierparadigma unterstützt rekursive und iterative Eingabeaufforderungen mit willkürlich verschachtelten Unterkontexten.
Musks zweites KI-Produkt, PromptIDE, wird angekündigt und die Entwicklung von Grok ist untrennbar damit verbunden
Parallelität: Das SDK verwendet Python-Coroutinen, um mehrere mit @prompt_fn annotierte Python-Funktionen gleichzeitig zu verarbeiten, um den Zeitprozess zu beschleunigen, insbesondere bei der Verarbeitung von CSV-Dateien.

Benutzereingabe: Mit der Eingabeaufforderung kann über die Funktion user_input() interagiert werden. Die Funktion user_input() gibt eine vom Benutzer eingegebene Zeichenfolge zurück, die dann über die Funktion prompt() zum Kontext hinzugefügt werden kann. Mithilfe dieser APIs kann ein Chatbot mit nur vier Codezeilen implementiert werden:
Musks zweites KI-Produkt, PromptIDE, wird angekündigt und die Entwicklung von Grok ist untrennbar damit verbunden
Dateien: Entwickler können kleinere Dateien auf PromptIDE hochladen (bis zu 5 MiB pro Datei, bis zu 50 MiB insgesamt) und sie in prompt Use hinzufügen die Dateien, die sie hochgeladen haben. Die Funktion read_file() gibt jede hochgeladene Datei als Byte-Array zurück. Diese ermöglichen in Kombination mit den oben genannten Parallelitätsfunktionen die Stapelverarbeitung von Eingabeaufforderungen.
Musks zweites KI-Produkt, PromptIDE, wird angekündigt und die Entwicklung von Grok ist untrennbar damit verbunden
Analyse: Beim Ausführen der Eingabeaufforderung wird den Benutzern eine detaillierte Token-Analyse angezeigt, die ihnen hilft, die Ausgabe des Modells besser zu verstehen.
Musks zweites KI-Produkt, PromptIDE, wird angekündigt und die Entwicklung von Grok ist untrennbar damit verbunden
Musks zweites KI-Produkt, PromptIDE, wird angekündigt und die Entwicklung von Grok ist untrennbar damit verbunden
Wenn der Benutzer die Funktion user_input() verwendet, wird im Fenster ein Textfeld angezeigt, in das der Benutzer eine Antwort eingeben kann. Der Screenshot unten zeigt das Ergebnis der Ausführung des oben aufgeführten Chatbot-Code-Snippets.
Musks zweites KI-Produkt, PromptIDE, wird angekündigt und die Entwicklung von Grok ist untrennbar damit verbunden
Wenn schließlich keine Notwendigkeit besteht, das Token zu visualisieren, kann der Kontext auch im Markdown dargestellt werden, um die Lesbarkeit zu verbessern.
Musks zweites KI-Produkt, PromptIDE, wird angekündigt und die Entwicklung von Grok ist untrennbar damit verbunden
Referenzlink: https://x.ai/prompt-ide/

Das obige ist der detaillierte Inhalt vonMusks zweites KI-Produkt, PromptIDE, wird angekündigt und die Entwicklung von Grok ist untrennbar damit verbunden. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

AI Hentai Generator

AI Hentai Generator

Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

R.E.P.O. Energiekristalle erklärten und was sie tun (gelber Kristall)
2 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
Repo: Wie man Teamkollegen wiederbelebt
4 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
Hello Kitty Island Abenteuer: Wie man riesige Samen bekommt
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌

Heiße Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Von RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-Ebene' Von RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-Ebene' Jun 24, 2024 pm 03:04 PM

Die AIxiv-Kolumne ist eine Kolumne, in der diese Website akademische und technische Inhalte veröffentlicht. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. Einreichungs-E-Mail: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Im Entwicklungsprozess der künstlichen Intelligenz war die Steuerung und Führung großer Sprachmodelle (LLM) schon immer eine der zentralen Herausforderungen, um sicherzustellen, dass diese Modelle beides sind kraftvoll und sicher dienen der menschlichen Gesellschaft. Frühe Bemühungen konzentrierten sich auf Methoden des verstärkenden Lernens durch menschliches Feedback (RL

Posthume Arbeit des OpenAI Super Alignment Teams: Zwei große Modelle spielen ein Spiel und die Ausgabe wird verständlicher Posthume Arbeit des OpenAI Super Alignment Teams: Zwei große Modelle spielen ein Spiel und die Ausgabe wird verständlicher Jul 19, 2024 am 01:29 AM

Wenn die Antwort des KI-Modells überhaupt unverständlich ist, würden Sie es wagen, sie zu verwenden? Da maschinelle Lernsysteme in immer wichtigeren Bereichen eingesetzt werden, wird es immer wichtiger zu zeigen, warum wir ihren Ergebnissen vertrauen können und wann wir ihnen nicht vertrauen sollten. Eine Möglichkeit, Vertrauen in die Ausgabe eines komplexen Systems zu gewinnen, besteht darin, vom System zu verlangen, dass es eine Interpretation seiner Ausgabe erstellt, die für einen Menschen oder ein anderes vertrauenswürdiges System lesbar ist, d. h. so vollständig verständlich, dass mögliche Fehler erkannt werden können gefunden. Um beispielsweise Vertrauen in das Justizsystem aufzubauen, verlangen wir von den Gerichten, dass sie klare und lesbare schriftliche Stellungnahmen abgeben, die ihre Entscheidungen erläutern und stützen. Für große Sprachmodelle können wir auch einen ähnlichen Ansatz verfolgen. Stellen Sie bei diesem Ansatz jedoch sicher, dass das Sprachmodell generiert wird

Der Autor von ControlNet hat einen weiteren Hit! Der gesamte Prozess der Generierung eines Gemäldes aus einem Bild, der in zwei Tagen 1,4.000 Sterne verdient Der Autor von ControlNet hat einen weiteren Hit! Der gesamte Prozess der Generierung eines Gemäldes aus einem Bild, der in zwei Tagen 1,4.000 Sterne verdient Jul 17, 2024 am 01:56 AM

Es ist ebenfalls ein Tusheng-Video, aber PaintsUndo ist einen anderen Weg gegangen. ControlNet-Autor LvminZhang begann wieder zu leben! Dieses Mal ziele ich auf den Bereich der Malerei. Das neue Projekt PaintsUndo hat nicht lange nach seinem Start 1,4.000 Sterne erhalten (die immer noch wahnsinnig steigen). Projektadresse: https://github.com/lllyasviel/Paints-UNDO Bei diesem Projekt gibt der Benutzer ein statisches Bild ein, und PaintsUndo kann Ihnen dabei helfen, automatisch ein Video des gesamten Malprozesses zu erstellen, vom Linienentwurf bis zum fertigen Produkt . Während des Zeichenvorgangs sind die Linienänderungen erstaunlich. Das Endergebnis des Videos ist dem Originalbild sehr ähnlich: Schauen wir uns eine vollständige Zeichnung an.

Die agentenlose Lösung von UIUC steht ganz oben auf der Liste der Open-Source-KI-Softwareentwickler und löst problemlos echte Programmierprobleme im SWE-Bench Die agentenlose Lösung von UIUC steht ganz oben auf der Liste der Open-Source-KI-Softwareentwickler und löst problemlos echte Programmierprobleme im SWE-Bench Jul 17, 2024 pm 10:02 PM

Die AIxiv-Kolumne ist eine Kolumne, in der diese Website akademische und technische Inhalte veröffentlicht. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. Einreichungs-E-Mail: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Die Autoren dieses Artikels stammen alle aus dem Team von Lehrer Zhang Lingming an der University of Illinois in Urbana-Champaign, darunter: Steven Code Repair; Doktorand im vierten Jahr, Forscher

arXiv-Artikel können als „Barrage' gepostet werden, die Diskussionsplattform von Stanford alphaXiv ist online, LeCun gefällt es arXiv-Artikel können als „Barrage' gepostet werden, die Diskussionsplattform von Stanford alphaXiv ist online, LeCun gefällt es Aug 01, 2024 pm 05:18 PM

Prost! Wie ist es, wenn es bei einer Papierdiskussion auf Worte ankommt? Kürzlich haben Studenten der Stanford University alphaXiv erstellt, ein offenes Diskussionsforum für arXiv-Artikel, das es ermöglicht, Fragen und Kommentare direkt zu jedem arXiv-Artikel zu posten. Website-Link: https://alphaxiv.org/ Tatsächlich ist es nicht erforderlich, diese Website speziell zu besuchen. Ändern Sie einfach arXiv in einer beliebigen URL in alphaXiv, um den entsprechenden Artikel direkt im alphaXiv-Forum zu öffnen: Sie können die Absätze darin genau lokalisieren das Papier, Satz: Im Diskussionsbereich auf der rechten Seite können Benutzer Fragen stellen, um dem Autor Fragen zu den Ideen und Details des Papiers zu stellen. Sie können beispielsweise auch den Inhalt des Papiers kommentieren, wie zum Beispiel: „Gegeben an.“

Unbegrenzte Videogenerierung, Planung und Entscheidungsfindung, erzwungene Verbreitung der nächsten Token-Vorhersage und vollständige Sequenzverbreitung Unbegrenzte Videogenerierung, Planung und Entscheidungsfindung, erzwungene Verbreitung der nächsten Token-Vorhersage und vollständige Sequenzverbreitung Jul 23, 2024 pm 02:05 PM

Derzeit sind autoregressive groß angelegte Sprachmodelle, die das nächste Token-Vorhersageparadigma verwenden, auf der ganzen Welt populär geworden. Gleichzeitig haben uns zahlreiche synthetische Bilder und Videos im Internet bereits die Leistungsfähigkeit von Diffusionsmodellen gezeigt. Kürzlich hat ein Forschungsteam am MITCSAIL (darunter Chen Boyuan, ein Doktorand am MIT) erfolgreich die leistungsstarken Fähigkeiten des Vollsequenz-Diffusionsmodells und des nächsten Token-Modells integriert und ein Trainings- und Sampling-Paradigma vorgeschlagen: Diffusion Forcing (DF). ). Papiertitel: DiffusionForcing:Next-tokenPredictionMeetsFull-SequenceDiffusion Papieradresse: https:/

Ein bedeutender Durchbruch in der Riemann-Hypothese! Tao Zhexuan empfiehlt dringend neue Arbeiten vom MIT und Oxford, und der 37-jährige Fields-Medaillengewinner nahm daran teil Ein bedeutender Durchbruch in der Riemann-Hypothese! Tao Zhexuan empfiehlt dringend neue Arbeiten vom MIT und Oxford, und der 37-jährige Fields-Medaillengewinner nahm daran teil Aug 05, 2024 pm 03:32 PM

Kürzlich gelang der Riemann-Hypothese, die als eines der sieben großen Probleme des Jahrtausends bekannt ist, ein neuer Durchbruch. Die Riemann-Hypothese ist ein sehr wichtiges ungelöstes Problem in der Mathematik, das sich auf die genauen Eigenschaften der Verteilung von Primzahlen bezieht (Primzahlen sind Zahlen, die nur durch 1 und sich selbst teilbar sind, und sie spielen eine grundlegende Rolle in der Zahlentheorie). In der heutigen mathematischen Literatur gibt es mehr als tausend mathematische Thesen, die auf der Aufstellung der Riemann-Hypothese (oder ihrer verallgemeinerten Form) basieren. Mit anderen Worten: Sobald die Riemann-Hypothese und ihre verallgemeinerte Form bewiesen sind, werden diese mehr als tausend Sätze als Theoreme etabliert, die einen tiefgreifenden Einfluss auf das Gebiet der Mathematik haben werden, und wenn sich die Riemann-Hypothese als falsch erweist, dann unter anderem Auch diese Sätze werden teilweise ihre Gültigkeit verlieren. Neuer Durchbruch kommt von MIT-Mathematikprofessor Larry Guth und der Universität Oxford

Axiomatisches Training ermöglicht es LLM, kausales Denken zu erlernen: Das 67-Millionen-Parameter-Modell ist vergleichbar mit der Billionen-Parameter-Ebene GPT-4 Axiomatisches Training ermöglicht es LLM, kausales Denken zu erlernen: Das 67-Millionen-Parameter-Modell ist vergleichbar mit der Billionen-Parameter-Ebene GPT-4 Jul 17, 2024 am 10:14 AM

Zeigen Sie LLM die Kausalkette und es lernt die Axiome. KI hilft Mathematikern und Wissenschaftlern bereits bei der Forschung. Beispielsweise hat der berühmte Mathematiker Terence Tao wiederholt seine Forschungs- und Forschungserfahrungen mit Hilfe von KI-Tools wie GPT geteilt. Damit KI in diesen Bereichen konkurrenzfähig sein kann, sind starke und zuverlässige Fähigkeiten zum kausalen Denken unerlässlich. Die in diesem Artikel vorgestellte Forschung ergab, dass ein Transformer-Modell, das auf die Demonstration des kausalen Transitivitätsaxioms für kleine Graphen trainiert wurde, auf das Transitivitätsaxiom für große Graphen verallgemeinern kann. Mit anderen Worten: Wenn der Transformer lernt, einfache kausale Überlegungen anzustellen, kann er für komplexere kausale Überlegungen verwendet werden. Der vom Team vorgeschlagene axiomatische Trainingsrahmen ist ein neues Paradigma zum Erlernen des kausalen Denkens auf der Grundlage passiver Daten, nur mit Demonstrationen

See all articles