Maison Périphériques technologiques IA Le deuxième produit d'IA de Musk, PromptIDE, est annoncé, et le développement de Grok en est indissociable

Le deuxième produit d'IA de Musk, PromptIDE, est annoncé, et le développement de Grok en est indissociable

Nov 07, 2023 pm 03:13 PM
工程 xai promptide

Commentaires des internautes : La vitesse de développement de l'équipe xAI est trop rapide ! Tout simplement incroyable !


Cela ne fait qu'un jour depuis que xAI de Musk a annoncé Grok. Tout à l'heure, xAI a annoncé un autre produit d'IA, un environnement de développement intégré qui peut être utilisé pour des recherches rapides d'ingénierie et d'interprétabilité : PromptIDE.

Les sorties continues de nouveaux produits ont également fait soupirer les internautes : « La vitesse de développement de l'équipe xAI est tout simplement folle ! Il accélère le projet d'invite via le SDK, et le SDK peut compléter une technologie d'invite complexe, et peut également effectuer une analyse des résultats, visualiser la sortie du réseau, etc.
Le deuxième produit dIA de Musk, PromptIDE, est annoncé, et le développement de Grok en est indissociable
Il convient de noter que xAI a largement utilisé cette technologie dans le développement de Grok.


Avec PromptIDE, les ingénieurs et les chercheurs peuvent accéder de manière transparente aux modèles Grok-1 (les modèles qui alimentent Grok). L'IDE aide les utilisateurs à explorer rapidement les capacités de notre grand modèle (LLM). Au cœur de l'EDI se trouve un éditeur de code Python qui, combiné au nouveau SDK, permet une technologie d'invite sophistiquée. Lors de l'exécution de l'invite dans l'EDI, les utilisateurs verront des analyses utiles, telles que la probabilité d'échantillonnage, le masque d'attention agrégé, etc.

L'IDE enregistre automatiquement toutes les invites et dispose d'un contrôle de version intégré, et permet également aux utilisateurs de comparer le résultat de différentes technologies d'invite. Enfin, les utilisateurs peuvent télécharger de petits fichiers tels que des fichiers CSV et les lire à l'aide d'une seule fonction Python dans le SDK. Combinés aux fonctionnalités de concurrence du SDK, même les fichiers légèrement plus volumineux peuvent être traités rapidement.
Ce qui suit est une démonstration des principales fonctions de l'IDE.

Éditeur de code et SDK

Le cœur de PromptIDE est l'éditeur de code + le SDK Python, où le SDK fournit un nouveau paradigme de programmation qui peut implémenter une technologie d'invite complexe.
Le deuxième produit dIA de Musk, PromptIDE, est annoncé, et le développement de Grok en est indissociable
Comme le montre la figure ci-dessus, les utilisateurs peuvent utiliser la fonction prompt () pour ajouter manuellement des jetons au contexte, ou ils peuvent utiliser la fonction sample () pour générer des jetons en fonction du contexte.

De plus, plusieurs Web Workers peuvent s'exécuter simultanément, ce qui signifie que les utilisateurs peuvent exécuter plusieurs invites en parallèle.
Le deuxième produit dIA de Musk, PromptIDE, est annoncé, et le développement de Grok en est indissociable
Les utilisateurs peuvent également utiliser plusieurs contextes dans le même programme pour mettre en œuvre des techniques d'invite complexes. Si une fonction est annotée avec le décorateur @prompt_fn, elle sera exécutée dans son propre nouveau contexte et la fonction pourra effectuer certaines opérations indépendamment de son contexte parent. Ce paradigme de programmation prend en charge les invites récursives et itératives avec des sous-contextes arbitrairement imbriqués.
Le deuxième produit dIA de Musk, PromptIDE, est annoncé, et le développement de Grok en est indissociable
Concurrence : le SDK utilise des coroutines Python pour traiter simultanément plusieurs fonctions Python annotées @prompt_fn afin d'accélérer le processus temporel, en particulier lors du traitement des fichiers CSV.

Entrée utilisateur : l'invite peut être interagi via la fonction user_input (). La fonction user_input() renvoie une chaîne saisie par l'utilisateur, qui peut ensuite être ajoutée au contexte via la fonction prompt(). Grâce à ces API, un chatbot peut être implémenté avec seulement quatre lignes de code :
Le deuxième produit dIA de Musk, PromptIDE, est annoncé, et le développement de Grok en est indissociable
Fichiers : les développeurs peuvent télécharger des fichiers plus petits sur PromptIDE (jusqu'à 5 Mo par fichier, jusqu'à 50 Mo au total) et les ajouter dans une invite d'utilisation. les fichiers qu'ils ont téléchargés. La fonction read_file() renvoie tout fichier téléchargé sous forme de tableau d'octets. Celles-ci, combinées aux fonctionnalités de concurrence mentionnées ci-dessus, permettent le traitement par lots des invites.
Le deuxième produit dIA de Musk, PromptIDE, est annoncé, et le développement de Grok en est indissociable
Analyse : lors de l'exécution de l'invite, les utilisateurs verront une analyse détaillée des jetons pour les aider à mieux comprendre la sortie du modèle.
Le deuxième produit dIA de Musk, PromptIDE, est annoncé, et le développement de Grok en est indissociable
Le deuxième produit dIA de Musk, PromptIDE, est annoncé, et le développement de Grok en est indissociable
Lorsque l'utilisateur utilise la fonction user_input(), une zone de texte s'affiche dans la fenêtre où l'utilisateur peut saisir une réponse. La capture d'écran ci-dessous montre le résultat de l'exécution de l'extrait de code du chatbot répertorié ci-dessus.
Le deuxième produit dIA de Musk, PromptIDE, est annoncé, et le développement de Grok en est indissociable
Enfin, lorsqu'il n'est pas nécessaire de visualiser le token, le contexte peut également être présenté en markdown pour améliorer la lisibilité.
Le deuxième produit dIA de Musk, PromptIDE, est annoncé, et le développement de Grok en est indissociable
Lien de référence : https://x.ai/prompt-ide/

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn

Outils d'IA chauds

Undresser.AI Undress

Undresser.AI Undress

Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover

AI Clothes Remover

Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool

Undress AI Tool

Images de déshabillage gratuites

Clothoff.io

Clothoff.io

Dissolvant de vêtements AI

Video Face Swap

Video Face Swap

Échangez les visages dans n'importe quelle vidéo sans effort grâce à notre outil d'échange de visage AI entièrement gratuit !

Outils chauds

Bloc-notes++7.3.1

Bloc-notes++7.3.1

Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise

SublimeText3 version chinoise

Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1

Envoyer Studio 13.0.1

Puissant environnement de développement intégré PHP

Dreamweaver CS6

Dreamweaver CS6

Outils de développement Web visuel

SublimeText3 version Mac

SublimeText3 version Mac

Logiciel d'édition de code au niveau de Dieu (SublimeText3)

L'auteur de ControlNet a encore un succès ! L'ensemble du processus de génération d'une peinture à partir d'une image, gagnant 1,4k étoiles en deux jours L'auteur de ControlNet a encore un succès ! L'ensemble du processus de génération d'une peinture à partir d'une image, gagnant 1,4k étoiles en deux jours Jul 17, 2024 am 01:56 AM

Il s'agit également d'une vidéo Tusheng, mais PaintsUndo a emprunté une voie différente. L'auteur de ControlNet, LvminZhang, a recommencé à vivre ! Cette fois, je vise le domaine de la peinture. Le nouveau projet PaintsUndo a reçu 1,4kstar (toujours en hausse folle) peu de temps après son lancement. Adresse du projet : https://github.com/lllyasviel/Paints-UNDO Grâce à ce projet, l'utilisateur saisit une image statique et PaintsUndo peut automatiquement vous aider à générer une vidéo de l'ensemble du processus de peinture, du brouillon de ligne au suivi du produit fini. . Pendant le processus de dessin, les changements de lignes sont étonnants. Le résultat vidéo final est très similaire à l’image originale : jetons un coup d’œil à un dessin complet.

En tête de liste des ingénieurs logiciels d'IA open source, la solution sans agent de l'UIUC résout facilement les problèmes de programmation réels du banc SWE. En tête de liste des ingénieurs logiciels d'IA open source, la solution sans agent de l'UIUC résout facilement les problèmes de programmation réels du banc SWE. Jul 17, 2024 pm 10:02 PM

La colonne AIxiv est une colonne où ce site publie du contenu académique et technique. Au cours des dernières années, la rubrique AIxiv de ce site a reçu plus de 2 000 rapports, couvrant les meilleurs laboratoires des principales universités et entreprises du monde entier, favorisant efficacement les échanges et la diffusion académiques. Si vous souhaitez partager un excellent travail, n'hésitez pas à contribuer ou à nous contacter pour un rapport. Courriel de soumission : liyazhou@jiqizhixin.com ; zhaoyunfeng@jiqizhixin.com Les auteurs de cet article font tous partie de l'équipe de l'enseignant Zhang Lingming de l'Université de l'Illinois à Urbana-Champaign (UIUC), notamment : Steven Code repair ; doctorant en quatrième année, chercheur

Du RLHF au DPO en passant par TDPO, les algorithmes d'alignement des grands modèles sont déjà « au niveau des jetons » Du RLHF au DPO en passant par TDPO, les algorithmes d'alignement des grands modèles sont déjà « au niveau des jetons » Jun 24, 2024 pm 03:04 PM

La colonne AIxiv est une colonne où ce site publie du contenu académique et technique. Au cours des dernières années, la rubrique AIxiv de ce site a reçu plus de 2 000 rapports, couvrant les meilleurs laboratoires des principales universités et entreprises du monde entier, favorisant efficacement les échanges et la diffusion académiques. Si vous souhaitez partager un excellent travail, n'hésitez pas à contribuer ou à nous contacter pour un rapport. Courriel de soumission : liyazhou@jiqizhixin.com ; zhaoyunfeng@jiqizhixin.com Dans le processus de développement de l'intelligence artificielle, le contrôle et le guidage des grands modèles de langage (LLM) ont toujours été l'un des principaux défis, visant à garantir que ces modèles sont à la fois puissant et sûr au service de la société humaine. Les premiers efforts se sont concentrés sur les méthodes d’apprentissage par renforcement par feedback humain (RL

Travail posthume de l'équipe OpenAI Super Alignment : deux grands modèles jouent à un jeu et le résultat devient plus compréhensible Travail posthume de l'équipe OpenAI Super Alignment : deux grands modèles jouent à un jeu et le résultat devient plus compréhensible Jul 19, 2024 am 01:29 AM

Si la réponse donnée par le modèle d’IA est incompréhensible du tout, oseriez-vous l’utiliser ? À mesure que les systèmes d’apprentissage automatique sont utilisés dans des domaines de plus en plus importants, il devient de plus en plus important de démontrer pourquoi nous pouvons faire confiance à leurs résultats, et quand ne pas leur faire confiance. Une façon possible de gagner confiance dans le résultat d'un système complexe est d'exiger que le système produise une interprétation de son résultat qui soit lisible par un humain ou un autre système de confiance, c'est-à-dire entièrement compréhensible au point que toute erreur possible puisse être trouvé. Par exemple, pour renforcer la confiance dans le système judiciaire, nous exigeons que les tribunaux fournissent des avis écrits clairs et lisibles qui expliquent et soutiennent leurs décisions. Pour les grands modèles de langage, nous pouvons également adopter une approche similaire. Cependant, lorsque vous adoptez cette approche, assurez-vous que le modèle de langage génère

Une avancée significative dans l'hypothèse de Riemann ! Tao Zhexuan recommande fortement les nouveaux articles du MIT et d'Oxford, et le lauréat de la médaille Fields, âgé de 37 ans, a participé Une avancée significative dans l'hypothèse de Riemann ! Tao Zhexuan recommande fortement les nouveaux articles du MIT et d'Oxford, et le lauréat de la médaille Fields, âgé de 37 ans, a participé Aug 05, 2024 pm 03:32 PM

Récemment, l’hypothèse de Riemann, connue comme l’un des sept problèmes majeurs du millénaire, a réalisé une nouvelle avancée. L'hypothèse de Riemann est un problème mathématique non résolu très important, lié aux propriétés précises de la distribution des nombres premiers (les nombres premiers sont les nombres qui ne sont divisibles que par 1 et par eux-mêmes, et jouent un rôle fondamental dans la théorie des nombres). Dans la littérature mathématique actuelle, il existe plus d'un millier de propositions mathématiques basées sur l'établissement de l'hypothèse de Riemann (ou sa forme généralisée). En d’autres termes, une fois que l’hypothèse de Riemann et sa forme généralisée seront prouvées, ces plus d’un millier de propositions seront établies sous forme de théorèmes, qui auront un impact profond sur le domaine des mathématiques et si l’hypothèse de Riemann s’avère fausse, alors parmi eux ; ces propositions qui en font partie perdront également de leur efficacité. Une nouvelle percée vient du professeur de mathématiques du MIT, Larry Guth, et de l'Université d'Oxford

Les articles arXiv peuvent être publiés sous forme de 'barrage', la plateforme de discussion alphaXiv de Stanford est en ligne, LeCun l'aime Les articles arXiv peuvent être publiés sous forme de 'barrage', la plateforme de discussion alphaXiv de Stanford est en ligne, LeCun l'aime Aug 01, 2024 pm 05:18 PM

acclamations! Qu’est-ce que ça fait lorsqu’une discussion sur papier se résume à des mots ? Récemment, des étudiants de l'Université de Stanford ont créé alphaXiv, un forum de discussion ouvert pour les articles arXiv qui permet de publier des questions et des commentaires directement sur n'importe quel article arXiv. Lien du site Web : https://alphaxiv.org/ En fait, il n'est pas nécessaire de visiter spécifiquement ce site Web. Il suffit de remplacer arXiv dans n'importe quelle URL par alphaXiv pour ouvrir directement l'article correspondant sur le forum alphaXiv : vous pouvez localiser avec précision les paragraphes dans. l'article, Phrase : dans la zone de discussion sur la droite, les utilisateurs peuvent poser des questions à l'auteur sur les idées et les détails de l'article. Par exemple, ils peuvent également commenter le contenu de l'article, tels que : "Donné à".

Le premier MLLM basé sur Mamba est là ! Les poids des modèles, le code de formation, etc. sont tous open source Le premier MLLM basé sur Mamba est là ! Les poids des modèles, le code de formation, etc. sont tous open source Jul 17, 2024 am 02:46 AM

La colonne AIxiv est une colonne où ce site publie du contenu académique et technique. Au cours des dernières années, la rubrique AIxiv de ce site a reçu plus de 2 000 rapports, couvrant les meilleurs laboratoires des principales universités et entreprises du monde entier, favorisant efficacement les échanges et la diffusion académiques. Si vous souhaitez partager un excellent travail, n'hésitez pas à contribuer ou à nous contacter pour un rapport. Courriel de soumission : liyazhou@jiqizhixin.com ; zhaoyunfeng@jiqizhixin.com. Introduction Ces dernières années, l'application de grands modèles de langage multimodaux (MLLM) dans divers domaines a connu un succès remarquable. Cependant, en tant que modèle de base pour de nombreuses tâches en aval, le MLLM actuel se compose du célèbre réseau Transformer, qui

La formation Axiom permet au LLM d'apprendre le raisonnement causal : le modèle à 67 millions de paramètres est comparable au niveau de mille milliards de paramètres GPT-4. La formation Axiom permet au LLM d'apprendre le raisonnement causal : le modèle à 67 millions de paramètres est comparable au niveau de mille milliards de paramètres GPT-4. Jul 17, 2024 am 10:14 AM

Montrez la chaîne causale à LLM et il pourra apprendre les axiomes. L'IA aide déjà les mathématiciens et les scientifiques à mener des recherches. Par exemple, le célèbre mathématicien Terence Tao a partagé à plusieurs reprises son expérience de recherche et d'exploration à l'aide d'outils d'IA tels que GPT. Pour que l’IA soit compétitive dans ces domaines, des capacités de raisonnement causal solides et fiables sont essentielles. La recherche présentée dans cet article a révélé qu'un modèle Transformer formé sur la démonstration de l'axiome de transitivité causale sur de petits graphes peut se généraliser à l'axiome de transitivité sur de grands graphes. En d’autres termes, si le Transformateur apprend à effectuer un raisonnement causal simple, il peut être utilisé pour un raisonnement causal plus complexe. Le cadre de formation axiomatique proposé par l'équipe est un nouveau paradigme pour l'apprentissage du raisonnement causal basé sur des données passives, avec uniquement des démonstrations.

See all articles