


Sam Altman parle d'OpenAI : face à la panique liée à la pénurie de GPU, GPT-3 pourrait être open source
Depuis l'avènement de ChatGPT, les grands modèles et la technologie de l'IA ont attiré une large attention dans le monde entier. D’un côté, les gens s’émerveillent devant les capacités émergentes des grands modèles ; de l’autre, ils s’inquiètent de la contrôlabilité et du développement futur de l’intelligence artificielle. Cette année, de nombreux experts dans le domaine de l'IA, dont Geoffrey Hinton et Yoshua Bengio, lauréats du prix Turing, ont averti conjointement que les grands modèles d'IA entraîneraient une série de risques, et certains ont même appelé à l'arrêt du développement de grands modèles ultérieurs. Modèles d'IA pour GPT-4.
OpenAI, en tant qu'entreprise à l'origine de grands modèles tels que ChatGPT et GPT-4, a sans aucun doute été poussée au premier plan. Le PDG d'OpenAI, Sam Altman, effectue actuellement une tournée mondiale de conférences pour dissiper la « peur » des gens à l'égard de l'intelligence artificielle et écouter les opinions des développeurs et des utilisateurs des produits OpenAI. En mai, Sam Altman et certains développeurs que j'ai rencontrés à huis clos avec les fondateurs de startups et ont parlé de la feuille de route et des défis d'OpenAI. L’un des participants à cette réunion à huis clos, Raza Habib, co-fondateur et PDG de Humanloop, a récemment évoqué les goulots d’étranglement de planification et de développement des produits OpenAI dans un blog.
Le blog d'origine a été supprimé, mais certains internautes ont mis en ligne un instantané du blog (copie). Jetons un coup d'œil au contenu spécifique du blog : #🎜🎜. #
Actuellement, OpenAI est confronté à de très graves limitations du GPU, ce qui a également retardé la mise en œuvre de certains de leurs projets à court terme. De nos jours, les plaintes des clients les plus courantes concernent la fiabilité et la rapidité des API. Sam a reconnu le problème, expliquant que la plupart des problèmes dont les clients se plaignaient étaient dus à des pénuries de GPU.
En ce qui concerne le traitement du texte, le contexte plus long de 32k n'est pas encore disponible pour un plus grand nombre de personnes. Maintenant, OpenAI n'a pas complètement surmonté le problème d'expansion O (n ^ 2) du mécanisme d'attention. Bien qu'OpenAI semble être capable d'atteindre bientôt un traitement de texte de 100 000 à 1 million de fenêtres contextuelles de jetons (au cours de cette année), des fenêtres de traitement de texte plus grandes nécessitent des progrès supplémentaires. . les avancées de la recherche.
Non seulement cela, mais actuellement, l'API de réglage fin est également limitée par l'offre de GPU. OpenAI n'utilise pas encore de méthodes de réglage efficaces telles que les adaptateurs ou LoRa, le réglage fin nécessite donc beaucoup de calculs à exécuter et à gérer. Sam a révélé qu'une meilleure technologie de réglage sera introduite à l'avenir et qu'elle pourrait même fournir une communauté dédiée aux modèles de recherche.De plus, la fourniture de capacité dédiée est également limitée par l'offre de GPU. OpenAI offre également une capacité dédiée, offrant aux clients une copie privée de leur modèle. Pour utiliser le service, les clients doivent être prêts à engager 100 000 $ d'avance.
La récente feuille de route d'OpenAI
Au cours de la conversation, Sam a partagé la récente feuille de route de l'API OpenAI, qui est principalement divisée en deux étapes : # 🎜🎜 #
En route vers 2023 :
La priorité d'OpenAI est de lancer GPT-4 moins cher et plus rapide - Dans En général, l'objectif d'OpenAI est de réduire autant que possible le coût de l'intelligence, de sorte que le coût de l'API diminuera avec le temps.Fenêtre contextuelle plus longue - Dans un avenir proche, la fenêtre contextuelle pourrait atteindre 1 million de jetons.
API Nudge - L'API Nudge sera étendue aux derniers modèles, mais sa forme exacte sera déterminée par les développeurs.
- API de statut - Désormais, lorsque vous appelez l'API de chat, vous devez parcourir le même historique de session encore et encore et payer pour le même jeton encore et encore. Une future version de l'API pourra mémoriser l'historique des sessions.
- Route 2024 :
- Multimodal - Ceci fait partie de la version GPT-4. Prêt pour la démo , mais pas évolutif pour tout le monde jusqu'à ce que davantage de GPU soient mis en ligne.
- Le plugin n'a pas de PMF et n'apparaîtra pas prochainement dans l'API
- De nombreux développeurs s'inquiètent de l'accès à ChatGPT via l'API Il y a un intérêt pour les plugins, mais Sam a dit qu'il ne pense pas qu'ils seront publiés de si tôt. L'utilisation de plugins autres que la navigation suggère qu'ils n'ont pas encore PMF. Sam a souligné que de nombreuses personnes souhaitent que leurs applications soient dans ChatGPT, mais ce qu'elles veulent vraiment, c'est ChatGPT dans l'application.
OpenAI évitera de rivaliser avec ses clients autrement que par concurrence avec ChatGPT-like
De nombreux développeurs disent que lorsqu'OpenAI lance de nouveaux produits, ils se sentent nerveux à l'idée des applications créées à l'aide de l'API OpenAI, car OpenAI pourrait éventuellement publier un produit qui leur concurrencerait. . Sam a déclaré qu'OpenAI ne lancerait pas d'autres produits que ChatGPT. Il a déclaré qu'il existe de nombreuses grandes entreprises de plate-forme qui disposent d'une application géniale, et ChatGPT leur permettra d'améliorer leurs API en devenant clients de leurs propres produits. La vision de ChatGPT est d'être un assistant de travail super intelligent, mais il existe de nombreux autres cas d'utilisation de GPT dans lesquels OpenAI n'abordera pas.
La réglementation est nécessaire, mais l'open source l'est aussi
Bien que Sam plaide en faveur d'une réglementation des futurs modèles, il ne croit pas que les modèles existants soient dangereux et estime que les réglementer ou les interdire serait une énorme erreur problématique. Il a une fois de plus souligné l'importance de l'open source et a déclaré qu'OpenAI envisageait l'open source GPT-3. Une partie de la raison pour laquelle OpenAI a mis du temps à devenir open source est qu'ils estiment que peu de personnes et d'entreprises ont la capacité de gérer correctement des modèles de langage aussi vastes.
La loi de la mise à l'échelle existe toujours
De nombreux articles affirmaient récemment que "l'ère des modèles géants d'IA est révolue". Sam a dit que cela ne traduisait pas exactement ce qu'il voulait dire.
Les données internes d'OpenAI montrent que la loi de la mise à l'échelle est toujours valable et que l'augmentation de la taille du modèle continuera d'améliorer les performances. Cependant, la taille du modèle ne peut pas toujours augmenter à la même échelle, car OpenAI a déjà augmenté la taille du modèle des millions de fois en quelques années seulement, et continuer dans cette voie ne serait pas durable. Mais cela ne signifie pas qu’OpenAI cessera d’essayer d’agrandir ses modèles, mais cela signifie que leur taille pourrait doubler ou tripler chaque année au lieu de croître de plusieurs ordres de grandeur.
Le fait que le modèle étendu soit toujours valable a des implications importantes pour le développement de l'AGI. L'idée de la mise à l'échelle est que nous disposons probablement déjà de la plupart des éléments nécessaires pour construire une AGI, et une grande partie du travail restant consistera à utiliser les méthodes existantes et à les adapter à des modèles et des ensembles de données plus grands. Si l’ère des extensions de modèles est révolue, il faudra encore plus de temps avant d’atteindre l’AGI. Le fait que la loi de l’échelle s’applique toujours implique que nous atteindrons l’AGI en moins de temps.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

AI Hentai Generator
Générez AI Hentai gratuitement.

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Lors de la conversion des chaînes en objets dans vue.js, JSON.Parse () est préféré pour les chaînes JSON standard. Pour les chaînes JSON non standard, la chaîne peut être traitée en utilisant des expressions régulières et réduisez les méthodes en fonction du format ou du codé décodé par URL. Sélectionnez la méthode appropriée en fonction du format de chaîne et faites attention aux problèmes de sécurité et d'encodage pour éviter les bogues.

Résumé: Il existe les méthodes suivantes pour convertir les tableaux de chaîne Vue.js en tableaux d'objets: Méthode de base: utilisez la fonction de carte pour convenir à des données formatées régulières. Gameplay avancé: l'utilisation d'expressions régulières peut gérer des formats complexes, mais ils doivent être soigneusement écrits et considérés. Optimisation des performances: Considérant la grande quantité de données, des opérations asynchrones ou des bibliothèques efficaces de traitement des données peuvent être utilisées. MEILLEUR PRATIQUE: Effacer le style de code, utilisez des noms de variables significatifs et des commentaires pour garder le code concis.

L'article présente le fonctionnement de la base de données MySQL. Tout d'abord, vous devez installer un client MySQL, tel que MySQLWorkBench ou le client de ligne de commande. 1. Utilisez la commande MySQL-UROot-P pour vous connecter au serveur et connecter avec le mot de passe du compte racine; 2. Utilisez Createdatabase pour créer une base de données et utilisez Sélectionner une base de données; 3. Utilisez CreateTable pour créer une table, définissez des champs et des types de données; 4. Utilisez InsertInto pour insérer des données, remettre en question les données, mettre à jour les données par mise à jour et supprimer les données par Supprimer. Ce n'est qu'en maîtrisant ces étapes, en apprenant à faire face à des problèmes courants et à l'optimisation des performances de la base de données que vous pouvez utiliser efficacement MySQL.

Il existe de nombreuses raisons pour lesquelles la startup MySQL échoue, et elle peut être diagnostiquée en vérifiant le journal des erreurs. Les causes courantes incluent les conflits de port (vérifier l'occupation du port et la configuration de modification), les problèmes d'autorisation (vérifier le service exécutant les autorisations des utilisateurs), les erreurs de fichier de configuration (vérifier les paramètres des paramètres), la corruption du répertoire de données (restaurer les données ou reconstruire l'espace de la table), les problèmes d'espace de la table InNODB (vérifier les fichiers IBDATA1), la défaillance du chargement du plug-in (vérification du journal des erreurs). Lors de la résolution de problèmes, vous devez les analyser en fonction du journal d'erreur, trouver la cause profonde du problème et développer l'habitude de sauvegarder régulièrement les données pour prévenir et résoudre des problèmes.

Afin de définir le délai d'expiration de Vue Axios, nous pouvons créer une instance AxiOS et spécifier l'option Timeout: dans les paramètres globaux: vue.prototype. $ Axios = axios.create ({timeout: 5000}); Dans une seule demande: ce. $ axios.get ('/ api / utilisateurs', {timeout: 10000}).

Traiter efficacement 7 millions d'enregistrements et créer des cartes interactives avec la technologie géospatiale. Cet article explore comment traiter efficacement plus de 7 millions d'enregistrements en utilisant Laravel et MySQL et les convertir en visualisations de cartes interactives. Exigences initiales du projet de défi: extraire des informations précieuses en utilisant 7 millions d'enregistrements dans la base de données MySQL. Beaucoup de gens considèrent d'abord les langages de programmation, mais ignorent la base de données elle-même: peut-il répondre aux besoins? La migration des données ou l'ajustement structurel est-il requis? MySQL peut-il résister à une charge de données aussi importante? Analyse préliminaire: les filtres et les propriétés clés doivent être identifiés. Après analyse, il a été constaté que seuls quelques attributs étaient liés à la solution. Nous avons vérifié la faisabilité du filtre et établi certaines restrictions pour optimiser la recherche. Recherche de cartes basée sur la ville

Ingénieur backend à distance Emploi Vacant Société: Emplacement du cercle: Bureau à distance Type d'emploi: Salaire à temps plein: 130 000 $ - 140 000 $ Description du poste Participez à la recherche et au développement des applications mobiles Circle et des fonctionnalités publiques liées à l'API couvrant l'intégralité du cycle de vie de développement logiciel. Les principales responsabilités complètent indépendamment les travaux de développement basés sur RubyOnRails et collaborent avec l'équipe frontale React / Redux / Relay. Créez les fonctionnalités de base et les améliorations des applications Web et travaillez en étroite collaboration avec les concepteurs et le leadership tout au long du processus de conception fonctionnelle. Promouvoir les processus de développement positifs et hiérarchiser la vitesse d'itération. Nécessite plus de 6 ans de backend d'applications Web complexe

L'optimisation des performances MySQL doit commencer à partir de trois aspects: configuration d'installation, indexation et optimisation des requêtes, surveillance et réglage. 1. Après l'installation, vous devez ajuster le fichier my.cnf en fonction de la configuration du serveur, tel que le paramètre innodb_buffer_pool_size, et fermer query_cache_size; 2. Créez un index approprié pour éviter les index excessifs et optimiser les instructions de requête, telles que l'utilisation de la commande Explication pour analyser le plan d'exécution; 3. Utilisez le propre outil de surveillance de MySQL (ShowProcessList, Showstatus) pour surveiller la santé de la base de données, et sauvegarde régulièrement et organisez la base de données. Ce n'est qu'en optimisant en continu ces étapes que les performances de la base de données MySQL peuvent être améliorées.
