Maison > Périphériques technologiques > IA > le corps du texte

'Modèle de langage open source d'une société de dessin d'IA populaire, avec une échelle minimale de 3 milliards de paramètres'

PHPz
Libérer: 2023-04-21 20:40:07
avant
1529 Les gens l'ont consulté

La société qui a produit Stable Diffusion a également produit un grand modèle de langage, et l'effet est plutôt bon. Mercredi, la sortie de StableLM a attiré l'attention du cercle technologique.

Stability AI est une startup qui a pris de l'ampleur récemment. Elle a été bien accueillie pour son outil de dessin d'IA open source Stable Diffusion. Dans un communiqué publié mercredi, la société a annoncé que son grand modèle de langage est désormais disponible pour que les développeurs puissent l'utiliser et l'adapter sur GitHub.

Comme la référence du secteur ChatGPT, StableLM est conçu pour générer efficacement du texte et du code. Il est formé sur une version plus grande de l'ensemble de données open source appelé Pile, qui contient des informations provenant de diverses sources, notamment Wikipedia, Stack Exchange et PubMed, pour un total de 22 ensembles de données d'une capacité de 825 Go et 1,5 billion de jetons.

Stability AI a déclaré que les paramètres de la version actuellement disponible du modèle StableLM vont de 3 milliards à 7 milliards, et qu'à l'avenir, des modèles à paramètres multiples allant de 1,5 milliard à 65 milliards seront disponibles.

Modèle de langage open source dune société de dessin dIA populaire, avec une échelle minimale de 3 milliards de paramètres

Lien du projet : https://github.com/stability-AI/stableLM/

Modèle de langage open source dune société de dessin dIA populaire, avec une échelle minimale de 3 milliards de paramètres

Selon les tests des personnes actuelles, si vous exécutez le modèle 7B (8 bits), vous devez utiliser 12 Go de mémoire vidéo.

Stability AI a également publié quelques exemples de questions et réponses StableLM :

Modèle de langage open source dune société de dessin dIA populaire, avec une échelle minimale de 3 milliards de paramètres

Modèle de langage open source dune société de dessin dIA populaire, avec une échelle minimale de 3 milliards de paramètres

Modèle de langage open source dune société de dessin dIA populaire, avec une échelle minimale de 3 milliards de paramètres

StableLM est basé sur le modèle de langage open source que Stability AI a précédemment développé en coopération avec l'organisation à but non lucratif. organisation EleutherAI, comprenant GPT-J, GPT-NeoX et Pythia, le nouveau modèle cible la plus grande base d'utilisateurs possible. Auparavant chez Stable Diffusion, Stability AI a rendu sa technologie d'IA texte-image disponible de diverses manières, notamment des démonstrations publiques, des versions bêta de logiciels et des téléchargements complets de modèles, tout en permettant aux développeurs d'utiliser ses outils et de réaliser diverses intégrations.

Par rapport à la nature fermée d'OpenAI, Stability AI s'est toujours positionné en tant que membre de la communauté de recherche en IA. Nous verrons très probablement la même situation sur StableLM que le modèle de langage open source Meta LLaMa publié le mois dernier. . Un grand nombre d’algorithmes basés sur le modèle original peuvent apparaître, obtenant de bons résultats sur des modèles de plus petite taille.

Modèle de langage open source dune société de dessin dIA populaire, avec une échelle minimale de 3 milliards de paramètres

L'interface de discussion optimisée de StableLM.

De plus, tout le monde peut désormais essayer de discuter avec l'IA sur le modèle de discussion affiné StableLM hébergé sur Hugging Face : https://huggingface.co/spaces/stabilityai/stablelm-tuned-alpha-chat

Comme tous les grands modèles de langage, le modèle StableLM souffre toujours du problème de "l'illusion". Si vous essayez de lui demander comment faire un sandwich au beurre de cacahuète, StableLM vous donnera une recette très compliquée et ridicule. Il recommande également aux gens d'ajouter une « image amusante » à leurs cartes de sympathie.

Stability AI prévient que même si l'ensemble de données qu'il utilise devrait aider à "guider le modèle linguistique sous-jacent vers une distribution de texte "plus sûre", tous les biais et la toxicité ne peuvent pas être atténués par un réglage fin

."

Le modèle StableLM est désormais disponible dans le référentiel GitHub. Stability AI a annoncé qu'elle publierait un rapport technique complet dans un avenir proche, en plus de lancer une initiative RLHF de crowdsourcing et de travailler avec des communautés comme Open Assistant pour créer un ensemble de données open source pour l'assistant de chat AI.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Étiquettes associées:
source:51cto.com
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal
À propos de nous Clause de non-responsabilité Sitemap
Site Web PHP chinois:Formation PHP en ligne sur le bien-être public,Aidez les apprenants PHP à grandir rapidement!