Maison > Périphériques technologiques > IA > Pour compenser les lacunes du paramètre 'Alpaca' de 7 milliards de Stanford, un grand modèle maîtrisant le chinois est ici et a été open source

Pour compenser les lacunes du paramètre 'Alpaca' de 7 milliards de Stanford, un grand modèle maîtrisant le chinois est ici et a été open source

PHPz
Libérer: 2023-03-31 22:39:14
avant
1813 Les gens l'ont consulté

BELLE est basé sur Stanford Alpaca et optimisé pour le chinois. Le réglage du modèle utilise uniquement les données produites par ChatGPT (n'inclut aucune autre donnée).

Cela fait presque quatre mois depuis la sortie initiale de ChatGPT. Lorsque GPT-4 est sorti la semaine dernière, ChatGPT a immédiatement lancé la nouvelle version. Mais un secret bien connu est que ni ChatGPT ni GPT-4 ne sont susceptibles d’être open source. En plus de l’énorme investissement en puissance de calcul et en données de formation massives, la communauté des chercheurs se heurte à de nombreux obstacles pour reproduire son processus de mise en œuvre.

Face à l'assaut des grands modèles comme ChatGPT, le remplacement open source est un bon choix. Au début de ce mois, Meta a « open source » une nouvelle grande série de modèles - LLaMA (Large Language Model Meta AI), avec des tailles de paramètres allant de 7 milliards à 65 milliards. Le modèle LLaMA à 13 milliards de paramètres surpasse le GPT-3 à 175 milliards de paramètres « sur la plupart des benchmarks » et peut fonctionner sur un seul GPU V100.

Quelques jours plus tard, Stanford a peaufiné un nouveau modèle Alpaca avec 7 milliards de paramètres basé sur LLaMA 7B. Ils ont utilisé la technologie introduite dans l'article Self-Instruct pour générer 52 000 données d'instructions et ont apporté quelques modifications dans la version préliminaire. évaluation humaine, le modèle Alpaca 7B fonctionne de manière similaire au modèle text-davinci-003 (GPT-3.5) sur l'évaluation des instructions d'auto-instruction.

Mais malheureusement, les tâches de départ d'Alpaca sont toutes en anglais, et les données collectées sont également en anglais, donc le modèle entraîné n'est pas optimisé pour le chinois. Existe-t-il une meilleure façon d’améliorer l’efficacité du modèle de dialogue en chinois ? Ne vous inquiétez pas, le projet présenté ensuite peut très bien résoudre ce problème.

Le grand modèle de dialogue chinois open sourceBELLE (Bloom-Enhanced Large Language model Engine) avec 7 milliards de paramètres est ici. Il est basé sur Alpaca de Stanford, mais avec une optimisation chinoise et quelques modifications du code généré. De plus, le réglage du modèle utilise uniquement les données produites par ChatGPT (ne contient aucune autre donnée).

En termes de données, le projet a open source le code de collecte de données basé sur Alpaca. Sur la base de ce code, environ 1 million de données chinoises ont été générées combinées avec 50 000 données anglaises d'Alpaca, le point de contrôle obtenu du BLOOMZ. La formation du modèle -7B a été téléchargée sur Hugging Face.

Adresse Hugging Face : https://huggingface.co/BelleGroup

L'auteur du projet a déclaré : Ce projet vise à promouvoir le développement de la communauté open source de grand modèle de dialogue chinois.

Pour compenser les lacunes du paramètre Alpaca de 7 milliards de Stanford, un grand modèle maîtrisant le chinois est ici et a été open source

Adresse du projet : https://github.com/LianjiaTech/BELLE

Introduction au projet

Le projet contient principalement les quatre parties suivantes :

  • 175 tâches de semences chinoises
  • Code pour générer des données
  • 0,5 M données générées
  • Basé sur le modèle optimisé BLOOMZ-7B1-mt

Data release

1 zh_seed_tasks.jsonl : contient 175 tâches de départ, l'échantillon est le suivant

{"id": "seed_task_20", "name": "horror_movie_opening", "instruction": "Vous devez écrire une scène d'ouverture créative pour un film d'horreur ", "instances": [{"input": "","output": Soleil. Les montagnes ont ensemble, laissant derrière lui une ville sombre. La brise souffle dans les rues vides, envoyant un frisson à tous ceux qui s'aventurent dehors. Soudain, le seul bruit est le léger bruissement des feuilles soufflées par le vent. Un cri à glacer le sang perce le silence, suivi de. le bruit du verre brisé. Une maison s'illumine et on peut voir une silhouette courir vers le centre de la ville. Cela devient clair à mesure que la silhouette se rapproche, j'ai vu que c'était une jeune femme avec du sang sur tout le corps "}. ], "is_classification": false}

2. prompt_cn.txt : Invite utilisée pour générer

3. 0,5 million de données générées

Génération de données

Suivez la méthode d'Alpaca :

pip install -r Requirements.txt.
export OPENAI_API_KEY=YOUR_API_KEY
python generate_instruction.py generate_instruction_following_data

Utilisez l'API de complétion par défaut, modèle text-davinci-003. Si vous souhaitez utiliser l'API Chat et utiliser le modèle gpt-3.5-turbo, vous pouvez le contrôler via les paramètres :

python generate_instruction.py generate_instruction_following_data
--api=chat --model_name=gpt-3.5-turbo

Le Le fichier de sortie est dans Belle.train, qui peut être filtré manuellement avant utilisation.

Model Tuning

Ce projet est basé sur le modèle BLOOMZ-7B1-mt et le modèle de formation Belle.train.json Les paramètres spécifiques sont les suivants :

Pour compenser les lacunes du paramètre Alpaca de 7 milliards de Stanford, un grand modèle maîtrisant le chinois est ici et a été open source

De plus, le projet adopte également différents. échelles (200 000, 600 000, 1 000 000 et 2 000 000 d'échantillons), et les différentes versions du modèle sont obtenues comme suit :

Pour compenser les lacunes du paramètre Alpaca de 7 milliards de Stanford, un grand modèle maîtrisant le chinois est ici et a été open source

Exemples d'utilisation du modèle

Pour compenser les lacunes du paramètre Alpaca de 7 milliards de Stanford, un grand modèle maîtrisant le chinois est ici et a été open source

Limitations et restrictions d'utilisation

Le modèle SFT formé sur la base des données actuelles et du modèle de base présente toujours les problèmes suivants en termes d'effet :

  • Quand il arrive aux faits Les instructions peuvent donner des réponses erronées qui vont à l’encontre des faits.
  • Les instructions dangereuses ne peuvent pas être bien identifiées, ce qui entraîne des remarques nuisibles.
  • Les capacités du modèle doivent encore être améliorées dans certains scénarios impliquant du raisonnement, du codage, etc.
  • Sur la base des limites du modèle ci-dessus, ce projet oblige les développeurs à utiliser uniquement le code source ouvert, les données, les modèles et les dérivés ultérieurs générés par ce projet à des fins de recherche et non à des fins commerciales ou à d'autres fins susceptibles de nuire à la société. utiliser.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Étiquettes associées:
source:51cto.com
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal