


La grande revue de modèles est là ! Un article vous aidera à clarifier l'histoire de l'évolution des grands modèles des géants mondiaux de l'IA
Xi Xiaoyao Science and Technology Talk Original
Auteur | Xiaoxi, Python
Si vous êtes novice en matière de grands modèles, que penserez-vous lorsque vous verrez pour la première fois l'étrange combinaison de ces mots GPT, PaLm et LLaMA ? Si je vais plus loin et que je vois des mots étranges comme BERT, BART, RoBERTa et ELMo apparaître les uns après les autres, je me demande si, en tant que novice, je vais devenir fou ?
Même un vétéran qui fait partie du petit cercle de la PNL depuis longtemps, avec la vitesse de développement explosive des grands modèles, peut être confus et incapable de suivre le développement rapide de nouveaux et rapides grands modèles. . À ce stade, vous devrez peut-être demander un examen de grand modèle pour vous aider ! Cette revue à grande échelle « Exploiter la puissance des LLM en pratique : une enquête sur ChatGPT et au-delà » lancée par des chercheurs d'Amazon, de la Texas A&M University et de la Rice University nous fournit un moyen de construire un « arbre généalogique ». passé, présent et futur des grands modèles représentés par ChatGPT, et sur la base des tâches, il a construit un guide pratique très complet pour les grands modèles, nous a présenté les avantages et les inconvénients des grands modèles dans différentes tâches, et a enfin souligné l'actuel risques et défis du modèle.
Titre de l'article :
Exploiter la puissance des LLM en pratique : une enquête sur ChatGPT et au-delà
Lien de l'article : https://www.php.cn/link/f50fb34f27bd263e6be8ffcf8967ced0
Page d'accueil du projet : https:// www.php.cn/link/968b15768f3d19770471e9436d97913c
Arbre généalogique - la vie passée et présente des grands modèles
La recherche de la "source de tout mal" des grands modèles devrait probablement commencer par l'article "L'attention est tout ce dont vous avez besoin ", basé sur cet article À partir de Transformer, un modèle de traduction automatique composé de plusieurs groupes d'Encoder et de Decoder proposé par l'équipe Google Machine Translation, le développement de grands modèles a généralement suivi deux voies. L'une consiste à abandonner la partie Décodeur et utilisez uniquement l'Encoder comme modèle de pré-formation pour l'encodeur , dont le représentant le plus célèbre est la famille Bert. Ces modèles ont commencé à essayer la méthode de « pré-formation non supervisée » pour mieux utiliser les données de langage naturel à grande échelle qui sont plus faciles à obtenir que d'autres données, et la méthode « non supervisée » est le modèle de langage masqué (MLM), via Let Mask Remove. quelques mots dans la phrase et laissez le modèle apprendre la capacité d'utiliser le contexte pour prédire les mots supprimés par Mask. Lorsque Bert est sorti, il était considéré comme une bombe dans le domaine de la PNL. En même temps, SOTA était utilisé dans de nombreuses tâches courantes de traitement du langage naturel, telles que l'analyse des sentiments, la reconnaissance d'entités nommées, etc. À l'exception de Bert et ALbert proposés. par Google, des représentants exceptionnels de la famille Bert. À cela s'ajoutent ERNIE de Baidu, RoBERTa de Meta, DeBERTa de Microsoft, etc.
Malheureusement, l'approche de Bert n'a pas réussi à briser la loi d'échelle, et ce point est fait par la force principale des grands modèles actuels, c'est-à-dire une autre façon de développer de grands modèles, en abandonnant la partie Encodeur et en se basant sur le Décodeur. fait partie de GPT La famille l'a vraiment fait. Le succès de la famille GPT vient de la découverte surprenante d'un chercheur : "L'augmentation de la taille du modèle de langage peut améliorer considérablement la capacité d'apprentissage par tir zéro (zero-shot) et par petits coups (quelques coups)." avec la famille Bert basée sur un réglage fin, il y a une grande différence, et c'est aussi la source du pouvoir magique des modèles linguistiques à grande échelle d'aujourd'hui. La famille GPT est formée sur la base de la prédiction du mot suivant à partir de la séquence de mots précédente. Par conséquent, GPT n'est initialement apparu que comme un modèle de génération de texte, et l'émergence de GPT-3 a été un tournant dans le destin de la famille GPT. 3 a été le premier. Il montre aux gens les capacités magiques apportées par les grands modèles au-delà de la génération de texte elle-même, et montre la supériorité de ces modèles de langage autorégressifs. À partir de GPT-3, les actuels ChatGPT, GPT-4, Bard, PaLM et LLaMA ont prospéré, ouvrant la voie à l'ère actuelle des grands modèles.
De la fusion des deux branches de cet arbre généalogique, nous pouvons voir les débuts de Word2Vec et FastText, jusqu'aux débuts de l'exploration d'ELMo et d'ULFMiT dans les modèles de pré-formation, jusqu'à l'émergence de Bert, qui est devenu un succès hit, et à la culture silencieuse de la famille GPT. Jusqu'aux débuts époustouflants de GPT-3, ChatGPT s'est envolé dans le ciel. En plus de l'itération de la technologie, nous pouvons également voir qu'OpenAI a adhéré silencieusement à son propre chemin technique et a finalement suivi. est devenu le leader incontesté des LLM. Nous avons vu que Google a fait de gros efforts dans l'ensemble de l'architecture du modèle Encoder-Decoder. Nous avons vu les contributions théoriques significatives apportées par Meta, la participation généreuse et continue de Meta à de grands projets open source de modèles, et bien sûr nous. Nous avons également vu la tendance des LLM à devenir progressivement des sources « fermées » depuis GPT-3. Il est très probable que la plupart des recherches devront évoluer vers des recherches basées sur les API.
Les données - la source du pouvoir des grands modèles
En dernière analyse, le pouvoir magique des grands modèles vient-il du GPT ? Je pense que la réponse est non. Presque chaque avancée en matière de capacités de la famille GPT a apporté des améliorations importantes en termes de quantité, de qualité et de diversité des données de pré-entraînement. Les données d'entraînement du grand modèle comprennent des livres, des articles, des informations sur des sites Web, des informations de code, etc. Le but de la saisie de ces données dans le grand modèle est de refléter pleinement et précisément « l'être humain » en indiquant au grand modèle les mots, la grammaire, la syntaxe et les informations sémantiques permettent au modèle d'acquérir la capacité de reconnaître le contexte et de générer des réponses cohérentes pour capturer les aspects de la connaissance humaine, de la langue, de la culture, etc.
D'une manière générale, face à de nombreuses tâches PNL, nous pouvons les classer en échantillons zéro, quelques échantillons et échantillons multiples du point de vue des informations d'annotation des données. Sans aucun doute, les LLM sont la méthode la plus appropriée pour les tâches sans tir. Sans aucune exception, les grands modèles sont loin devant les autres modèles pour les tâches sans tir. Dans le même temps, les tâches à quelques échantillons sont également très adaptées à l'application de grands modèles. En affichant des paires « question-réponse » pour les grands modèles, les performances des grands modèles peuvent être améliorées. Cette approche est également généralement appelée en contexte. Apprentissage. Bien que les grands modèles puissent également couvrir des tâches multi-échantillons, un réglage fin peut rester la meilleure méthode. Bien entendu, sous certaines contraintes telles que la confidentialité et l'informatique, les grands modèles peuvent toujours être utiles.
Dans le même temps, le modèle affiné est susceptible d'être confronté au problème des changements dans la distribution des données d'entraînement et des données de test. De manière significative, le modèle affiné fonctionne généralement très mal sur les données OOD. En conséquence, les LLM fonctionnent bien mieux car ils n'ont pas de processus d'ajustement explicite. L'apprentissage par renforcement ChatGPT typique basé sur la rétroaction humaine (RLHF) fonctionne bien dans la plupart des tâches de classification et de traduction hors distribution. Il fonctionne également bien sur DDXPlus, un. ensemble de données de diagnostic médical conçu pour l'évaluation OOD.
Guide pratique - Débuter avec les grands modèles axés sur les tâches
Souvent, l'affirmation « Les grands modèles sont bons ! » est suivie de la question « Comment utiliser les grands modèles et quand les utiliser face à un problème spécifique ? tâche , faut-il choisir le réglage fin, ou commencer par le grand modèle sans réfléchir ? Cet article résume un « flux de décision » pratique pour nous aider à déterminer s'il convient d'utiliser un grand modèle basé sur une série de questions telles que « s'il est nécessaire d'imiter les humains », « si des capacités de raisonnement sont requises », « s'il est multi -tâches".
Du point de vue de la classification des tâches PNL :
Compréhension traditionnelle du langage naturel
Il existe actuellement de nombreuses tâches PNL avec une grande quantité de données annotées riches, et le modèle de réglage fin peut encore contrôler fermement l'avantage, dans dans la plupart des cas, les LLM de l'ensemble de données sont inférieurs aux modèles affinés, en particulier :
- Classification de texte : dans la classification de texte, les LLM sont généralement inférieurs aux modèles affinés
- Analyse des sentiments : sur les tâches IMDB et SST, les performances ; Les grands modèles et les modèles affinés sont similaires. Dans des tâches telles que la surveillance de la toxicité, presque tous les grands modèles sont pires que les modèles affinés.
- Raisonnement en langage naturel : sur RTE et SNLI, les modèles affinés sont meilleurs que les LLM ; et dans CB et autres données, les LLM sont similaires aux modèles affinés ;
- Q&A : sur SQuADv2, QuAC et de nombreux autres ensembles de données, les modèles affinés ont de meilleures performances, tandis que sur CoQA, les LLM fonctionnent de la même manière que les modèles affinés ;
- Récupération d'informations : les LLM n'ont pas été largement utilisés dans le domaine de la récupération d'informations, les caractéristiques des tâches de récupération d'informations font qu'il n'existe pas de moyen naturel de modéliser les tâches de récupération d'informations pour les grands modèles
- Reconnaissance d'entités nommées : dans la reconnaissance d'entités nommées, les grands modèles sont encore nettement inférieurs aux modèles affinés, et les performances des modèles affinés sur CoNLL03 sont presque aussi grandes que deux fois la taille du modèle, mais la reconnaissance d'entités nommées, en tant que tâche intermédiaire classique de la PNL, est susceptible d'être remplacé par des grands modèles.
En bref, pour la plupart des tâches traditionnelles de compréhension du langage naturel, les modèles affinés fonctionnent mieux. Bien entendu, le potentiel des LLM est limité par le projet Prompt qui pourrait ne pas être entièrement publié (en fait, le modèle de réglage fin n'a pas atteint la limite supérieure, dans certains domaines de niche, comme le texte divers). Classification, NLI contradictoire et autres tâches, les LLM ont des capacités plus fortes. La capacité de généralisation conduit donc à de meilleures performances, mais pour l'instant, pour des données étiquetées de manière mature, le réglage fin du modèle peut encore être la solution optimale pour les tâches traditionnelles.
Génération du langage naturel
Par rapport à la compréhension du langage naturel, la génération du langage naturel peut être le théâtre de grands modèles. L'objectif principal de la génération de langage naturel est de créer des séquences cohérentes, fluides et significatives. Elle peut généralement être divisée en deux catégories : l'une est constituée de tâches représentées par la traduction automatique et le résumé d'informations de paragraphe, et l'autre est l'écriture naturelle plus ouverte. comme rédiger des e-mails, rédiger des actualités, créer des histoires, etc. Plus précisément :
- Résumé textuel : Pour le résumé textuel, si des indicateurs d'évaluation automatique traditionnels tels que ROUGE sont utilisés, les LLM ne présentent pas d'avantages évidents, mais si des résultats d'évaluation manuelle sont introduits, les performances des LLM seront considérablement améliorées. -modèles optimisés. Cela montre en fait que les indicateurs d'évaluation automatique actuels ne reflètent parfois pas pleinement et précisément l'effet de la génération de texte.
- Traduction automatique : pour une tâche telle que la traduction automatique avec un logiciel commercial mature, les performances des LLM sont généralement légèrement inférieures à celles des logiciels commerciaux ; outils de traduction, mais dans la traduction de certaines langues impopulaires, les LLM donnent parfois de meilleurs résultats. Par exemple, dans la tâche de traduction du roumain vers l'anglais, les LLM ont vaincu le SOTA du modèle affiné dans le cas de zéro échantillon et de peu d'échantillons ;
- Génération de formule ouverte : en termes de génération ouverte, l'affichage est ce pour quoi les grands modèles sont les meilleurs. Les articles d'actualité générés par les LLM sont presque impossibles à distinguer des vraies nouvelles écrites par les humains et ont étonnamment bien fonctionné dans des domaines tels que la génération de code et les erreurs de code. correction.
Tâches à forte intensité de connaissances
Les tâches à forte intensité de connaissances font généralement référence à des tâches qui reposent fortement sur des connaissances de base, une expertise spécifique à un domaine ou des connaissances générales du monde. Les tâches à forte intensité de connaissances sont différentes de la simple reconnaissance de formes et de l'analyse syntaxique et nécessitent une analyse approfondie. compréhension de notre réalité. Le monde a du « bon sens » et peut l'utiliser correctement, en particulier :
- Réponse aux questions à livre fermé : Dans la tâche de réponse aux questions à livre fermé, le modèle doit répondre à des questions factuelles sans intervention extérieure. informations, dans de nombreux ensembles de données, les LLM tels que NaturalQuestions, WebQuestions et TriviaQA affichent tous de meilleures performances, en particulier dans TriviaQA, les LLM à échantillon nul affichent de meilleures performances en matière de genre que les modèles affinés
- Compréhension du langage multitâche à grande échelle : grande ; -scale Multi-tâche Language Understanding (MMLU) contient 57 questions à choix multiples sur différents sujets et nécessite également que le modèle ait des connaissances générales. La plus impressionnante dans cette tâche est GPT-4, qui a obtenu un score de 86,5 en % de taux correct MMLU. .
Il convient de noter que dans les tâches à forte intensité de connaissances, les grands modèles ne sont pas toujours efficaces. Parfois, les grands modèles peuvent être inutiles ou même erronés pour les connaissances du monde réel. De telles connaissances « incohérentes » rendent parfois les grands modèles inutiles. pire que les suppositions aléatoires. Par exemple, la tâche Redéfinir les mathématiques nécessite que le modèle choisisse entre le sens original et le sens redéfini. Cela nécessite la capacité d'être exactement à l'opposé des connaissances apprises par les modèles de langage à grande échelle. Par conséquent, les performances des LLM sont encore pires que celles des modèles de langage à grande échelle. aléatoire.
Tâches d'inférence
L'évolutivité des LLM peut considérablement améliorer la capacité des modèles de langage pré-entraînés. Lorsque la taille du modèle augmente de façon exponentielle, certaines capacités de raisonnement clés seront progressivement activées avec l'expansion des paramètres, le raisonnement arithmétique des LLM. la raison avec le bon sens est extrêmement puissante, visible à l'œil nu. Dans ce type de tâches :
- Raisonnement arithmétique : il n'est pas exagéré de dire que les capacités de jugement arithmétique et de raisonnement de GPT-4 dépassent celles de n'importe quel modèle précédent dans GSM8k. SVAMP et les grands modèles sur AQuA ont des capacités révolutionnaires. Il convient de souligner que grâce à la méthode d'invite de chaîne de pensée (CoT), la puissance de calcul des LLM peut être considérablement améliorée.
- Raisonnement de bon sens : le raisonnement de bon sens nécessite de grands modèles ; mémoriser des informations factuelles et effectuer Pour le raisonnement en plusieurs étapes, les LLM maintiennent leur supériorité sur les modèles affinés dans la plupart des ensembles de données, en particulier dans ARC-C (questions difficiles aux examens scientifiques de la 3e à la 9e année), où les performances du GPT-4 sont proches à 100% (96,3%) .
En plus du raisonnement, à mesure que la taille du modèle augmente, certaines capacités émergentes apparaîtront également dans le modèle, telles que les opérations de coïncidence, la dérivation logique, la compréhension de concepts, etc. Cependant, il existe également un phénomène intéressant appelé « phénomène en forme de U », qui fait référence au phénomène selon lequel, à mesure que l'échelle des LLM augmente, les performances du modèle augmentent d'abord, puis commencent à décliner. Le représentant typique est le problème de la redéfinition des mathématiques. Ces phénomènes nécessitent des recherches plus approfondies et plus détaillées sur les principes des grands modèles.
Résumé - Défis et avenir des grands modèles
Les grands modèles feront inévitablement partie de notre travail et de notre vie pendant longtemps dans le futur, et pour un si "grand gars" très interactif avec nos vies, en plus de la performance , efficacité et coût En plus d'autres problèmes, le problème de sécurité des modèles de langage à grande échelle est presque la priorité absolue parmi tous les défis auxquels sont confrontés les grands modèles. L'hallucination des machines est un problème majeur pour les grands modèles qui n'a actuellement aucune excellente solution. la sortie des grands modèles présente des écarts ou des hallucinations néfastes qui peuvent avoir de graves conséquences pour l'utilisateur. Dans le même temps, à mesure que la « crédibilité » des LLM augmente, les utilisateurs peuvent devenir trop dépendants des LLM et croire qu'ils peuvent fournir des informations précises. Cette tendance prévisible augmente les risques de sécurité des grands modèles.
En plus des informations trompeuses, en raison de la haute qualité et du faible coût du texte généré par les LLM, les LLM peuvent être exploités comme outils d'attaques telles que la haine, la discrimination, la violence et la désinformation. Les LLM peuvent également être attaqués pour fournir des informations illégales. à des attaquants malveillants. Vol d'informations ou de confidentialité Selon des rapports, des employés de Samsung ont accidentellement divulgué des données top secrètes telles que les attributs du code source du dernier programme et des enregistrements de réunions internes liés au matériel alors qu'ils utilisaient ChatGPT pour gérer leur travail.
De plus, la clé pour savoir si les grands modèles peuvent être appliqués à des domaines sensibles, tels que les soins de santé, la finance, le droit, etc., réside dans la « crédibilité » des grands modèles à l'heure actuelle, à échantillon nul. les modèles ne sont pas fiables. L’adhésivité a tendance à diminuer. Dans le même temps, il a été démontré que les LLM sont socialement biaisés ou discriminatoires, de nombreuses études observant des différences de performance significatives entre les catégories démographiques telles que l'accent, la religion, le sexe et la race. Cela peut entraîner des problèmes « d’équité » pour les grands modèles.
Enfin, si l'on s'éloigne des enjeux sociaux pour faire une synthèse, on peut également se pencher sur l'avenir de la recherche sur les grands modèles. Les principaux défis auxquels sont actuellement confrontés les grands modèles peuvent être classés comme suit :
- Vérification pratique : Évaluation actuelle. Les ensembles de données pour les grands modèles sont souvent des ensembles de données académiques qui ressemblent davantage à des « jouets », mais ces ensembles de données académiques ne peuvent pas refléter pleinement les divers problèmes et défis du monde réel. Il existe donc un besoin urgent de données réelles. des ensembles pour évaluer le modèle sur des problèmes divers et complexes du monde réel afin de garantir que les modèles peuvent faire face aux défis du monde réel ;
- Alignement du modèle : la puissance des grands modèles soulève également un autre problème. Le modèle doit être aligné sur les choix de valeurs humaines pour garantir. que le modèle se comporte comme prévu et ne « renforce » pas les résultats indésirables. En tant que système complexe avancé, si cette question éthique n'est pas traitée sérieusement, elle pourrait provoquer un désastre pour l'humanité.
- Risques pour la sécurité : la recherche sur les grands modèles doit davantage insister ; des problèmes de sécurité et éliminer les risques pour la sécurité. Des recherches spécifiques sont nécessaires pour garantir que la recherche et le développement des grands modèles nécessitent davantage de travail sur l'interprétabilité, la supervision et la gestion des modèles. Les problèmes de sécurité devraient être une partie importante du développement des modèles, plutôt qu'une décoration superflue ; Avenir du modèle : les performances du modèle sont toujours va-t-elle augmenter à mesure que la taille du modèle augmente ? , on estime qu'OpenAI a du mal à répondre à cette question. Notre compréhension des phénomènes magiques des grands modèles est encore très limitée et les connaissances sur les principes des grands modèles sont encore très précieuses.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

AI Hentai Generator
Générez AI Hentai gratuitement.

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Sujets chauds



Les problèmes de «chargement» PS sont causés par des problèmes d'accès aux ressources ou de traitement: la vitesse de lecture du disque dur est lente ou mauvaise: utilisez Crystaldiskinfo pour vérifier la santé du disque dur et remplacer le disque dur problématique. Mémoire insuffisante: améliorez la mémoire pour répondre aux besoins de PS pour les images à haute résolution et le traitement complexe de couche. Les pilotes de la carte graphique sont obsolètes ou corrompues: mettez à jour les pilotes pour optimiser la communication entre le PS et la carte graphique. Les chemins de fichier sont trop longs ou les noms de fichiers ont des caractères spéciaux: utilisez des chemins courts et évitez les caractères spéciaux. Problème du PS: réinstaller ou réparer le programme d'installation PS.

Un PS est coincé sur le "chargement" lors du démarrage peut être causé par diverses raisons: désactiver les plugins corrompus ou conflictuels. Supprimer ou renommer un fichier de configuration corrompu. Fermez des programmes inutiles ou améliorez la mémoire pour éviter une mémoire insuffisante. Passez à un entraînement à semi-conducteurs pour accélérer la lecture du disque dur. Réinstaller PS pour réparer les fichiers système corrompus ou les problèmes de package d'installation. Afficher les informations d'erreur pendant le processus de démarrage de l'analyse du journal d'erreur.

Le bégaiement "Chargement" se produit lors de l'ouverture d'un fichier sur PS. Les raisons peuvent inclure: un fichier trop grand ou corrompu, une mémoire insuffisante, une vitesse du disque dur lente, des problèmes de pilote de carte graphique, des conflits de version PS ou du plug-in. Les solutions sont: vérifier la taille et l'intégrité du fichier, augmenter la mémoire, mettre à niveau le disque dur, mettre à jour le pilote de carte graphique, désinstaller ou désactiver les plug-ins suspects et réinstaller PS. Ce problème peut être résolu efficacement en vérifiant progressivement et en faisant bon usage des paramètres de performances PS et en développant de bonnes habitudes de gestion des fichiers.

Méthode de production d'effet transparent: Utilisez l'outil de sélection et les plumes pour coopérer: sélectionnez les zones transparentes et les plumes pour adoucir les bords; Modifiez le mode de mélange de couche et l'opacité pour contrôler la transparence. Utilisez des masques et des plumes: Sélectionnez et des zones de plumes; Ajouter les masques de couche et la transparence de contrôle du gradient de niveaux de gris.

Bootstrap Image Centering fait face à des problèmes de compatibilité. La solution est la suivante: Utilisez MX-Auto pour centrer l'image horizontalement pour l'affichage: Block. Le centrage vertical utilise des dispositions Flexbox ou Grid pour garantir que l'élément parent est centré verticalement pour aligner les éléments enfants. Pour la compatibilité du navigateur IE, utilisez des outils tels que AutoPrefixer pour ajouter automatiquement les préfixes du navigateur. Optimiser la taille de l'image, le format et l'ordre de chargement pour améliorer les performances de la page.

L'interface de chargement de la carte PS peut être causée par le logiciel lui-même (corruption de fichiers ou conflit de plug-in), l'environnement système (corruption du pilote ou des fichiers système en raison), ou matériel (corruption du disque dur ou défaillance du bâton de mémoire). Vérifiez d'abord si les ressources informatiques sont suffisantes, fermez le programme d'arrière-plan et publiez la mémoire et les ressources CPU. Correction de l'installation de PS ou vérifiez les problèmes de compatibilité pour les plug-ins. Mettre à jour ou tomber la version PS. Vérifiez le pilote de la carte graphique et mettez-le à jour et exécutez la vérification du fichier système. Si vous résumez les problèmes ci-dessus, vous pouvez essayer la détection du disque dur et les tests de mémoire.

La taille d'une liste d'amorçage dépend de la taille du conteneur qui contient la liste, pas de la liste elle-même. L'utilisation du système de grille de bootstrap ou de Flexbox peut contrôler la taille du conteneur, redimentant ainsi indirectement les éléments de la liste.

Comment ajouter des icônes à la liste Bootstrap: fourre directement l'icône dans l'élément de liste & lt; li & gt;, en utilisant le nom de classe fourni par la bibliothèque d'icônes (comme Font Awesome). Utilisez la classe bootstrap pour aligner les icônes et le texte (par exemple, d-flex, justifier-content-between, align-items-center). Utilisez le composant Bootstrap Tag (badge) pour afficher les numéros ou l'état. Ajustez la position de l'icône (Flex-Direction: Row-Reverse;), Contrôlez le style (style CSS). Erreur commune: l'icône ne s'affiche pas (pas
