[Lin Mengxue, journaliste scientifique et technologique du réseau mondial] Actuellement, l'IA générative et les grands modèles deviennent populaires partout dans le monde. Lors de la Conférence mondiale sur l'intelligence artificielle 2023 (WAIC 2023) qui vient de se dérouler, divers fabricants ont lancé un « centenaire ». "Model War", selon les statistiques incomplètes du comité d'organisation, un total de plus de 30 grandes plates-formes modèles ont été publiées et dévoilées, 60 % des stands hors ligne ont démontré l'introduction et l'application pertinentes de la technologie d'IA générative, et 80 % des les participants ont discuté du contenu autour des grands modèles. Le modèle s'étend.
Lors du WAIC 2023, Zhang Yu, ingénieur en chef principal en IA d'Intel Corporation et directeur de la technologie de la division Network and Edge Chine, a estimé que le facteur central favorisant le développement de ce cycle d'intelligence artificielle est en fait l'amélioration continue de l'informatique, de la communication et technologies de stockage. Dans l’ensemble de l’écosystème de l’IA, qu’il s’agisse de modèles à grande échelle ou de fusion d’IA, la périphérie joue un rôle crucial.
Zhang Yu a déclaré : « Avec la transformation numérique de l'industrie, les demandes des gens en matière de connexions agiles, d'intelligence commerciale et applicative en temps réel ont favorisé le développement de l'intelligence artificielle de pointe. Cependant, la plupart des applications actuelles de l'intelligence artificielle de pointe sont toujours d'actualité. l'étape d'inférence de périphérie. En d'autres termes, nous devons utiliser une grande quantité de données et une énorme puissance de calcul pour former un modèle dans le centre de données, et nous poussons les résultats de la formation vers le front-end pour effectuer une opération d'inférence. le modèle d'utilisation actuel pour la mise en œuvre de l'intelligence artificielle à la périphérie »
.« Ce modèle limitera inévitablement la fréquence des mises à jour des modèles, mais nous avons également constaté que de nombreuses industries intelligentes ont en fait des demandes de mises à jour de modèles. La conduite autonome doit pouvoir s'adapter aux différentes conditions routières et être adaptée aux habitudes de conduite des différentes. Cependant, lorsque nous formons un modèle dans une usine automobile, il existe souvent certaines différences entre les données de formation utilisées et les données générées lors de la conduite dynamique. Cette différence affecte la capacité de généralisation du modèle, c'est-à-dire aux nouvelles conditions routières. la capacité de s’adapter à de nouveaux comportements de conduite. Nous devons continuellement former et optimiser le modèle à la pointe pour faire progresser ce processus », a-t-il déclaré.
Par conséquent, Zhang Yu a proposé que la deuxième étape du développement de l'intelligence artificielle soit l'étape de formation de pointe. « Si nous voulons mettre en œuvre la formation de pointe, nous avons besoin de moyens et d'outils plus automatisés pour mener à bien un processus de développement complet, de l'annotation des données à la formation des modèles, en passant par le déploiement des modèles. » Il a déclaré que la prochaine direction de développement de l'intelligence artificielle de pointe devrait être celle-ci. est un apprentissage indépendant.
Dans le processus de développement actuel, l'intelligence artificielle de pointe est également confrontée à de nombreux défis. Selon Zhang Yu, outre les défis de la formation de pointe, il existe également des défis liés à l'équipement de pointe. "Étant donné que la consommation d'énergie que la puissance de calcul fournie peut supporter est souvent limitée, la manière de mettre en œuvre le raisonnement et la formation de pointe avec des ressources limitées impose des exigences plus élevées en termes de performances et de consommation d'énergie de la puce." la fragmentation des appareils de pointe est très évidente, et la manière d'utiliser les logiciels pour réaliser la migration entre différentes plates-formes met également en avant davantage d'exigences.
De plus, le développement de l'intelligence artificielle est étroitement lié à la puissance de calcul, et derrière la puissance de calcul se cache une énorme base de données face à des actifs de données massifs, la manière de protéger les données est devenue un sujet brûlant dans le développement de l'intelligence artificielle. intelligence. Une fois l’IA déployée en périphérie, ces modèles échapperont au contrôle du fournisseur de services. Comment pouvons-nous protéger le modèle à ce moment-là ? Et il est nécessaire d’obtenir de bons effets de protection pendant le stockage et le fonctionnement. Tels sont les défis auxquels est confrontée l’intelligence artificielle de pointe. »
"Intel est une société de données et nos produits couvrent tous les aspects de l'informatique, de la communication et du stockage. En termes d'informatique, Intel propose une variété de produits, notamment des CPU, des GPU, des FPGA et diverses puces d'accélération d'intelligence artificielle. , pour répondre aux attentes des utilisateurs. différentes exigences en matière de puissance de calcul. Par exemple, en termes de grands modèles d'intelligence artificielle, le produit Gaudi2 lancé par Habana d'Intel est le seul produit du secteur qui affiche d'excellentes performances dans la formation de grands modèles, la suite d'outils de déploiement d'apprentissage en profondeur OpenVINO fournie par. Intel peut déployer rapidement les modèles conçus et formés par les développeurs sur le cadre ouvert d'intelligence artificielle sur différentes plates-formes matérielles pour effectuer des opérations d'inférence. »
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!