Ces modèles, largement utilisés pour des tâches telles que la synthèse et la réponse aux questions, reflètent la vision du monde de leurs créateurs. Une nouvelle étude de l'Université de Gand montre comment les LLM ont des positions idéologiques différentes en fonction de la langue, de la région et des données de formation.
Les grands modèles linguistiques (LLM) sont des outils puissants qui peuvent être utilisés pour une grande variété de tâches, depuis la synthèse de texte jusqu'à la réponse à des questions. Cependant, une étude récente de l'Université de Gand a montré que les LLM peuvent également être biaisés, reflétant les visions idéologiques du monde de leurs créateurs.
L'étude a examiné les différences idéologiques dans les réponses LLM en anglais et en chinois. Les chercheurs ont demandé aux modèles de décrire des personnages historiques, puis ont analysé les jugements moraux de chaque réponse. Ils ont constaté que les LLM réagissaient différemment en fonction de la formation linguistique et géographique. Cela était évident dans la manière dont les LLM occidentaux et non occidentaux traitaient les descriptions des conflits mondiaux et des personnalités politiques.
Paolo Ardoino, PDG de Tether, a fait part de ses inquiétudes à ce sujet dans un article récent. Il a souligné l'importance du contrôle des utilisateurs sur les modèles d'IA et a exprimé sa méfiance quant à l'influence des grandes entreprises technologiques, qui, selon lui, pourraient être utilisées pour façonner l'opinion publique.
Lors de l'événement Plan B de Lugano, Ardoino a présenté le kit de développement d'IA locale de Tether comme solution. Le kit axé sur la confidentialité utilise la technologie peer-to-peer (P2P) pour offrir une alternative aux grands modèles d'IA contrôlés par la technologie.
Nous devons contrôler les modèles que nous exécutons et sur lesquels nous nous appuyons.
Et ne laissez pas les grands seigneurs de la technologie forcer et contrôler nos pensées.
Une solution https://t.co/1MyRIUXwit
Le SDK Tether AI est hautement modulaire et adaptable, permettant aux développeurs de l'utiliser sur divers appareils, allant des téléphones économiques aux ordinateurs avancés. Le kit open source prend en charge différents modèles, tels que Marian et LLaMA, et permet aux utilisateurs de stocker des données dans des structures P2P pour une confidentialité renforcée. Cette approche décentralisée fournit une méthode locale et privée d'exécution d'applications d'IA.
L'étude de l'Université de Gand a également révélé des différences dans la manière dont les LLM abordent les événements historiques et politiques. Les modèles occidentaux avaient tendance à s’aligner sur les idéologies occidentales dans leurs descriptions, tandis que les modèles non occidentaux abordaient ces sujets différemment, mettant en évidence une division dans les perspectives narratives. Ces résultats soulignent les défis liés à la construction de systèmes d’IA « neutres ».
L'initiative d'Ardoino en faveur d'une plate-forme d'IA décentralisée s'aligne sur une tendance plus large du secteur technologique vers une plus grande confidentialité. Alors que le kit d’IA locale de Tether est en cours de test, il présente une voie émergente pour l’IA modulaire contrôlée par l’utilisateur. Cette approche pourrait potentiellement répondre aux problèmes de confidentialité et réduire la dépendance à l’égard des grandes technologies pour les besoins en IA.
Cet article est de nature éducative et informative. Il ne constitue pas un conseil financier ou un conseil d’aucune sorte. Coin Edition n'est pas responsable des pertes résultant de l'utilisation du contenu, des produits ou des services mentionnés. Veuillez consulter un professionnel agréé avant de prendre toute décision financière ou autre.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!