Editeurs : Du Wei, Xiaozhou
L'IA, en particulier l'open source et la source fermée à l'ère des grands modèles, présente des avantages et des inconvénients. L'important est de savoir comment faire du bon travail en l'utilisant.
Les gens ont toujours été divisés sur le choix entre l'open source et le fermé dans le domaine de l'IA. Cependant, à l'ère des grands modèles, la puissante force de l'open source a discrètement émergé. Selon un document interne de Google précédemment divulgué, autour de modèles open source tels que LLaMA de Meta, l’ensemble de la communauté construit rapidement des modèles similaires à OpenAI et aux capacités de grands modèles de Google.
Il ne fait aucun doute que Meta est le noyau absolu du monde open source, avec des efforts continus en matière d'open source tels que la récente sortie de Llama 2. Cependant, tout ce qui est bon sera détruit par le vent. Récemment, Meta a eu des « problèmes » à cause de l'open source.
Devant les bureaux de Meta à San Francisco, un groupe de manifestants brandissant des pancartes s’est rassemblé pour protester contre la stratégie de Meta consistant à publier publiquement des modèles d’IA, affirmant que ces modèles publiés provoquaient la « prolifération irréversible » de technologies potentiellement dangereuses. Certains manifestants ont même comparé les grands modèles sortis par Meta à des « armes de destruction massive »
Ces manifestants se qualifient de « citoyens concernés » et sont menés par Holly Elmore. Selon LinkedIn, elle est une défenseure indépendante du mouvement AI Pause.
Le contenu qui doit être réécrit est : Source de l'image : MISHA GUREVICH
Si un modèle s'avère dangereux, elle a noté que l'API peut être arrêtée. Par exemple, des entreprises comme Google et OpenAI autorisent uniquement les utilisateurs à accéder à de grands modèles via API
En revanche, la série de modèles open source LLaMA de Meta met les poids des modèles à la disposition du public, permettant à toute personne disposant du matériel et de l'expertise appropriés de reproduire et de modifier le modèle elle-même. Une fois les poids des modèles publiés, la société d'édition n'a plus aucun contrôle sur la manière dont l'IA est utilisée
De l’avis de Holly Elmore, publier les poids des modèles est une stratégie dangereuse, n’importe qui peut modifier le modèle et ces modèles ne peuvent pas être annulés. "Plus le modèle est puissant, plus cette stratégie devient dangereuse."
Par rapport aux modèles open source, les grands modèles accessibles via les API disposent souvent de diverses fonctionnalités de sécurité, telles que le filtrage des réponses ou une formation spécifique pour empêcher la sortie de réponses dangereuses ou gênantes
Si les poids du modèle sont libérés, il devient beaucoup plus facile de recycler le modèle pour qu'il saute par-dessus ces « garde-corps ». Cela rend plus possible l’utilisation de ces modèles open source pour créer des logiciels de phishing et mener des attaques réseau.
Le contenu qui doit être réécrit est : Source de l'image : MISHA GUREVICH
Elle pense qu'une partie du problème avec la sécurité des modèles réside dans le fait que les mesures de sécurité actuellement prises ne sont pas suffisantes, il faut donc trouver de meilleurs moyens d'assurer la sécurité des modèles
Actuellement, Meta n'a fait aucun commentaire à ce sujet. Cependant, Yann LeCun, scientifique en chef de l'IA chez Meta, semble avoir répondu à la déclaration selon laquelle « l'IA open source doit être interdite » et a montré la communauté florissante des startups de l'IA open source à Paris
De nombreuses personnes ont des opinions différentes et pensent qu’une stratégie ouverte pour le développement de l’IA est le seul moyen de garantir la confiance dans la technologie, ce qui est différent du point de vue de Holly Elmore
Certains internautes ont déclaré que l'open source présente des avantages et des inconvénients. Il peut permettre aux gens d'acquérir une plus grande transparence et d'améliorer l'innovation, mais il sera également confronté au risque d'utilisation abusive (comme le code) par des acteurs malveillants.
Comme prévu, OpenAI a de nouveau été ridiculisé, certains disant "il devrait revenir à l'open source
".
Beaucoup de gens s'inquiètent de l'open source
Peter S. Park, chercheur postdoctoral en sécurité de l'intelligence artificielle au MIT, a déclaré que la diffusion généralisée de modèles d'intelligence artificielle avancés à l'avenir pourrait causer de nombreux problèmes car il est fondamentalement impossible d'empêcher complètement l'abus des modèles d'intelligence artificielle
Cependant, Stella Biderman, directrice exécutive d'EleutherAI, une organisation de recherche sur l'intelligence artificielle à but non lucratif, a déclaré : « Jusqu'à présent, il existe peu de preuves que les modèles open source aient causé un préjudice spécifique. L'API fera l'affaire pour résoudre le problème de sécurité."
Biderman estime : "Les éléments de base de la construction d'un LLM ont été divulgués dans des documents de recherche gratuits que tout le monde peut lire pour développer ses propres modèles."
Elle a en outre souligné : « Si les entreprises encouragent la confidentialité des détails des modèles, cela pourrait avoir de graves conséquences négatives sur la transparence de la recherche sur le terrain, la sensibilisation du public et le développement scientifique, en particulier pour les chercheurs indépendants. »Bien que tout le monde discute déjà de l'impact de l'open source, il n'est toujours pas clair si la méthode de Meta est vraiment suffisamment ouverte et si elle peut tirer parti de l'open source.
Stefano Maffulli, directeur exécutif de l'Open Source Initiative (OSI), a déclaré : « Le concept d'intelligence artificielle open source n'a pas encore été clairement défini. Différentes organisations utilisent le terme pour désigner différentes choses, indiquant différents degrés d'accès public. trucs", ce qui peut dérouter les gens. "
Maffulli a souligné que pour les logiciels open source, la question clé est de savoir si le code source est accessible au public et peut être utilisé à n'importe quelle fin. Cependant, la reproduction d'un modèle d'IA peut nécessiter le partage de données d'entraînement, de méthodes de collecte de données, de logiciels d'entraînement, de poids de modèle, de code d'inférence, etc. Parmi eux, le problème le plus important est que les données de formation peuvent impliquer des problèmes de confidentialité et de droits d'auteur
OSI travaille sur une définition précise de « l’IA open source » depuis l’année dernière et devrait publier une première version dans les semaines à venir. Quoi qu’il en soit, il estime que l’open source est crucial pour le développement de l’IA. "Si l'IA n'est pas open source, nous ne pouvons pas avoir une IA fiable et responsable", a-t-il déclaré
À l'avenir, les différences entre l'open source et le fermé continueront, mais l'open source est imparable.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!