Le contenu réécrit est le suivant : Machine Heart Report
Editeur : Chen Ping, Big Pan Chicken
LeCun a déclaré que la grande majorité de ses collègues universitaires sont très favorables à la recherche et au développement ouverts sur l'IA, mais qu'il y a encore des opposants.
Les experts de tous bords ont des avis différents sur la question des risques liés à l'intelligence artificielle. Quelqu'un a lancé une lettre commune appelant les laboratoires d'intelligence artificielle à arrêter immédiatement la recherche. Des personnalités importantes du deep learning, Geoffrey Hinton et Yoshua Bengio, soutiennent toutes ce point de vue
.Ces derniers jours, Bengio, Hinton et d'autres ont publié une lettre commune « Gérer les risques liés à l'intelligence artificielle à l'ère du développement rapide », appelant les chercheurs à prendre des mesures de gouvernance d'urgence et à se concentrer sur la sécurité et les pratiques éthiques avant de développer des systèmes d'IA. Appelons les gouvernements à prendre des mesures pour gérer les risques posés par l’IA.
Le contenu réécrit est le suivant : Certaines mesures de gouvernance urgentes sont mentionnées dans l'article, comme impliquer les institutions nationales pour empêcher les gens d'abuser de l'intelligence artificielle. Pour réglementer efficacement, les gouvernements doivent avoir une compréhension globale des développements de l’IA. Les régulateurs devraient prendre une série de mesures, telles que l'enregistrement des modèles, pour protéger efficacement les droits et les intérêts des lanceurs d'alerte, et surveiller le développement des modèles et l'utilisation des superordinateurs. Les régulateurs devront également évaluer les systèmes d’IA avancés avant leur déploiement pour comprendre leurs capacités potentiellement dangereuses
De plus, en remontant un peu plus loin dans le temps, en mai de cette année, le Center for the Safety of Artificial Intelligence, une organisation américaine à but non lucratif, a publié une déclaration avertissant que l'intelligence artificielle devrait être considérée comme présentant le même risque de anéantir l'humanité sous forme d'épidémies. Les personnes qui soutiennent cette déclaration incluent également Hinton, Bengio et al.
En mai de cette année, Hinton a également quitté son emploi chez Google afin de parler librement des risques posés par l'intelligence artificielle. Dans une interview accordée au New York Times, il a déclaré : « La plupart des gens pensent que (les méfaits de l'IA) sont encore loin. Je pensais que c'était encore loin, peut-être dans 30 à 50 ans ou plus. Mais évidemment, je Je ne pense pas maintenant. »
De l’avis de Hinton et d’autres, gérer les risques posés par l’intelligence artificielle est une tâche urgente
Malgré cela, Euan Lecon, en tant que l'un des trois géants du deep learning, a une attitude très optimiste envers le développement de l'intelligence artificielle. Il est fondamentalement opposé à la signature d'une lettre commune sur les risques de l'intelligence artificielle, estimant que le développement de l'intelligence artificielle ne constitue pas une menace pour l'humanité
Tout à l'heure, dans une communication avec les utilisateurs de X, LeCun a répondu à quelques questions des internautes sur les risques de l'IA.
Cet internaute a demandé à LeCun son avis sur l'article « « C'est son changement climatique » : les experts aident Rishi Sunak à sceller son héritage ». L'article estime que la déclaration publiée conjointement par Hinton, Bengio et d'autres a changé le point de vue des gens sur l'intelligence artificielle. Ne plus considérer l’IA comme un outil de soutien, mais plutôt comme une menace potentielle. L'article poursuit en disant qu'au cours des derniers mois, les observateurs britanniques ont découvert que de plus en plus de gens craignent que l'intelligence artificielle ne provoque la fin du monde. En mars de cette année, le gouvernement britannique a publié un livre blanc promettant de ne pas étouffer l’innovation en matière d’intelligence artificielle. Mais à peine deux mois plus tard, le Royaume-Uni a commencé à discuter de la fixation de limites à l'intelligence artificielle et a exhorté les États-Unis à se joindre à son projet de règles mondiales en matière d'intelligence artificielle
Veuillez réécrire le contenu en chinois, la phrase originale n'a pas besoin d'apparaître
Le contenu qui doit être réécrit est : https://www.telegraph.co.uk/business/2023/09/23/artificial-intelligence-safety-summit-sunak-ai-experts/
La réaction de LeCun à l’article a été qu’il ne voulait pas que les inquiétudes du Royaume-Uni concernant les risques fatalistes de l’IA se propagent à d’autres pays.
Après cela, il y a eu la communication entre LeCun et l'utilisateur X que nous avons mentionnée plus tôt. Voici toutes les réponses de LeCun :
."Altman, Hassabis et Amodei sont engagés dans un lobbying massif des entreprises. Ils tentent de réglementer l'industrie de l'IA. Et vous, Geoff et Yoshua donnez des munitions à ceux qui font pression pour interdire la recherche ouverte sur l'IA.
Si votre campagne de propagande réussit, elle conduira inévitablement à ce que nous pensons être un résultat catastrophique : quelques entreprises contrôleront l'intelligence artificielle
La grande majorité des collègues universitaires sont très favorables à la recherche et au développement en IA ouverte. Peu de gens croient aux scénarios apocalyptiques que vous prêchez. Vous, Yoshua, Geoff et Stuart êtes les seules exceptions.
Comme beaucoup, je suis un grand partisan des plateformes ouvertes d’IA parce que je crois en une combinaison de forces : la créativité des gens, la démocratie, les forces du marché et la réglementation des produits. Je sais aussi qu’il est possible de produire des systèmes d’IA sûrs et sous notre contrôle. J'ai fait des suggestions spécifiques à ce sujet. Tout cela amènera les gens à faire ce qu’il faut.
L’IA n’est pas créée de toutes pièces, c’est un phénomène naturel indépendant de notre volonté, mais ce n’est pas le cas. Ses progrès sont motivés par tous ceux que nous connaissons. Nous et eux avons tous deux le pouvoir de créer « la bonne chose ». Appeler à une réglementation de la R&D suppose implicitement que ces personnes et les organisations qu’elles servent sont incompétentes, imprudentes, autodestructrices ou perverses. Mais ce n'est pas le cas
J'ai trouvé de nombreux arguments pour prouver que les scénarios apocalyptiques que vous craignez sont ridicules. Je n'entrerai pas dans les détails ici. Mais le point principal est que si les systèmes d’IA puissants sont guidés par des objectifs, y compris des garde-fous, ils seront alors sûrs et contrôlables car ils fixent ces garde-fous et ces objectifs. (Les modèles de langage autorégressifs actuels ne sont pas axés sur des objectifs, n'extrapolons donc pas à partir des faiblesses des modèles de langage autorégressifs)
En matière d'open source, vos activités auront exactement l'effet inverse de ce que vous poursuivez. À l’avenir, les systèmes d’intelligence artificielle deviendront un trésor de connaissances et de culture humaines. Ce dont nous avons besoin, c’est d’une plateforme open source et gratuite pour que chacun puisse y contribuer. Seules les plateformes ouvertes peuvent refléter l’ensemble des connaissances et de la culture humaines, ce qui nécessite que les contributions à ces plateformes soient participatives, à l’instar de Wikipédia. Si la plateforme n'est pas ouverte, cela ne fonctionnera pas
Si la plateforme d'IA open source est réglementée, une autre situation se produira certainement, c'est-à-dire que quelques entreprises contrôleront la plateforme d'IA, et contrôleront ainsi toute la dépendance numérique des gens. Qu’est-ce que cela signifie pour la démocratie ? Qu’est-ce que cela signifie pour la diversité culturelle ? C'est ce qui m'empêche de dormir la nuit. "
Sous le long tweet de LeCun, de nombreuses personnes ont également « soutenu » son point de vue.
Irina Rish, professeure au Département d'informatique et de recherche opérationnelle de l'Université de Montréal, est un membre principal de l'Institut d'IA Mila-Québec. Elle estime que les chercheurs qui soutiennent l'IA open source ne devraient plus rester silencieux, mais devraient jouer un rôle de premier plan dans le développement de l'IA émergente
Le fondateur de
e/acc, Beff Jezos, a également déclaré dans la zone de commentaires que de tels commentaires sont importants et dont les gens ont besoin.
Les internautes ont déclaré qu’au départ, discuter des questions de sécurité peut enrichir l’imagination de chacun sur les technologies futures, mais que les romans de science-fiction sensationnels ne devraient pas conduire à l’émergence de politiques de monopole.
L'animateur de podcast Lex Fridman a plus à espérer dans ce débat.
Les discussions sur les risques liés à l’IA affecteront également le développement futur de l’IA. Lorsqu’une idée vole la vedette, les gens la suivent aveuglément. Ce n’est que lorsque les deux parties pourront continuer à mener des discussions rationnelles que le « vrai visage » de l’IA pourra véritablement être vu.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!