Nouvelles du 5 avril, au cours des six derniers mois, de nouveaux outils puissants d'intelligence artificielle (IA) ont proliféré à un rythme alarmant, depuis les chatbots capables de mener des conversations de type humain jusqu'aux logiciels exécutant automatiquement des robots de codage. Aux générateurs d'images fabriqués à partir de rien, l'intelligence artificielle générative (AIGC) devient soudainement omniprésente et de plus en plus puissante.
Mais la semaine dernière, une réaction contre cet engouement pour l’IA a commencé à émerger. Des milliers d'experts en technologie et d'universitaires, dirigés par Elon Musk, PDG de Tesla et de Twitter, ont signé une lettre ouverte avertissant des "risques graves pour l'humanité" et appelant à un moratoire de six mois sur le développement de modèles de langage d'IA.
Dans le même temps, une organisation à but non lucratif de recherche sur l'IA a déposé une plainte demandant à la Federal Trade Commission (FTC) des États-Unis d'enquêter sur OpenAI, la société qui a créé ChatGPT, et d'arrêter la commercialisation de son logiciel GPT-4.
L'agence de régulation italienne a également pris des mesures et a complètement bloqué ChatGPT pour violation de la confidentialité des données.
Certaines personnes appellent à une pause ou à un ralentissement de la recherche sur l’IA, et cela est peut-être compréhensible. Les applications de l’IA qui semblaient incroyables, voire insondables il y a quelques années à peine, infiltrent désormais rapidement les médias sociaux, les écoles, les lieux de travail et même la politique. Face à ce changement vertigineux, certains ont émis des prédictions pessimistes, estimant que l’IA pourrait à terme conduire à la disparition de la civilisation humaine.
La bonne nouvelle est que le battage médiatique et les craintes suscités par l’IA omnipotente sont peut-être exagérés. Bien que Bard de Google et Bing de Microsoft soient impressionnants, ils sont encore loin de devenir « Skynet ».
La mauvaise nouvelle est que les inquiétudes des gens concernant l’évolution rapide de l’IA sont devenues une réalité. Ce n’est pas parce que l’IA deviendra plus intelligente que les humains, mais parce que les humains utilisent déjà l’IA pour se supprimer, s’exploiter et se tromper les uns les autres d’une manière à laquelle les organisations existantes ne sont pas préparées. En outre, plus les gens perçoivent l’IA comme étant puissante, plus eux-mêmes et les entreprises sont susceptibles de lui déléguer des tâches dont elle n’est pas capable.
En plus de ces prédictions pessimistes de fin du monde, nous pouvons obtenir une compréhension préliminaire de l’impact de l’IA sur l’avenir prévisible à partir de deux rapports publiés la semaine dernière. Le premier rapport a été publié par la banque d’investissement américaine Goldman Sachs et a principalement évalué l’impact de l’IA sur l’économie et le marché du travail ; le deuxième rapport a été publié par Europol et s’est concentré sur les éventuels abus criminels de l’IA.
D'un point de vue économique, les dernières tendances en matière d'IA concernent principalement l'automatisation de tâches qui étaient autrefois uniquement effectuées par les humains. À l’instar des métiers à tisser mécaniques, des chaînes d’assemblage mécanisées et des guichets automatiques, les AIGC promettent d’effectuer certains types de travaux à moindre coût et plus efficacement que les humains.
Mais moins cher et plus efficace ne signifie pas toujours mieux, comme peut en témoigner toute personne ayant eu affaire à une caisse automatique d'épicerie, à un répondeur téléphonique automatisé ou à un chatbot de service client. Contrairement aux vagues d’automatisation précédentes, l’AIGC est capable d’imiter les humains et même de se faire passer pour des humains dans certains cas. Cela pourrait à la fois conduire à une tromperie généralisée et inciter les employeurs à croire que l’IA peut remplacer les travailleurs humains, même si ce n’est pas le cas.
L’analyse des recherches de Goldman Sachs estime que l’AIGC modifiera environ 300 millions d’emplois dans le monde, entraînant la perte d’emploi de dizaines de millions de personnes, mais qu’elle favorisera également une croissance économique significative. Cependant, les estimations de Goldman Sachs ne sont peut-être pas exactes, après tout, elles ont un historique d'erreurs de prévision. En 2016, la banque prévoyait que les casques de réalité virtuelle pourraient devenir aussi omniprésents que les smartphones.
Dans le rapport d'analyse de l'IA de Goldman Sachs, la chose la plus intéressante est qu'ils ont décomposé diverses industries, c'est-à-dire quels emplois peuvent être améliorés par des modèles linguistiques et quels emplois peuvent être complètement remplacés. Les chercheurs de Goldman Sachs ont classé les tâches des cols blancs sur une échelle de difficulté de 1 à 7, le niveau 1 étant « l'examen des formulaires pour s'assurer qu'ils sont complets » et le niveau 4 étant les tâches qui pourraient être automatisées, telles que « statuer sur une requête complexe devant un tribunal ». est de niveau 6. La conclusion qui en découle est que les emplois de soutien administratif et parajuridique seront très probablement remplacés par l’IA, tandis que des métiers tels que la gestion et le développement de logiciels deviendront plus productifs.
Le rapport prédit avec optimisme que cette génération d’IA pourrait à terme augmenter le PIB mondial de 7 % à mesure que les entreprises bénéficieront davantage des employés possédant des compétences en IA. Mais Goldman Sachs prédit également que ce faisant, environ 7 % des Américains constateront que leur carrière sera supprimée, et que davantage de personnes devront apprendre cette technologie pour conserver leur emploi. En d’autres termes, même si l’AIGC apporte un impact plus positif, le résultat pourrait conduire à la perte d’emploi d’un grand nombre d’employés, et les humains dans les bureaux et dans la vie quotidienne seront progressivement remplacés par des robots.
Dans le même temps, de nombreuses entreprises sont déjà désireuses de prendre des raccourcis et d'automatiser des tâches que l'IA ne peut pas gérer. Par exemple, le site technologique CNET génère automatiquement des articles financiers remplis d'erreurs. Lorsque des problèmes surviennent avec l’IA, les groupes déjà marginalisés peuvent être touchés de manière disproportionnée. Malgré l’enthousiasme suscité par ChatGPT et ses semblables, les développeurs actuels de grands modèles linguistiques n’ont pas encore abordé le problème des ensembles de données biaisés qui ont intégré des préjugés raciaux dans les applications d’IA telles que la reconnaissance faciale et les algorithmes d’évaluation des risques criminels. La semaine dernière, un homme noir a de nouveau été emprisonné à tort en raison d’une incompatibilité de reconnaissance faciale.
Ce qui est encore plus inquiétant, c'est que l'AIGC peut être utilisé pour causer des dommages intentionnels dans certains cas. Le rapport d'Europol détaille comment l'AIGC est utilisé pour aider les gens à commettre des délits, tels que la fraude et les cyberattaques.
Par exemple, les chatbots sont capables de générer des styles de langage spécifiques et même d’imiter la voix de certaines personnes, ce qui pourrait en faire un outil puissant pour les escroqueries par phishing. Les avantages des modèles de langage dans l’écriture de scripts logiciels pourraient démocratiser la génération de codes malveillants. Ils fournissent des conseils personnalisés, contextuels, étape par étape et peuvent constituer un guide incontournable pour les criminels cherchant à s'introduire par effraction dans une maison, à faire chanter quelqu'un ou à fabriquer une bombe artisanale. Nous avons déjà vu comment les images synthétiques peuvent propager de faux récits sur les réseaux sociaux, ravivant ainsi les inquiétudes selon lesquelles les deepfakes pourraient fausser les campagnes.
Il convient de noter que ce qui rend les modèles linguistiques vulnérables aux abus n’est pas seulement leur vaste intelligence, mais aussi leurs défauts fondamentaux dans leurs connaissances. Les principaux chatbots actuels sont formés pour rester silencieux lorsqu’ils détectent des tentatives visant à les utiliser à des fins néfastes. Mais comme le souligne Europol, « les mesures de protection visant à empêcher ChatGPT de diffuser du code potentiellement malveillant ne sont efficaces que si le modèle comprend ce qu'il fait. » Comme le démontre la multitude d'astuces et de vulnérabilités documentées, la conscience de soi reste l'une des faiblesses de la technologie.
Avec tous ces risques à l’esprit, vous n’avez pas à vous inquiéter d’un scénario catastrophe où le rythme de développement de l’AIGC ralentirait, donnant à la société plus de temps pour s’adapter. OpenAI elle-même a été fondée en tant qu'organisation à but non lucratif sur le principe que l'IA pouvait être construite de manière plus responsable, sans la pression d'atteindre les objectifs de revenus trimestriels.
Mais OpenAI mène désormais une course serrée, les géants de la technologie licencient leurs éthiciens en IA, et le cheval a peut-être de toute façon quitté l'écurie. Comme le soulignent les experts universitaires en IA Sayash Kapoor et Arvind Narayanan, le principal moteur de l'innovation dans les modèles de langage à l'heure actuelle n'est pas la poussée vers des modèles toujours plus grands, mais il s'agit d'intégrer les modèles dont nous disposons dans diverses applications et outils. Ils soutiennent que les régulateurs devraient considérer les outils d’IA du point de vue de la sécurité des produits et de la protection des consommateurs, plutôt que d’essayer de freiner l’IA comme les armes nucléaires.
La chose la plus importante à court terme est peut-être que les experts en technologie, les chefs d'entreprise et les régulateurs mettent de côté la panique et le battage médiatique et acquièrent une compréhension plus approfondie des avantages et des inconvénients de l'AIGC, afin qu'ils puissent être plus prudents lors de son adoption. . Si l’IA continue de jouer un rôle, quoi qu’il arrive, son impact sera perturbateur. Mais surestimer ses capacités le rendra encore plus nocif, et non pas moins.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!