Le grand public a des opinions divergentes sur l'IA : certains pensent que les machines remplaceront complètement les travailleurs humains, tandis que d'autres prétendent que l'IA est une mode. Cependant, une chose sur laquelle tout le monde s’accorde est que l’IA nécessite une surveillance plus stricte.
Malgré l’importance de la réglementation de l’IA, celle-ci est passée au second plan par rapport à la formation. Les développeurs sont tellement obsédés par la création du prochain plus grand modèle d’IA qu’ils troquent la cybersécurité contre des progrès rapides. La question n’est pas de savoir si l’IA a besoin d’être réglementée ; il s’agit de savoir quel organe directeur doté d’un financement, de ressources humaines et de capacités technologiques adéquates prendra l’initiative.
Alors, qui devrait réguler l’IA ?
Diverses personnes, des consommateurs aux leaders technologiques, espèrent que le gouvernement réglementera l'IA. Les institutions financées par des fonds publics disposent des ressources nécessaires pour le faire. Même Elon Musk et Sam Altman, deux principaux moteurs de la course à l’IA, estiment que certains problèmes de confidentialité liés à l’IA sont trop dangereux pour que les instances dirigeantes puissent les ignorer.
Le gouvernement devrait se concentrer sur la protection de la vie privée et des libertés civiles de ses électeurs s’il reprend la réglementation de l’IA. Les cybercriminels continuent de trouver des moyens d’exploiter les systèmes d’IA dans leurs projets. Les personnes peu familiarisées avec l’IA pourraient facilement se laisser tromper par les voix synthétisées, les vidéos deepfake et les profils en ligne gérés par des robots.
Cependant, l’un des problèmes majeurs liés à la réglementation de l’IA par le gouvernement est qu’elle pourrait par inadvertance étouffer l’innovation. L’IA est une technologie complexe et évolutive. Si les responsables chargés de superviser le déploiement, le développement et la formation ne comprennent pas le fonctionnement de l’IA, ils risquent de porter des jugements prématurés et inefficaces.
Compte tenu des obstacles potentiels qui pourraient découler de la surveillance de l'IA par le gouvernement, beaucoup préféreraient que les entreprises technologiques soient le fer de lance de la réglementation. Ils pensent que les développeurs devraient être responsables de la technologie qu’ils publient. L’autorégulation leur permet de stimuler l’innovation et de se concentrer sur le développement efficace de ces systèmes.
De plus, leur compréhension approfondie de l'IA les aidera à élaborer des directives justes et éclairées donnant la priorité à la sécurité des utilisateurs sans compromettre la fonctionnalité. Comme pour toute technologie, l’expertise industrielle rationalise la surveillance. Affecter des fonctionnaires non formés à la réglementation de technologies qu’ils comprennent à peine pourrait présenter plus de problèmes que d’avantages.
Prenons comme exemple l’audience du Sénat américain de 2018 sur les lois de Facebook sur la confidentialité des données. Dans ce rapport du Washington Post, vous verrez que de nombreux législateurs sont confus quant aux fonctions de base de Facebook. Ainsi, à moins que le Sénat américain ne crée un département unique de spécialistes en technologie, ils ne seront probablement pas qualifiés pour réglementer un système aussi avancé et en constante évolution que l’IA.
Cependant, le principal problème avec les entreprises technologiques qui s’autoréglementent est que des entreprises louches pourraient abuser de leur pouvoir. Sans l’intervention d’un tiers, ils sont fondamentalement libres de faire ce qu’ils veulent.
Certains craignent que le gouvernement et les entités privées abusent des systèmes d'IA. Ils ne sont pas sûrs de pouvoir accorder à une poignée d’instances dirigeantes un contrôle total sur des technologies aussi puissantes, d’autant plus que l’IA est encore en évolution. Ils pourraient éventuellement se battre pour l’autorité plutôt que de travailler à une réglementation efficace.
Pour atténuer ces risques, les sceptiques estiment que les utilisateurs finaux méritent carte blanche pour utiliser les modèles d'IA comme ils le souhaitent. Ils affirment que les organismes gouvernementaux ne devraient intervenir que lorsque les utilisateurs d’IA enfreignent la loi. C’est un objectif ambitieux, mais il pourrait techniquement être atteint si les développeurs d’IA open source dominaient les parts de marché.
Cela dit, cette configuration désavantage les personnes non averties en technologie. Les utilisateurs sont responsables de la définition des restrictions au sein de leurs systèmes. Malheureusement, tout le monde ne dispose pas des ressources nécessaires pour le faire.
Il est également peu avisé de supprimer du marché des modèles propriétaires. La prolifération des modèles d'IA open source a plusieurs impacts positifs et négatifs ; pour certains, les inconvénients l’emportent sur les avantages.
Bien que de grandes entités soient le fer de lance de la régulation de l'IA, il existe des organismes qui jouent un rôle important :
Les médias jouent un rôle essentiel dans l’élaboration de la perception du public à l’égard de l’IA. Ils rendent compte des évolutions du secteur, partagent de nouveaux outils, sensibilisent aux utilisations néfastes de l’IA et interrogent des experts sur les préoccupations pertinentes.
La plupart des informations que les utilisateurs finaux connaissent sur l'IA proviennent essentiellement des médias. La publication de fausses données, intentionnellement ou non, causera des dommages irréversibles : vous ne pouvez pas sous-estimer la rapidité avec laquelle la désinformation se propage.
Plusieurs organisations à but non lucratif se concentrent sur la protection de la vie privée et des libertés civiles des utilisateurs d'IA. Ils éduquent le public grâce à des ressources gratuites, plaident en faveur de nouvelles politiques, coopèrent avec les représentants du gouvernement et expriment des préoccupations négligées.
Le seul problème avec les OBNL est qu’ils manquent généralement de ressources. N’ayant aucun lien avec le gouvernement, ils dépendent de sollicitations et de dons privés pour leurs opérations quotidiennes. Malheureusement, seules quelques organisations reçoivent un financement adéquat.
Les associations de l'industrie technologique axées sur l'IA peuvent représenter les droits et les intérêts du public. Comme les OBNL, ils travaillent avec les législateurs, représentent les personnes concernées, plaident en faveur de politiques équitables et sensibilisent à des problèmes spécifiques.
La différence, cependant, c'est qu'ils ont souvent des liens avec des entreprises privées. Leurs membres font toujours des sollicitations, mais ils obtiennent généralement suffisamment de financement de la part de leurs organisations mères tant qu’ils produisent des résultats.
Bien que l'IA comporte plusieurs risques, elle est intrinsèquement neutre. Tous les préjugés, problèmes de confidentialité, erreurs de sécurité et activités potentielles de cybercriminalité proviennent des humains. L’IA en elle-même n’est donc pas quelque chose à craindre.
Mais très peu de gens comprennent déjà le fonctionnement des modèles d’IA modernes. Les idées fausses faussent la perception qu’ont les gens de l’IA, perpétuant des craintes sans fondement, comme celle de l’IA qui s’empare de l’humanité ou vole des emplois.
Les établissements universitaires pourraient combler ces lacunes éducatives grâce à des ressources accessibles. Il n’existe pas encore beaucoup d’ouvrages scientifiques sur les systèmes LLM et NLP modernes. Le public peut utiliser l’IA de manière plus responsable et lutter contre la cybercriminalité s’il comprend parfaitement son fonctionnement.
Les agences chargées de l'application de la loi devraient s'attendre à rencontrer davantage de cyberattaques basées sur l'IA. Avec la prolifération des modèles génératifs, les escrocs peuvent rapidement synthétiser des voix, générer de fausses images, récupérer des informations personnelles identifiables (PII) et même créer des personnages entièrement nouveaux.
La plupart des agences ne sont pas équipées pour gérer ces crimes. Ils devraient investir dans de nouveaux systèmes et former leurs agents à la cybercriminalité moderne ; sinon, ils auront du mal à attraper ces escrocs.
Compte tenu de la nature évolutive de l’IA, il est peu probable qu’un seul organe directeur puisse la contrôler. Certes, les leaders technologiques détiendront plus de pouvoir que les consommateurs, mais diverses entités doivent coopérer pour gérer les risques liés à l’IA sans entraver les progrès. Il est préférable de définir des mesures de contrôle dès maintenant alors que l’intelligence artificielle générale (AGI) est encore un objectif lointain.
Cela dit, la réglementation de l’IA est tout aussi lointaine que celle de l’AGI. En attendant, les utilisateurs doivent respecter les pratiques de sécurité pour lutter contre les menaces basées sur l’IA. De bonnes habitudes, comme limiter le nombre de personnes avec lesquelles vous vous connectez en ligne et sécuriser vos informations personnelles numériques, sont déjà très utiles.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!