L’IA n’a jamais autant affecté la vie humaine et apporté autant d’inquiétudes et de problèmes aux êtres humains qu’aujourd’hui.
Comme toutes les autres innovations technologiques majeures du passé, le développement de l'IA a également deux faces, l'une face au bien et l'autre face au mal. C'est aussi l'une des raisons importantes pour lesquelles les agences de régulation du monde entier ont commencé. d'intervenir activement.
En tout cas, le développement de la technologie de l'IA semble être une tendance générale et imparable. Comment faire en sorte que l'IA se développe et se déploie de manière plus sûre tout en respectant les valeurs humaines et l'éthique . question pour tous les praticiens actuels de l’IA Des questions qui nécessitent un examen attentif.
Aujourd'hui, les trois co-fondateurs d'OpenAI - le PDG Sam Altman, le président Greg Brockman et le scientifique en chef Ilya Sutskever ont écrit conjointement un article pour discuter de la manière de gouverner la superintelligence. Ils affirment que c’est le bon moment pour commencer à réfléchir à une gouvernance superintelligente, à savoir de futurs systèmes d’intelligence artificielle encore plus performants que l’AGI.
D'après ce que nous avons vu jusqu'à présent, il est concevable qu'au cours de la prochaine décennie, l'intelligence artificielle (IA) atteindra des niveaux de compétence qui surpassent les experts humains dans la plupart des domaines et sera capable d'effectuer des tâches comparables. aux plus grandes entreprises d'aujourd'hui, autant d'activités productives qu'une seule.
Quels que soient les avantages et les inconvénients potentiels, la superintelligence sera plus puissante que les autres technologies auxquelles les humains ont dû faire face dans le passé. Nous pouvons avoir un avenir incroyablement prospère mais nous devons gérer les risques pour y arriver. Considérant la possibilité d’un risque existentiel, nous ne pouvons pas nous contenter de réagir passivement. L’énergie nucléaire est un exemple de technologie possédant cette propriété ; un autre exemple est la biologie synthétique.
De même, nous devons atténuer les risques de la technologie actuelle de l'IA, mais la superintelligence nécessitera un traitement et une coordination spéciaux. Un point de départ
Il existe de nombreuses idées importantes dans nos chances de mener ce développement avec succès ; nous vous proposons ici nos premières réflexions sur trois d'entre elles ;
Premièrement, nous avons besoin d'une certaine coordination entre les principaux efforts de développement pour garantir que la superintelligence soit développée de manière à assurer notre sécurité et à aider ces systèmes à s'intégrer en douceur dans la société. Il existe de nombreuses façons d'y parvenir ; Les principaux gouvernements du monde peuvent se réunir pour établir un projet dans lequel de nombreux efforts actuels s'intègrent, ou nous pouvons le faire par le biais du "consentement collectif" (avec le soutien d'un nouveau organisation, comme suit (comme suggéré ci-dessus), limitant la croissance des capacités d’IA de pointe à un certain rythme chaque année.
Bien entendu, les entreprises individuelles doivent également être tenues de respecter des normes extrêmement élevées pour se développer de manière responsable.
Deuxièmement, nous pourrions éventuellement avoir besoin de quelque chose de similaire à l'Agence internationale de l'énergie atomique (AIEA) pour réglementer le développement de la superintelligence. Tout effort dépassant un certain seuil de capacité (ou de ressources informatiques, etc.) est nécessaire ; être soumis à cette surveillance d'une agence internationale, qui peut inspecter les systèmes, exiger des audits, tester le respect des normes de sécurité, imposer des limites aux niveaux de déploiement et aux niveaux de sécurité, etc. Le suivi de l'informatique et de la consommation d'énergie aiderait beaucoup et nous donnerait l'espoir que cette idée soit réellement réalisable. Dans un premier temps, les entreprises pourraient accepter volontairement de commencer à mettre en œuvre les éléments dont un tel organisme pourrait un jour avoir besoin, tandis que dans un deuxième temps, chaque pays pourrait le mettre en œuvre. Il est important de noter qu’une telle agence devrait se concentrer sur la réduction des « risques existentiels » plutôt que sur des questions qui devraient être laissées à chaque pays, comme la définition de ce que l’IA devrait être autorisée à dire. Troisièmement, Nous devons disposer de suffisamment de capacités techniques pour sécuriser la superintelligence. Il s’agit d’une question de recherche ouverte dans laquelle nous et d’autres investissons beaucoup d’efforts. Nous pensons qu'il est important de permettre aux entreprises et aux projets open source de développer des modèles en dessous de seuils de capacité significatifs sans nécessiter le type de réglementation que nous décrivons ici (y compris des mécanismes onéreux, tels que des licences ou un audit). . Les systèmes d’aujourd’hui créeront une valeur considérable pour le monde, et même s’ils comportent des risques, ces niveaux de risque semblent comparables à ceux d’autres technologies Internet, et la réponse de la société semble appropriée. En revanche, les systèmes sur lesquels nous nous concentrons auront une puissance au-delà de toute technologie à ce jour, et nous devons faire attention à ne pas diluer l'attention portée à eux en appliquant des normes similaires à des technologies bien en dessous de ce seuil. Mais pourla gouvernance des systèmes les plus robustes et les décisions concernant leur déploiement, il doit y avoir une surveillance publique forte. Nous pensons que les citoyens du monde entier devraient décider démocratiquement des limites et des défauts des systèmes d'IA. Nous ne savons pas encore comment concevoir un tel mécanisme, mais nous prévoyons de faire quelques expériences. Nous continuons de croire que, dans ces vastes limites, les utilisateurs individuels devraient avoir un contrôle significatif sur la façon dont ils se comportent avec l’IA. Compte tenu des risques et des difficultés, il vaut la peine de réfléchir aux raisons pour lesquelles nous construisons cette technologie. Chez OpenAI, nous avons deux raisons fondamentales. Premièrement, nous pensons que cela mènera à un monde meilleur que celui que nous pouvons imaginer aujourd’hui (nous en voyons déjà les premiers exemples dans des domaines tels que l’éducation, le travail créatif et la productivité personnelle). Le monde est confronté à de nombreux problèmes et nous avons besoin d'aide supplémentaire pour les résoudre ; cette technologie peut améliorer notre société, et nous serons certainement surpris par la créativité de chacun en utilisant ces nouveaux outils. La croissance économique et l’amélioration de la qualité de vie seront stupéfiantes. Deuxièmement, nous pensons que arrêter de construire une superintelligence serait une décision, contre toute attente, risquée et difficile. En raison de ses énormes avantages, le coût de la construction de la superintelligence diminue chaque année, le nombre de constructeurs augmente rapidement et cela fait essentiellement partie du chemin technologique que nous suivons, l'arrêter nécessitera quelque chose qui s'apparente à une surveillance mondiale. Le régime existe, et même un tel système ne garantit pas le succès. Nous devons donc bien faire les choses. Ce qui n'est pas couvert par le champ d'application
Participation et potentiel du public
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!