Le développement de la superintelligence est un sujet de débat sans fin parmi les scientifiques. La superintelligence a évolué à partir du concept plus traditionnel d’intelligence générale artificielle (AGI). Au cours de la prochaine décennie, cette technologie puissante a le potentiel d’émerger, capable à la fois de résoudre d’importants problèmes mondiaux et potentiellement d’entraîner la perte ou la disparition des droits de l’homme.
La stratégie d’OpenAI (American Artificial Intelligence Research Company) comprend la création d’un alignement automatisé de chercheurs dotés de capacités de niveau humain et l’exploitation d’énormes ressources informatiques pour former et aligner de manière itérative la superintelligence. Le processus, appelé alignement de la super-intelligence, nécessite de l’innovation, une validation approfondie et des tests de résistance contradictoires de la technologie d’alignement de l’IA.
Pour relever ce défi, OpenAI investit des ressources et des recherches importantes, et encourage activement des chercheurs et ingénieurs exceptionnels à travailler ensemble. Cependant, il reste à voir si le passage de la terminologie de l’intelligence artificielle générale à la superintelligence aura un impact profond sur le débat en cours autour des risques et des avantages de l’intelligence artificielle.
Le potentiel de la superintelligence est mis en valeur par OpenAI, considérée comme l'une des technologies les plus influentes de tous les temps, capable de résoudre des problèmes mondiaux majeurs. Néanmoins, il reconnaît les risques énormes associés à la superintelligence, qui pourraient conduire à une perte de pouvoir, voire à l’extinction de l’humanité.
OpenAI estime que même si la superintelligence peut sembler hors de portée, elle est possible au cours de la prochaine décennie. Pour relever le défi consistant à aligner la superintelligence sur l’intention humaine, de nouvelles institutions de gouvernance doivent être créées pour gérer ces risques. Il est frappant de constater que le terme utilisé par OpenAI n’est pas celui de l’intelligence artificielle générale (AGI) traditionnelle. Leurs raisons sont les suivantes :
Nous nous concentrons davantage sur la superintelligence plutôt que sur l'intelligence artificielle générale pour mettre en évidence des niveaux de capacités plus élevés. Nous avons beaucoup d'incertitude quant à la rapidité avec laquelle cette technologie se développera au cours des prochaines années, nous choisissons donc de viser un objectif plus difficile pour calibrer un système plus performant.
La technologie actuelle d'alignement de l'IA ne peut pas contrôler entièrement le potentiel d'une IA super intelligente, bien qu'il existe certaines méthodes telles que l'apprentissage par renforcement pour s'améliorer en fonction des commentaires humains. Les humains sont incapables de superviser de manière fiable des systèmes beaucoup plus intelligents que nous, et la technologie existante ne peut pas atteindre le domaine de la superintelligence. OpenAI souligne la nécessité de percées scientifiques et technologiques pour surmonter ces défis.
L’approche d’OpenAI vise à développer un chercheur en alignement automatique doté de capacités à peu près proches des niveaux humains. De vastes ressources informatiques seront utilisées pour intensifier leurs efforts et affiner la superintelligence de manière itérative. Les étapes clés de ce travail comprennent le développement de méthodes de formation évolutives, la validation des modèles générés et les tests de résistance du pipeline d'alignement. Selon le titre de l'annonce d'OpenAI, le concept est appelé alignement superintelligent.
Pour surmonter la difficulté de l'évaluation humaine de tâches difficiles, une supervision évolutive peut être utilisée pour la résoudre à l'aide de systèmes d'intelligence artificielle. Essentielle pour vérifier la cohérence, la supervision doit être appliquée aux tâches non supervisées et détecter les comportements problématiques et la structure interne. La formation de modèles non alignés est également une méthode de test contradictoire qui permet de valider l'efficacité des techniques d'alignement.
OpenAI s'attend à ce que son orientation de recherche change à mesure que l'on en apprend davantage sur ce problème, et ils prévoient de partager leur feuille de route à l'avenir. Ils ont formé une équipe composée des meilleurs chercheurs et ingénieurs en apprentissage automatique, concentrés sur la résolution du problème de l’alignement de la superintelligence. Au cours des quatre prochaines années, OpenAI consacrera 20 % de sa puissance de calcul totale à ces travaux.
Bien que le succès ne soit pas garanti, OpenAI reste optimiste quant au fait que ce problème puisse être résolu grâce à des efforts ciblés et concertés. Leur objectif est de fournir des preuves et des arguments pour convaincre la communauté de l’apprentissage automatique et de la sécurité que le problème a été résolu, et ils travaillent activement avec des experts de toutes disciplines pour examiner des problèmes humains et sociaux plus larges.
OpenAI invite des chercheurs et des ingénieurs exceptionnels, même ceux qui n'ont pas été impliqués dans les efforts d'alignement dans le passé, à se joindre à leurs efforts. Ils considèrent l’alignement superintelligent comme l’un des problèmes techniques non résolus les plus importants et le considèrent comme un problème d’apprentissage automatique traitable avec le potentiel de contributions significatives.
Il semble que le débat qui fait rage sur l’intelligence artificielle, l’intelligence artificielle en général et les questions complexes interconnectées impliquant l’aspect pratique et la destruction humaine crée de nouvelles divisions. Aujourd'hui, le vocabulaire a quelque peu changé, mais on ne sait pas clairement s'il s'agit de science ou de sémantique.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!