Maison > Périphériques technologiques > IA > le corps du texte

En comparant l'IA aux installations nucléaires, OpenAI appelle à un contrôle mondial strict du développement de l'IA

PHPz
Libérer: 2023-05-26 19:17:10
avant
835 Les gens l'ont consulté

Selon les informations du 24 mai, trois hauts dirigeants d'OpenAI ont récemment publié conjointement un document affirmant que l'IA doit être strictement réglementée et que le développement de l'IA doit être géré comme des installations nucléaires.

En comparant lIA aux installations nucléaires, OpenAI appelle à un contrôle mondial strict du développement de lIA

(Le site officiel d'OpenAI a mis en ligne cet article)

Trois cadres supérieurs d'OpenAI estiment que l'IA super intelligente est une arme à double tranchant. Au cours des dix prochaines années, la production de l'IA rattrapera de nombreuses grandes entreprises et doit être réglementée. une agence internationale de réglementation de l’intelligence artificielle.

Ils ont également déclaré que l’intelligence artificielle innove si rapidement qu’on ne peut pas s’attendre à ce que les autorités existantes contrôlent totalement cette technologie.

En comparant lIA aux installations nucléaires, OpenAI appelle à un contrôle mondial strict du développement de lIA

Actuellement, cet article a attiré beaucoup d'attention sur Twitter, et même Musk lui-même a commenté ci-dessous en disant "Le contrôle compte". Beaucoup de gens pensent que l'approche d'OpenAI est égoïste car elle entrave la vision que les gens ont de l'ouverture future et de l'application de l'intelligence artificielle.

En comparant lIA aux installations nucléaires, OpenAI appelle à un contrôle mondial strict du développement de lIA

En fait, Altman, l'un des trois cadres supérieurs d'OpenAI, a avancé de nombreuses propositions sur la sécurité de l'IA lors de sa participation à l'audition du Congrès américain, notamment la création d'une nouvelle agence chargée de délivrer des licences pour les grands modèles d'IA et ayant l'autorité pour les révoquer. Le pouvoir d'autorisation ; créer un ensemble de normes de sécurité pour les modèles d'IA et évaluer les risques, y compris s'ils peuvent « s'auto-répliquer » et « s'échapper du laboratoire et agir de leur propre chef » ; audits indépendants de divers indicateurs du modèle. Cette fois, ils ont une fois de plus attiré l’attention du public sur cette question à travers leur identité visuelle.

Tout le monde devrait connaître la série de films "Terminator". Bien que l’intelligence artificielle « Skynet » ait causé d’importantes destructions mondiales dans le film, nous ne pouvons pas sous-estimer l’intelligence artificielle simplement parce qu’il s’agit d’un film de fiction. L'avenir est là, et maintenant que les modèles d'IA tels que ChatGPT et Midjourney ont montré des capacités aussi puissantes, il est peut-être temps de commencer à prêter attention à l'orientation future du développement de cette technologie.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Étiquettes associées:
source:sohu.com
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal
À propos de nous Clause de non-responsabilité Sitemap
Site Web PHP chinois:Formation PHP en ligne sur le bien-être public,Aidez les apprenants PHP à grandir rapidement!