


L'intelligence artificielle mènera-t-elle à la disparition de l'humanité ? Les experts se disent plus préoccupés par la désinformation et la manipulation des utilisateurs
Nouvelles du 4 juin, avec le développement et la vulgarisation rapides de la technologie de l'intelligence artificielle, de nombreux acteurs de l'industrie craignent qu'une intelligence artificielle sans restriction ne conduise à la disparition de l'humanité. . Cependant, les experts affirment que l’impact négatif le plus important de l’intelligence artificielle ne sera probablement pas les scènes de guerre nucléaire dans les films de science-fiction, mais plutôt la détérioration de l’environnement social causée par de fausses informations et la manipulation des utilisateurs.
Voici la traduction :
Ces derniers mois, l'industrie s'inquiète de plus en plus de l'intelligence artificielle. Cette semaine encore, plus de 300 dirigeants de l'industrie ont publié une lettre ouverte commune avertissant que l'intelligence artificielle pourrait conduire à l'extinction de l'humanité et que l'intelligence artificielle devrait être traitée aussi sérieusement que « les épidémies et les guerres nucléaires ».
Des termes comme « apocalypse de l'intelligence artificielle » évoqueront toujours les images de robots dirigeant le monde dans les films de science-fiction, mais quelles sont les conséquences de l'intelligence artificielle qu'on laisse se développer ? Les experts disent que la réalité n'est peut-être pas aussi changeante que l'intrigue du film. Il ne s'agira pas d'une intelligence artificielle qui lancera une bombe nucléaire, mais d'une détérioration progressive de l'environnement social de base.
Jessica Newman, directrice de l'Initiative pour la sécurité de l'intelligence artificielle à l'Université de Californie à Berkeley, a déclaré : « Je ne pense pas que les gens devraient s'inquiéter de la détérioration de l'IA ou d'un désir malveillant. Cela vient de quelque chose de plus simple, à savoir que les gens pourraient programmer l'IA pour qu'elle fasse des choses nuisibles, ou que nous finissons par intégrer des systèmes d'IA intrinsèquement inexacts dans de plus en plus de domaines de la société", a-t-il déclaré. Et causant ainsi du tort. "
# 🎜🎜#Cela ne veut pas dire que nous ne devrions pas nous soucier de l'intelligence artificielle. Même si des scénarios apocalyptiques sont peu probables, une IA puissante a la capacité de déstabiliser la société en exacerbant les problèmes de désinformation, en manipulant les utilisateurs humains et en provoquant des changements spectaculaires sur les marchés du travail. Alors que la technologie de l'intelligence artificielle existe depuis des décennies, la popularité des modèles d'apprentissage des langues comme ChatGPT a exacerbé des préoccupations de longue date. Pendant ce temps, les entreprises technologiques s'efforcent d'intégrer l'intelligence artificielle dans leurs produits, se faisant concurrence et créant de nombreux maux de tête, a déclaré Newman. "Je suis très inquiète du chemin que nous suivons actuellement", a-t-elle déclaré. "Nous vivons une période particulièrement dangereuse pour le domaine de l'intelligence artificielle dans son ensemble, à cause de ces systèmes. Même s’ils semblent spéciaux, ils restent très inexacts et intrinsèquement défectueux. » Les experts interrogés ont déclaré qu’ils étaient plus préoccupés par un certain nombre d’aspects. Erreur et désinformationDe nombreux domaines ont déjà déclenché la révolution dite de l'intelligence artificielle. La technologie d’apprentissage automatique, qui sous-tend les algorithmes des flux d’actualités des réseaux sociaux, a longtemps été accusée d’exacerber des problèmes tels que les préjugés inhérents et la désinformation. Les experts préviennent que ces problèmes non résolus ne feront qu'être exacerbés à mesure que les modèles d'intelligence artificielle se développeront. Le pire des cas peut affecter la compréhension qu'ont les gens de la vérité et des informations valables, conduisant à davantage d'incidents fondés sur des mensonges. Les experts affirment qu’une augmentation de la désinformation et de la désinformation pourrait déclencher de nouveaux troubles sociaux. "On pourrait affirmer que la débâcle des médias sociaux était la première fois que nous rencontrions une IA vraiment stupide. Parce que les systèmes de recommandation n'étaient en réalité que de simples modèles d'apprentissage automatique", a déclaré le PDG de la plateforme de science des données Anaconda. fondateur Peter Wang. "Nous avons vraiment échoué." Peter Wang a ajouté que ces erreurs pourraient conduire à un cercle vicieux sans fin, car les modèles d'apprentissage des langues sont également formés sur des informations incorrectes. Cela peut conduire à un effet de « cannibalisme des modèles », dans lequel les modèles futurs sont affectés en permanence par des biais amplifiés par les résultats des modèles passés. Les experts affirment que la désinformation inexacte et la désinformation qui induit facilement les gens en erreur sont amplifiées par l'intelligence artificielle. Les grands modèles de langage comme ChatGPT sont sujets au phénomène dit d'« hallucination », dans lequel ils fabriquent et fabriquent de fausses informations à plusieurs reprises. Une étude menée par NewsGuard, organisme de surveillance de l'industrie de l'information, a révélé que bon nombre des dizaines de sites « d'information » en ligne dont le contenu est entièrement rédigé par l'intelligence artificielle contiennent des inexactitudes. Les co-PDG de NewsGuard, Gordon Crovitz et Steven Brill, ont déclaré que le système pourrait être exploité par de mauvais acteurs à une échelle délibérée pour propager de la désinformation.Cravitz a déclaré : « Certains acteurs malveillants peuvent créer de fausses déclarations et ensuite utiliser l'effet multiplicateur de ce système pour diffuser de la désinformation à grande échelle. » « Certaines personnes disent que les dangers de l'intelligence artificielle ont été exagérés, mais dans le domaine de l'information. » "En termes de préjudice potentiel à plus grande échelle, la désinformation est l'impact le plus probable de l'IA", a déclaré Rebecca Finlay du Partenariat mondial à but non lucratif sur l'IA. Le risque de préjudice personnel est également le plus élevé. "La question est de savoir comment faire. "Comment pouvons-nous vérifier ce que nous voyons en ligne ?" la mesure dans laquelle cette technologie peut avoir un impact négatif sur les pensées ou les comportements des utilisateurs.
En fait, ces inquiétudes ont provoqué de nombreuses tragédies. En Belgique, un homme se serait suicidé après avoir été encouragé à le faire par un chatbot. Il existe également des chatbots qui disent à un utilisateur de rompre avec son partenaire, ou demandent à un utilisateur souffrant d'un trouble alimentaire de perdre du poids.
Newman a déclaré que, de par leur conception, étant donné que les chatbots communiquent avec les utilisateurs dans un format conversationnel, il peut y avoir plus de confiance.
« Les grands modèles de langage sont particulièrement capables de persuader ou de manipuler les gens pour qu'ils changent subtilement leurs croyances ou leurs comportements », a-t-elle déclaré. "La solitude et la santé mentale sont déjà d'énormes problèmes dans le monde, et nous devons voir quel impact cognitif les chatbots auront sur le monde."
Les experts s'inquiètent donc davantage du fait que les chatbots IA gagnent en sensibilité et dépassent les utilisateurs humains, mais plutôt les grands utilisateurs. Les modèles de langage qui les sous-tendent peuvent manipuler les gens pour qu'ils se fassent du mal qu'ils ne se feraient pas autrement. Cela est particulièrement vrai pour les modèles linguistiques qui fonctionnent sur un modèle de revenus publicitaires, a déclaré Newman, essayant de manipuler le comportement des utilisateurs afin qu'ils restent sur la plate-forme le plus longtemps possible.
Newman a déclaré : "Dans de nombreux cas, le préjudice causé aux utilisateurs n'est pas dû au fait qu'ils le souhaitent, mais aux conséquences du non-respect par le système des protocoles de sécurité."
Newman a ajouté que la nature humaine des chatbots en fait. Les utilisateurs sont particulièrement sensibles aux manipulations.
Elle a déclaré : « Si vous parlez à une chose qui utilise des pronoms à la première personne et parle de ses propres sentiments et situations, même si vous savez que ce n'est pas réel, cela est encore plus susceptible de déclencher une réaction qui ressemble à un Les gens sont plus susceptibles de vouloir lui faire confiance. "Les modèles linguistiques incitent les gens à lui faire confiance et à le traiter comme un ami, pas comme un outil." un grand nombre d'emplois humains. Certaines études concluent que l’IA remplacera 85 millions d’emplois dans le monde d’ici 2025 et plus de 300 millions d’emplois dans le futur.
Il existe de nombreux secteurs et postes concernés par l'intelligence artificielle, notamment les scénaristes et les data scientists. Aujourd’hui, l’IA peut réussir l’examen du barreau comme un vrai avocat et peut mieux répondre aux questions de santé qu’un vrai médecin.
Les experts ont averti que la montée de l’intelligence artificielle pourrait conduire à un chômage de masse et à une instabilité sociale.
Peter Wang prévient que des licenciements massifs auront lieu dans un avenir proche, avec « de nombreux emplois en danger » et qu'il existe peu de plans pour faire face aux conséquences.
"Aux États-Unis, il n'existe aucun cadre sur la manière dont les gens vont survivre lorsqu'ils perdent leur emploi", a-t-il déclaré. "Cela va conduire à beaucoup de chaos et de troubles. Pour moi, c'est le plus tangible," conséquence involontaire réelle de cela. Les experts craignent qu’il en soit de même pour l’intelligence artificielle.
Peter Wang a déclaré : « L'une des raisons pour lesquelles beaucoup d'entre nous s'inquiètent du développement de l'intelligence artificielle est qu'au cours des 40 dernières années, les États-Unis en tant que société ont fondamentalement renoncé à réglementer la technologie.
Malgré cela, Ces dernières années, le Congrès américain a pris des mesures proactives au cours des derniers mois, en organisant des auditions pour que le PDG d'OpenAI, Sam Altman, témoigne sur les mesures réglementaires qui devraient être mises en œuvre. Finlay a déclaré qu'elle était "encouragée" par ces mesures, mais qu'il restait encore du travail à faire sur le développement de spécifications techniques pour l'intelligence artificielle et sur la manière dont elles seraient publiées.
« Il est difficile de prédire comment les autorités législatives et réglementaires réagiront », a-t-elle déclaré. « Nous avons besoin que ce niveau de technologie soit soumis à un examen rigoureux
.Bien que les dangers de l'intelligence artificielle soient la principale préoccupation de la plupart des acteurs du secteur, tous les experts ne sont pas des « pessimistes ». Beaucoup sont également enthousiasmés par les applications potentielles de cette technologie.
Peter Wang a déclaré : « En fait, je pense que la nouvelle génération de technologie d'intelligence artificielle peut vraiment libérer un énorme potentiel pour l'humanité, permettant à la société humaine de prospérer à une plus grande échelle qu'au cours des 100 dernières années, voire même Niveau 200 ans. « En fait, je suis très, très optimiste quant à son impact positif. »
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

AI Hentai Generator
Générez AI Hentai gratuitement.

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

La commande de fermeture CENTOS est arrêtée et la syntaxe est la fermeture de [options] le temps [informations]. Les options incluent: -H Arrêtez immédiatement le système; -P éteignez l'alimentation après l'arrêt; -r redémarrer; -t temps d'attente. Les temps peuvent être spécifiés comme immédiats (maintenant), minutes (minutes) ou une heure spécifique (HH: mm). Des informations supplémentaires peuvent être affichées dans les messages système.

Guide complet pour vérifier la configuration HDFS dans les systèmes CentOS Cet article vous guidera comment vérifier efficacement la configuration et l'état de l'exécution des HDF sur les systèmes CentOS. Les étapes suivantes vous aideront à bien comprendre la configuration et le fonctionnement des HDF. Vérifiez la variable d'environnement Hadoop: Tout d'abord, assurez-vous que la variable d'environnement Hadoop est correctement définie. Dans le terminal, exécutez la commande suivante pour vérifier que Hadoop est installé et configuré correctement: HadoopVersion Check HDFS Fichier de configuration: Le fichier de configuration de base de HDFS est situé dans le répertoire / etc / hadoop / conf / le répertoire, où Core-site.xml et hdfs-site.xml sont cruciaux. utiliser

La politique de sauvegarde et de récupération de GitLab dans le système CentOS afin d'assurer la sécurité et la récupérabilité des données, Gitlab on CentOS fournit une variété de méthodes de sauvegarde. Cet article introduira plusieurs méthodes de sauvegarde courantes, paramètres de configuration et processus de récupération en détail pour vous aider à établir une stratégie complète de sauvegarde et de récupération de GitLab. 1. MANUEL BACKUP Utilisez le Gitlab-RakegitLab: Backup: Créer la commande pour exécuter la sauvegarde manuelle. Cette commande sauvegarde des informations clés telles que le référentiel Gitlab, la base de données, les utilisateurs, les groupes d'utilisateurs, les clés et les autorisations. Le fichier de sauvegarde par défaut est stocké dans le répertoire / var / opt / gitlab / backups. Vous pouvez modifier / etc / gitlab

Docker utilise les fonctionnalités du noyau Linux pour fournir un environnement de fonctionnement d'application efficace et isolé. Son principe de travail est le suivant: 1. Le miroir est utilisé comme modèle en lecture seule, qui contient tout ce dont vous avez besoin pour exécuter l'application; 2. Le Système de fichiers Union (UnionFS) empile plusieurs systèmes de fichiers, ne stockant que les différences, l'économie d'espace et l'accélération; 3. Le démon gère les miroirs et les conteneurs, et le client les utilise pour l'interaction; 4. Les espaces de noms et les CGROUP implémentent l'isolement des conteneurs et les limitations de ressources; 5. Modes de réseau multiples prennent en charge l'interconnexion du conteneur. Ce n'est qu'en comprenant ces concepts principaux que vous pouvez mieux utiliser Docker.

Activer l'accélération du GPU Pytorch sur le système CentOS nécessite l'installation de versions CUDA, CUDNN et GPU de Pytorch. Les étapes suivantes vous guideront tout au long du processus: CUDA et CUDNN Installation détermineront la compatibilité de la version CUDA: utilisez la commande NVIDIA-SMI pour afficher la version CUDA prise en charge par votre carte graphique NVIDIA. Par exemple, votre carte graphique MX450 peut prendre en charge CUDA11.1 ou plus. Téléchargez et installez Cudatoolkit: visitez le site officiel de Nvidiacudatoolkit et téléchargez et installez la version correspondante selon la version CUDA la plus élevée prise en charge par votre carte graphique. Installez la bibliothèque CUDNN:

L'installation de MySQL sur CENTOS implique les étapes suivantes: Ajout de la source MySQL YUM appropriée. Exécutez la commande YUM Install MySQL-Server pour installer le serveur MySQL. Utilisez la commande mysql_secure_installation pour créer des paramètres de sécurité, tels que la définition du mot de passe de l'utilisateur racine. Personnalisez le fichier de configuration MySQL selon les besoins. Écoutez les paramètres MySQL et optimisez les bases de données pour les performances.

Un guide complet pour consulter les journaux GitLab sous Centos System Cet article vous guidera comment afficher divers journaux GitLab dans le système CentOS, y compris les journaux principaux, les journaux d'exception et d'autres journaux connexes. Veuillez noter que le chemin du fichier journal peut varier en fonction de la version Gitlab et de la méthode d'installation. Si le chemin suivant n'existe pas, veuillez vérifier le répertoire d'installation et les fichiers de configuration de GitLab. 1. Afficher le journal GitLab principal Utilisez la commande suivante pour afficher le fichier journal principal de l'application GitLabRails: Commande: sudocat / var / log / gitlab / gitlab-rails / production.log Cette commande affichera le produit

Lors de l'installation de Pytorch sur le système CentOS, vous devez sélectionner soigneusement la version appropriée et considérer les facteurs clés suivants: 1. Compatibilité de l'environnement du système: Système d'exploitation: Il est recommandé d'utiliser CentOS7 ou plus. CUDA et CUDNN: La version Pytorch et la version CUDA sont étroitement liées. Par exemple, Pytorch1.9.0 nécessite CUDA11.1, tandis que Pytorch2.0.1 nécessite CUDA11.3. La version CUDNN doit également correspondre à la version CUDA. Avant de sélectionner la version Pytorch, assurez-vous de confirmer que des versions compatibles CUDA et CUDNN ont été installées. Version Python: branche officielle de Pytorch
