Maison Périphériques technologiques IA La politique américaine AI pivote fortement de la «sécurité» à la «sécurité»

La politique américaine AI pivote fortement de la «sécurité» à la «sécurité»

Apr 12, 2025 am 11:15 AM

La politique de l'IA américaine pivote fortement de la «sécurité» à la «sécurité»

Le président Donald Trump a annulé le décret exécutif de l'ancien président Joe Biden sur l'IA le premier jour de son mandat (divulgation: j'ai été conseiller principal pour l'IA au Département de la sécurité intérieure pendant l'administration Biden), et le vice-président JD Vance a ouvert le sommet de l'AI de l'AI à Paris, il n'y avait pas réellement le lancement de la sécurité et de la sécurité de l'IA " en disant fermement " Vance a poursuivi en disant que les États-Unis «protégeraient l'IA américaine» et empêcheraient les adversaires d'atteindre les capacités de l'IA qui «menacent tout notre peuple».

Sans plus de contexte, ceux-ci ressemblent à des mots à la mode dénués de sens - quelle est la différence entre la sécurité de l'IA et la sécurité de l'IA, et que signifie ce changement pour les consommateurs et les entreprises qui continuent d'adopter l'IA?

En termes simples, la sécurité de l'IA se concentre principalement sur le développement de l'IA d'une manière qui se comporte de manière éthique et fiable, en particulier lorsqu'elle est utilisée dans des contextes à enjeux élevés, comme l'embauche ou les soins de santé. Pour aider à empêcher les systèmes d'IA de causer des dommages, la législation sur la sécurité de l'IA comprend généralement des évaluations des risques, des protocoles de test et des exigences pour la surveillance humaine.

La sécurité de l'IA, en revanche, ne se résume pas au développement d'une IA éthique et sûre. Il suppose plutôt que les adversaires américains utiliseront inévitablement l'IA de manière malveillante et cherchent à défendre les actifs américains contre les menaces intentionnelles, comme l'IA exploitée par les nations rivales pour cibler les infrastructures critiques américaines. Ce ne sont pas des risques hypothétiques - les agences de renseignement américaines continuent de suivre les cyber-opérations offensives croissantes en Chine, en Russie et en Corée du Nord. Pour contrer ces types d'attaques délibérées, les organisations ont besoin d'une solide référence des pratiques de cybersécurité qui tiennent également compte des menaces présentées par l'IA.

Ces deux domaines sont importants et interconnectés - alors pourquoi semble-t-il que l'un a éclipsé l'autre ces derniers mois? Je suppose que la priorité à la sécurité de l'IA est intrinsèquement plus alignée sur le climat de la politique étrangère d'aujourd'hui , dans laquelle les visions du monde les plus en vogue sont des représentations réalistes d'une concurrence impitoyable entre les nations à l'avantage géopolitique et économique. La priorité à la sécurité de l'IA vise à protéger l'Amérique contre ses adversaires tout en maintenant la domination mondiale de l'Amérique dans l'IA. La sécurité de l'IA, en revanche, peut être un paratonnerre pour les débats politiques sur la liberté d'expression et les préjugés déloyaux. La question de savoir si un système d'IA donné causera des dommages réels dépend également du contexte, car le même système déployé dans différents environnements pourrait produire des résultats très différents.

Face à tant d'incertitude, combinée à des désaccords politiques sur ce qui constitue vraiment un préjudice au public, les législateurs ont eu du mal à justifier une législation sur la sécurité qui pourrait entraver l'avantage concurrentiel de l'Amérique. Les nouvelles de Deepseek , une entreprise de l'IA chinoise, réalisant des performances concurrentielles avec les modèles d'IA américains à des coûts considérablement inférieurs, ne réaffirment que cette décision, attachant une peur généralisée de l'écart constant entre nous et les capacités de l'IA de la Chine et de la Chine.

Que se passe-t-il maintenant, lorsque le spectre de la législation fédérale sur la sécurité ne se profile plus à l'horizon? Les commentaires du public d' Openai , Anthropic et d'autres personnes sur le prochain «plan d'action de l'IA» de l'administration Trump fournissent une image intéressante de la façon dont les priorités de l'IA ont changé. D'une part, la «sécurité» n'apparaît à peine dans les soumissions de l'industrie, et lorsque les problèmes de sécurité sont mentionnés, ils sont recadrés comme des risques de sécurité nationale qui pourraient désavantager les États-Unis dans sa race pour dépasser la Chine. En général, ces soumissions mettent en place une série de politiques adaptées à l'innovation, des règles de droit d'auteur équilibrées pour la formation d'IA pour exporter des contrôles sur les semi-conducteurs et d'autres composants d'IA précieux (poitrine du modèle par exemple).

Au-delà d'essayer de répondre à l'esprit de la messagerie initiale de l'administration Trump sur l'IA , ces soumissions semblent également révéler ce que les entreprises croient que le rôle du gouvernement américain devrait être en ce qui concerne l'IA: le financement des infrastructures essentielles pour poursuivre le développement de l'IA, la protection de la propriété intellectuelle américaine et la régulation de l'IA uniquement dans la mesure où elle menace notre sécurité nationale. Pour moi, c'est moins un changement de stratégie de la part des entreprises d'IA qu'un changement de communication. Si quoi que ce soit, ces commentaires de l'industrie semblent plus alignés par mission que leurs appels précédents à une législation sur les données forte et complète.

Même alors, tout le monde dans l'industrie ne soutient pas une approche sans retenue de la domination de l'IA. Dans leur article, « Superintelligence Strategy », trois voix de l'IA proéminentes, Eric Schmidt, Dan Hendrycks et Alexandr Wang, conseillent à la prudence lorsqu'il s'agit de poursuivre une poussée de style projet de Manhattan pour développer une IA Superintelligent. Les auteurs proposent plutôt «un dysfonctionnement de l'IA assuré mutuel», ou MAIM, une stratégie défensive rappelant la dissuasion de l'ère de la guerre froide qui allait contre fortement tous les efforts dirigés par l'État pour atteindre un monopole d'IA.

Si les États-Unis poursuivaient cette stratégie, il devrait désactiver les projets d'IA menaçants, restreindre l'accès aux puces d'IA avancées et des modèles de poids ouvert et renforcer la fabrication des puces domestiques. Selon les auteurs, le faire permettrait aux États-Unis et à d'autres pays de faire progresser paisiblement l'innovation de l'IA tout en réduisant le risque global des acteurs voyous utilisant l'IA pour créer des dommages généralisés.

Il sera intéressant de voir si ces propositions gagnent du terrain dans les prochains mois, car l'administration Trump constitue une position plus détaillée sur l'IA. Nous devons nous attendre à voir plus de telles propositions - en particulier, celles qui se concentrent constamment sur les risques géopolitiques et les opportunités de l'IA, ne suggérant que la législation dans la mesure où elle aide à prévenir les catastrophes à grande échelle, telles que la création d'armes biologiques ou des attaques étrangères contre des actifs américains critiques.

Malheureusement, les problèmes de sécurité ne disparaissent pas lorsque vous cessez de prêter attention à eux ou renommez un institut de sécurité . Bien que le renforcement de notre posture de sécurité puisse aider à stimuler notre avantage concurrentiel et à contrer les attaques étrangères, ce sont les interventions de sécurité qui aident à prévenir les dommages aux individus ou à la société à grande échelle.

La réalité est que les travaux de sécurité et de sécurité sur l'IA - les interventions de sécurité de l'IA ne fonctionnent pas si les systèmes eux-mêmes peuvent être piratés; De la même manière, garantir les systèmes d'IA contre les menaces externes devient sans signification si ces systèmes sont intrinsèquement dangereux et sujets à des dommages. Cambridge Analytica offre une illustration utile de cette relation; L'incident a révélé que les protocoles de sécurité inadéquats de Facebook autour de l'accès aux données ont servi à exacerber les vulnérabilités de sécurité qui ont ensuite été exploitées pour la manipulation politique. Les systèmes d'IA d'aujourd'hui sont confrontés à des défis tout aussi interconnectés. Lorsque les garde-corps de sécurité sont démantelés, les risques de sécurité suivent inévitablement.

Pour l'instant, la sécurité de l'IA est entre les mains des législatures des États et des équipes de confiance des entreprises et de sécurité. Les entreprises qui construisent l'IA savent - peut-être mieux que quiconque - quels sont les enjeux. Une seule violation de confiance, qu'il s'agisse d'un vol de données ou d'un accident, peut être destructrice pour leur marque. Je prédis qu'ils continueront donc d'investir dans des pratiques de sécurité sensibles de l'IA, mais discrètement et sans fanfare. Les initiatives émergentes comme Roost , qui permet aux entreprises de construire en collaboration des outils de sécurité ouverte, peut être un bon aperçu de ce qui va arriver: un mouvement de sécurité en plein essor silencieusement, soutenu par les experts, les laboratoires et les institutions qui ont lancé ce domaine au cours de la dernière décennie.

Espérons que ce sera suffisant.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn

Outils d'IA chauds

Undresser.AI Undress

Undresser.AI Undress

Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover

AI Clothes Remover

Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool

Undress AI Tool

Images de déshabillage gratuites

Clothoff.io

Clothoff.io

Dissolvant de vêtements AI

Video Face Swap

Video Face Swap

Échangez les visages dans n'importe quelle vidéo sans effort grâce à notre outil d'échange de visage AI entièrement gratuit !

Outils chauds

Bloc-notes++7.3.1

Bloc-notes++7.3.1

Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise

SublimeText3 version chinoise

Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1

Envoyer Studio 13.0.1

Puissant environnement de développement intégré PHP

Dreamweaver CS6

Dreamweaver CS6

Outils de développement Web visuel

SublimeText3 version Mac

SublimeText3 version Mac

Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Début avec Meta Llama 3.2 - Analytics Vidhya Début avec Meta Llama 3.2 - Analytics Vidhya Apr 11, 2025 pm 12:04 PM

META'S LLAMA 3.2: un bond en avant dans l'IA multimodal et mobile Meta a récemment dévoilé Llama 3.2, une progression importante de l'IA avec de puissantes capacités de vision et des modèles de texte légers optimisés pour les appareils mobiles. S'appuyer sur le succès o

10 extensions de codage générateur AI dans le code vs que vous devez explorer 10 extensions de codage générateur AI dans le code vs que vous devez explorer Apr 13, 2025 am 01:14 AM

Hé là, codant ninja! Quelles tâches liées au codage avez-vous prévues pour la journée? Avant de plonger plus loin dans ce blog, je veux que vous réfléchissiez à tous vos malheurs liés au codage - les énumérez. Fait? - Let & # 8217

Vendre une stratégie d'IA aux employés: le manifeste du PDG de Shopify Vendre une stratégie d'IA aux employés: le manifeste du PDG de Shopify Apr 10, 2025 am 11:19 AM

La récente note du PDG de Shopify Tobi Lütke déclare hardiment la maîtrise de l'IA une attente fondamentale pour chaque employé, marquant un changement culturel important au sein de l'entreprise. Ce n'est pas une tendance éphémère; C'est un nouveau paradigme opérationnel intégré à P

AV Bytes: Meta & # 039; S Llama 3.2, Google's Gemini 1.5, et plus AV Bytes: Meta & # 039; S Llama 3.2, Google's Gemini 1.5, et plus Apr 11, 2025 pm 12:01 PM

Le paysage de l'IA de cette semaine: un tourbillon de progrès, de considérations éthiques et de débats réglementaires. Les principaux acteurs comme Openai, Google, Meta et Microsoft ont déclenché un torrent de mises à jour, des nouveaux modèles révolutionnaires aux changements cruciaux de LE

Un guide complet des modèles de langue de vision (VLMS) Un guide complet des modèles de langue de vision (VLMS) Apr 12, 2025 am 11:58 AM

Introduction Imaginez vous promener dans une galerie d'art, entourée de peintures et de sculptures vives. Maintenant, que se passe-t-il si vous pouviez poser une question à chaque pièce et obtenir une réponse significative? Vous pourriez demander: «Quelle histoire racontez-vous?

GPT-4O VS OpenAI O1: Le nouveau modèle Openai vaut-il le battage médiatique? GPT-4O VS OpenAI O1: Le nouveau modèle Openai vaut-il le battage médiatique? Apr 13, 2025 am 10:18 AM

Introduction Openai a publié son nouveau modèle basé sur l'architecture «aux fraises» très attendue. Ce modèle innovant, connu sous le nom d'O1, améliore les capacités de raisonnement, lui permettant de réfléchir à des problèmes Mor

Lire l'index de l'IA 2025: L'AI est-elle votre ami, ennemi ou copilote? Lire l'index de l'IA 2025: L'AI est-elle votre ami, ennemi ou copilote? Apr 11, 2025 pm 12:13 PM

Le rapport de l'indice de l'intelligence artificielle de 2025 publié par le Stanford University Institute for Human-oriented Artificial Intelligence offre un bon aperçu de la révolution de l'intelligence artificielle en cours. Interprétons-le dans quatre concepts simples: cognition (comprendre ce qui se passe), l'appréciation (voir les avantages), l'acceptation (défis face à face) et la responsabilité (trouver nos responsabilités). Cognition: l'intelligence artificielle est partout et se développe rapidement Nous devons être très conscients de la rapidité avec laquelle l'intelligence artificielle se développe et se propage. Les systèmes d'intelligence artificielle s'améliorent constamment, obtenant d'excellents résultats en mathématiques et des tests de réflexion complexes, et il y a tout juste un an, ils ont échoué lamentablement dans ces tests. Imaginez des problèmes de codage complexes de résolution de l'IA ou des problèmes scientifiques au niveau des diplômés - depuis 2023

Comment ajouter une colonne dans SQL? - Analytique Vidhya Comment ajouter une colonne dans SQL? - Analytique Vidhya Apr 17, 2025 am 11:43 AM

Instruction ALTER TABLE de SQL: Ajout de colonnes dynamiquement à votre base de données Dans la gestion des données, l'adaptabilité de SQL est cruciale. Besoin d'ajuster votre structure de base de données à la volée? L'énoncé de la table alter est votre solution. Ce guide détaille l'ajout de Colu

See all articles