


Les premières « lignes directrices pour le développement de la sécurité des systèmes d'IA » au monde ont été publiées, proposant quatre aspects des exigences en matière de supervision de la sécurité.
Le 26 novembre 2023, les autorités de régulation de la cybersécurité de 18 pays, dont les États-Unis, le Royaume-Uni et l'Australie, ont publié conjointement les premières « Lignes directrices pour le développement de la sécurité des systèmes d'IA » au monde pour protéger les modèles d'intelligence artificielle contre les falsifications malveillantes. et a exhorté les entreprises d'IA à accorder plus d'attention à la « sécurité dès la conception » lors du développement ou de l'utilisation de modèles d'IA.
En tant que l'un des principaux participants, l'Agence américaine de cybersécurité et de sécurité des infrastructures (CISA) a déclaré que le monde connaît un point d'inflexion dans le développement rapide de la technologie de l'IA, et que la technologie de l'IA est probablement la technologie la plus influente. aujourd'hui. Cependant, garantir la cybersécurité est essentiel pour créer des systèmes d’IA sûrs, fiables et dignes de confiance. À cette fin, nous avons réuni les autorités de régulation de la cybersécurité de plusieurs pays et coopéré avec des experts techniques d'entreprises telles que Google, Amazon, OpenAI et Microsoft pour rédiger et publier conjointement cette ligne directrice, visant à améliorer la sécurité des applications technologiques de l'IA
Il est entendu que cette ligne directrice est le premier document d'orientation au monde sur la sécurité du développement des systèmes d'IA publié par une organisation officielle. Les lignes directrices exigent clairement que les entreprises d'IA doivent donner la priorité à la garantie de résultats sûrs pour leurs clients, plaider activement en faveur de mécanismes de transparence et de responsabilité pour les applications d'IA et construire la structure de gestion de l'organisation avec la conception de la sécurité comme priorité absolue. Les lignes directrices visent à améliorer la cybersécurité de l’IA et à garantir la conception, le développement et le déploiement sûrs de la technologie de l’IA.
En outre, sur la base de la longue expérience du gouvernement américain en matière de gestion des risques de cybersécurité, les lignes directrices exigent que toutes les entreprises de R&D en IA effectuent suffisamment de tests avant de publier publiquement de nouveaux outils d'IA afin de garantir que des mesures de sécurité ont été prises pour minimiser les dommages sociaux (tels que comme les préjugés et la discrimination) et les préoccupations en matière de vie privée. Les lignes directrices exigent également que les entreprises de R&D en IA s'engagent à aider les tiers à découvrir et à signaler les vulnérabilités de leurs systèmes d'IA via un système de bug bounty, afin que les vulnérabilités puissent être rapidement découvertes et réparées.
Plus précisément, les lignes directrices publiées cette fois proposent un développement de la sécurité pour Systèmes d'IA. Quatre exigences réglementaires majeures :
1. Donner la priorité à la « sécurité dès la conception » et à la « sécurité par défaut »
Les sociétés de développement d'IA ont souligné à plusieurs reprises les principes de « sécurité dès la conception » et de « sécurité par défaut » dans les lignes directrices. Cela signifie qu’ils doivent prendre des mesures proactives pour protéger les produits d’IA contre les attaques. Pour se conformer aux directives, les développeurs d'IA doivent donner la priorité à la sécurité dans leurs processus décisionnels et ne pas se concentrer uniquement sur la fonctionnalité et les performances du produit. Les directives recommandent également que les produits fournissent l'option d'application par défaut la plus sûre et communiquent clairement aux utilisateurs les risques liés au remplacement de cette configuration par défaut. De plus, comme l'exigent les lignes directrices, les développeurs de systèmes d'IA devraient être responsables des résultats des applications en aval, plutôt que de compter sur les clients pour contrôler la sécurité. composants ) manquent souvent de visibilité et d'expertise suffisantes pour comprendre, évaluer ou gérer pleinement les risques associés aux systèmes d'IA qu'ils utilisent. Par conséquent, conformément au principe de « sécurité dès la conception », les fournisseurs de composants d'IA devraient se préoccuper de la sécurité. sécurité des utilisateurs en aval de la chaîne d'approvisionnement. Responsable des conséquences. »
2. Portez une attention particulière à la sécurité de la chaîne d'approvisionnement complexeLes développeurs d'outils d'IA s'appuient souvent sur des composants tiers lors de la conception de leurs propres produits, tels que des modèles de base, ensembles de données de formation et API. Un vaste réseau de fournisseurs apportera une plus grande surface d'attaque au système d'IA, et tout maillon faible de celui-ci peut avoir un impact négatif sur la sécurité du produit. Par conséquent, les directives exigent que les développeurs évaluent pleinement les risques de sécurité lorsqu’ils décident de référencer des composants tiers. Lorsqu'ils travaillent avec des tiers, les développeurs doivent examiner et surveiller la posture de sécurité du fournisseur, exiger que le fournisseur adhère aux mêmes normes de sécurité que leur propre organisation et mettre en œuvre l'analyse et la quarantaine du code tiers importé.
Extrait demandé: « Les développeurs de systèmes critiques doivent être prêts à passer à des solutions alternatives si les composants tiers ne répondent pas aux normes de sécurité. Les entreprises peuvent utiliser des ressources telles que le guide de la chaîne d'approvisionnement du NCSC, ainsi que le logiciel. Niveau de chaîne d'approvisionnement des artefacts (SLSA) et autres ressources pour le suivi de la certification de la chaîne d'approvisionnement et du cycle de vie du développement logiciel »
3. Considérez les risques uniques rencontrés dans les applications d'IALes applications du système d'IA généreront des menaces uniques (telles que des attaques par injection rapide). ) et empoisonnement des données), les développeurs doivent donc pleinement prendre en compte les facteurs de sécurité uniques des systèmes d’IA. Un élément important d'une approche « sécurisée dès la conception » des systèmes d'IA consiste à mettre en place des garde-fous de sécurité pour la sortie du modèle d'IA afin d'empêcher la fuite de données sensibles et de limiter le fonctionnement des composants d'IA utilisés pour des tâches telles que l'édition de fichiers. Les développeurs doivent intégrer des scénarios de menaces spécifiques à l'IA dans les tests préliminaires et surveiller les entrées des utilisateurs pour détecter toute tentative malveillante d'exploiter le système.
Extrait demandé : « Le terme « apprentissage automatique contradictoire » (AML) est utilisé pour décrire l'exploitation des vulnérabilités de sécurité dans les composants d'apprentissage automatique, notamment le matériel, les logiciels, les flux de travail et les chaînes d'approvisionnement. L'AML permet aux attaquants d'exploiter les capacités d'apprentissage automatique. Des comportements inattendus sont provoqués dans le système, notamment : affecter les performances de classification ou de régression du modèle, permettre aux utilisateurs d'effectuer des opérations non autorisées et extraire des informations sensibles sur le modèle "
4. Le développement de la sécurité du système d'IA doit être continu et collaboratif
. Les lignes directrices décrivent les meilleures pratiques de sécurité pour l'ensemble des étapes du cycle de vie de la conception, du développement, du déploiement, de l'exploitation et de la maintenance des systèmes d'IA, et soulignent l'importance d'une surveillance continue des systèmes d'IA déployés pour détecter les changements de comportement du modèle et les entrées suspectes des utilisateurs. Le principe de « sécurité dès la conception » est un élément clé de toute mise à jour logicielle, et les directives recommandent aux développeurs de mettre à jour automatiquement par défaut. Enfin, il est recommandé aux développeurs d'utiliser les retours et le partage d'informations de l'immense communauté d'IA pour améliorer continuellement la sécurité du systèmeExtrait de la demande : « Lorsque cela est nécessaire, les développeurs de systèmes d'IA peuvent signaler les problèmes de sécurité qu'ils rencontrent au communauté plus large, par exemple, publier des annonces en réponse aux divulgations de vulnérabilités, y compris des énumérations détaillées et complètes des vulnérabilités courantes. Lorsque des problèmes de sécurité sont découverts, les développeurs doivent prendre des mesures pour atténuer et résoudre les problèmes rapidement et de manière appropriée. "
Lien de référence :Doit être réécrit. Le contenu est le suivant : en novembre 2023, les États-Unis, le Royaume-Uni et leurs partenaires mondiaux ont publié une déclaration 4 points clés des lignes directrices mondiales en matière de sécurité de l'intelligence artificielle
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

AI Hentai Generator
Générez AI Hentai gratuitement.

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Bonjour à tous, je m'appelle Casson. De nombreux amis programmeurs souhaitent participer au développement de leurs propres produits d’IA. Nous pouvons diviser la forme du produit en quatre quadrants en fonction du « degré d'automatisation des processus » et du « degré d'application de l'IA ». Parmi eux : le degré d'automatisation des processus mesure "la part du processus de service du produit qui nécessite une intervention manuelle" et le degré d'application de l'IA mesure "la proportion d'application de l'IA dans le produit". Premièrement, limiter la capacité de l'IA à traiter un Application d'image AI, et l'utilisateur la transmet via l'application. Le processus de service complet peut être complété en interagissant avec l'interface utilisateur, ce qui entraîne un degré élevé d'automatisation. Dans le même temps, le « traitement d'images IA » s'appuie fortement sur les capacités de l'IA, de sorte que son application est élevée. Le deuxième quadrant est le domaine conventionnel du développement d'applications, tel que le développement d'applications de gestion des connaissances, d'applications de gestion du temps et d'automatisation élevée des processus.

Si l’on compare l’intelligence artificielle à la quatrième révolution industrielle, alors les grands modèles constituent les réserves alimentaires de la quatrième révolution industrielle. Au niveau des applications, cela permet à l’industrie de revisiter la vision de la Conférence de Dartmouth aux États-Unis en 1956 et d’entamer officiellement le processus de remodelage du monde. Selon la définition des principaux fabricants, les appareils électroménagers IA sont des appareils électroménagers dotés d'interconnexion, d'interaction homme-machine et de capacités de prise de décision active. Les appareils électroménagers IA peuvent être considérés comme la forme la plus élevée d'appareils électroménagers intelligents. Cependant, le modèle intelligent pour toute la maison, alimenté par l’IA, actuellement sur le marché, peut-il devenir le protagoniste de l’industrie à l’avenir ? Un nouveau modèle de concurrence va-t-il émerger dans le secteur de l’électroménager ? Cet article l’analysera sous trois aspects. Pourquoi le tonnerre est-il fort et les gouttes de pluie douces lors de l'utilisation de l'intelligence dans toute la maison ? Source : Statista, Zhongan.com, iResearch Consulting, Luotu Technology, Centre national d'information sur l'industrie des serrures

En 2023, l’intelligence artificielle générative (Artificial Intelligence Generated Content, AIGC en abrégé) est devenue le sujet le plus brûlant dans le domaine technologique. Il ne fait aucun doute que pour l’industrie manufacturière, comment devraient-elles bénéficier de la technologie émergente de l’IA générative ? Quel type d’inspiration la majorité des petites et moyennes entreprises qui mettent en œuvre la transformation numérique peuvent-elles en tirer ? Récemment, Amazon Cloud Technology a travaillé avec des représentants de l'industrie manufacturière pour discuter des tendances actuelles de développement de l'industrie manufacturière chinoise, des défis et des opportunités rencontrés par la transformation numérique de la fabrication traditionnelle et de la refonte innovante de la fabrication grâce à l'intelligence artificielle générative. -discussion approfondie sur l'état actuel de l'application de l'IA générative dans l'industrie manufacturière. Mentionner l'industrie manufacturière chinoise.

Le blockbuster d'art d'IA d'IMAX Chine déplace les cinémas vers un monument classique Lijiang Time News Récemment, IMAX a créé le premier blockbuster d'art d'IA de Chine. Avec l'aide de la technologie d'IA, les cinémas IMAX ont « atterri » dans la Grande Muraille, à Dunhuang, à Guilin Lijiang et à Zhangye Danxia. Il existe de nombreux monuments nationaux classiques dans la région. Ce blockbuster artistique basé sur l'IA a été créé par IMAX en collaboration avec les artistes numériques @kefan404 et NEO Digital. Il se compose de quatre images sur le très grand écran emblématique d'IMAX, qui peuvent être étalées sur la « toile » naturelle colorée de Zhangye Danxia ou qui peuvent contenir des milliers d'années. histoire. Dunhuang, une ville au riche patrimoine culturel, se tient côte à côte, se fondant dans le paysage de la rivière Li de Guilin, ou surplombant la majestueuse Grande Muraille au milieu des montagnes. Les gens ne peuvent s'empêcher d'attendre avec impatience le jour où leur imagination sera créée. deviendra réalité. Depuis 2008 à Tokyo, Japon

Le directeur général de Huawei, Yu Chengdong, a publié aujourd'hui une invitation à la conférence HDC sur Weibo, suggérant que Hongmeng pourrait disposer de capacités de grands modèles d'IA. Selon son contenu de suivi sur Weibo, le texte d'invitation a été généré par l'assistant vocal intelligent Xiaoyi. Yu Chengdong a déclaré que Hongmeng World apportera bientôt une nouvelle expérience plus intelligente et plus attentionnée. Selon les informations précédemment exposées, Hongmeng 4 devrait faire des progrès significatifs dans les capacités d'IA cette année, consolidant davantage l'IA en tant que fonctionnalité principale du système Hongmeng.

Depuis cette année, Zhou Hongyi, le fondateur du groupe 360, est indissociable d'un sujet dans tous ses discours publics, à savoir celui des grands modèles d'intelligence artificielle. Il s'est un jour appelé « l'évangéliste du GPT » et a fait l'éloge des avancées réalisées par ChatGPT. Il était également fermement optimiste quant aux itérations technologiques de l'IA qui en résulteraient. En tant qu'entrepreneur célèbre qui sait s'exprimer, les discours de Zhou Hongyi sont souvent pleins de remarques pleines d'esprit, de sorte que ses « sermons » ont également créé de nombreux sujets d'actualité et ont même alimenté le feu des grands modèles d'IA. Mais pour Zhou Hongyi, être un leader d’opinion ne suffit pas. Le monde extérieur se préoccupe davantage de la manière dont 360, l’entreprise qu’il dirige, réagit à cette nouvelle vague d’IA. En fait, au sein de 360, Zhou Hongyi a déjà initié un changement pour tous les employés. En avril, il a publié une lettre interne demandant à chaque employé et à chaque employé de 360.

Depuis l'ère des centres d'appels manuels, il a connu l'application de la conception de processus IVR, des systèmes de service client en ligne, etc., et s'est développé jusqu'au service client d'intelligence artificielle (IA) d'aujourd'hui. En tant que fenêtre importante pour servir les clients, le secteur du service client a toujours été à l'avant-garde du temps, utilisant constamment de nouvelles technologies pour développer une nouvelle productivité et évoluant vers une efficacité élevée, une qualité élevée, un service élevé et une clientèle personnalisée par tous les temps. service. Avec l'augmentation du nombre de clients et l'augmentation rapide des coûts des services de main-d'œuvre, comment utiliser l'intelligence artificielle, le Big Data et d'autres technologies de l'information de nouvelle génération pour promouvoir les centres de service client dans diverses industries, de l'industrie à forte intensité de main-d'œuvre à l'intelligent, raffiné et raffiné ? La transformation et la mise à niveau technologiques sont devenues un problème important auquel sont confrontées de nombreuses industries. Grâce aux progrès continus de la technologie de l'intelligence artificielle et à l'application rapide d'applications basées sur la scène,

Dans un monde plein de technologies futures, l’intelligence artificielle est devenue un assistant indispensable à la vie humaine. Cependant, l’intelligence artificielle ne vise pas seulement à faciliter nos vies, elle modifie également la structure et le fonctionnement de la société humaine de manière discrète. L’une des implications positives les plus importantes est que l’égalité en matière d’information élimine la fracture numérique afin que chacun puisse profiter de manière égale de la commodité apportée par la technologie. À l’ère numérique actuelle, l’informatisation est devenue une force importante dans la promotion du développement social. Cependant, nous sommes également confrontés à un problème réel : il existe une fracture numérique qui empêche certaines personnes de profiter du confort apporté par la technologie. L’égalité des droits en matière d’informatisation est donc particulièrement importante. Elle peut éliminer la fracture numérique, permettre à chacun de partager équitablement les fruits du développement scientifique et technologique et de réaliser un progrès social global.
