


Huayunan et d'autres unités ont lancé conjointement la création du « Groupe de travail sur la sécurité de l'IA » pour renforcer la coopération et la recherche dans le domaine de la sécurité de l'IA.
Dans l'après-midi du 7 septembre, lors du forum « Exploring the Next Generation of Security Intelligence » organisé lors de la conférence Inclusion Bund 2023, la Cloud Security Alliance (CSA) Greater China, l'organisation industrielle internationale faisant autorité au monde, a annoncé la création d'un "Groupe de travail sur la sécurité de l'IA" Huayunan Il est devenu le premier groupe de sponsors avec plus de 30 institutions, dont l'Institut chinois de recherche sur les télécommunications, Ant Group, Huawei, l'Université des sciences et technologies électroniques de Xi'an et le Centre national d'évaluation des technologies financières de Shenzhen. Le « AI Security Working Group » s'engage à résoudre conjointement les problèmes de sécurité causés par le développement rapide de la technologie de l'IA.
Le groupe de travail sur la sécurité de l'IA de la Cloud Security Alliance pour la Grande Chine sera co-dirigé par le China Telecom Research Institute et Ant Group. Le groupe de travail réunira des entreprises, des écoles, des instituts de recherche et des unités d'utilisateurs impliqués en amont et en aval de l'industrie de l'intelligence artificielle. chaîne au sein de l’alliance, etc., pour étudier conjointement les technologies de pointe en matière de sécurité de l’intelligence artificielle. La création du groupe de travail sur la sécurité de l'IA servira également de pont international, permettant aux résultats de recherche de mon pays dans le domaine de la sécurité de l'intelligence artificielle d'avoir un impact mondial
Le groupe de travail sur la sécurité de l'IA se concentrera sur les principales questions de risque de sécurité de l'intelligence artificielle et produira des livres blancs, des cartes de connaissances industrielles, des normes de groupe, des cadres système, des solutions, etc. dans les domaines de la sécurité endogène de l'intelligence artificielle, de la sécurité dérivée. , et sécurité assistée, etc., pour fournir à l'ensemble de l'industrie un cadre de recherche clair et systématique sur la sécurité de l'IA. Selon le plan, le groupe de travail produira dans un premier temps des résultats de recherche tels que le « Livre blanc sur la sécurité de l'IA », le « Rapport de recherche sur la sécurité des grands modèles » et les « Spécifications d'évaluation de la sécurité des données de l'IA ».
Du point de vue de la sécurité, la technologie de l'intelligence artificielle peut être considérée comme une « arme à double tranchant ». Cela constitue non seulement une menace pour les données, les entreprises et les systèmes, mais donne également une impulsion au développement des technologies de sécurité. Ces dernières années, la recherche et l'application de l'intelligence artificielle dans le domaine de la sécurité des réseaux ont progressivement commencé. La société Huayunan explore activement l'application de la technologie de l'intelligence artificielle dans le domaine de la sécurité des réseaux, en particulier dans l'analyse de sécurité basée sur l'apprentissage profond et la gestion de l'intelligence des surfaces d'attaque, et a réalisé des applications assez matures
En termes d'applications d'intelligence artificielle pour la détection et l'identification des actifs du réseau, Huayunan introduit l'apprentissage automatique, l'apprentissage profond et d'autres méthodes d'identification des empreintes digitales du système d'exploitation, qui peuvent réaliser une identification passive des systèmes d'exploitation basée sur les empreintes digitales de la pile de protocoles en peu de temps, améliorant considérablement précision. Faites correspondre le taux de reconnaissance des empreintes digitales, compensant et améliorant ainsi la vitesse et la précision de la reconnaissance des empreintes digitales du système d'exploitation basée sur la base de règles.
L'application de l'intelligence artificielle dans la prise de décision de chemin. La technologie de prise de décision intelligente comprend principalement la prise de décision de chemin intelligent et la prise de décision d'attaque intelligente. Système intelligent de simulation de pénétration et d'attaque Lingblade Ai.Bot est un système intelligent de simulation de pénétration et d'attaque développé indépendamment par Huayunan sur la base de la technologie de l'intelligence artificielle. Pendant l'attaque, Ai.Bot prendra des décisions basées sur la sélection des cibles au sein de l'intranet, en donnant la priorité aux tactiques plus ciblées et aux armes adaptées en conséquence. De plus, l'intelligence d'Ai.Bot. Le moteur porte également des jugements sur la sélection des cibles, en donnant la priorité aux cibles. avec une plus grande chance d'être capturé.
De plus, lors du Sommet technologique des opérations de cybersécurité 2023 (SecOps 2023) qui s'est tenu en mai, Hua Yunan a en outre partagé sa compréhension technique et sa pratique des grands modèles. Le grand modèle de langage de sécurité de Huayun'an se concentre sur l'analyse du renseignement et les domaines de l'attaque et de la défense intelligentes. En termes d'expansion des renseignements sur les menaces, grâce à l'analyse des renseignements sur les vulnérabilités d'un jour et sur les fuites de données sensibles, il aide les entreprises à percevoir rapidement la valeur du renseignement et à prendre des décisions décisives. réponses et réparations ; en termes d'attaque et de défense intelligentes, basé sur la compréhension sémantique et la génération de grands modèles, il résume les réalisations techniques offensives et défensives obscures dans un texte lisible et génère des scripts et des idées de vérification basés sur des scénarios, ce qui améliore encore les opérations de sécurité. efficacité et réduit l’écart entre les informations offensives et défensives.
En tant que l'un des premiers initiateurs, Huayunan a participé activement à la recherche, à l'exploration et à la pratique du groupe de travail sur la sécurité de l'IA sur l'application de la technologie de l'intelligence artificielle dans le domaine de la sécurité des réseaux. Huayunan coopérera avec le groupe de travail sur la sécurité de l'IA pour soutenir le développement de technologies de protection de la sécurité dans les scénarios d'IA et l'application de la technologie de l'IA dans le domaine de la sécurité des réseaux afin de fournir une protection de sécurité des réseaux plus efficace et de renforcer la garantie de sécurité des réseaux
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

AI Hentai Generator
Générez AI Hentai gratuitement.

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Le 9 novembre, CSA a publié un message sur son site officiel annonçant le lancement d'une nouvelle norme qui fera des appareils mobiles et des appareils portables le cœur du futur accès numérique - Aliro. Ce protocole de communication vise principalement à simplifier la communication entre les appareils mobiles et les appareils portables. appareils portables. Le processus de fonctionnement de l'appareil pour ouvrir la serrure de porte intelligente est le même que celui de Matter sans qu'il soit nécessaire d'installer d'autres applications, et il est compatible avec les smartphones, montres intelligentes et autres appareils portables existants. CSA a travaillé dur pour unifier les applications fragmentées de l'Internet des objets. Matter est un exemple typique. Il s'agit d'un projet de coopération conjoint autour de normes ouvertes. L'objectif de Matter est de parvenir à l'interopérabilité entre les appareils domestiques intelligents, tandis qu'Aliro s'engage à rendre les serrures de porte intelligentes compatibles avec les appareils mobiles et les appareils portables pour servir les terminaux.

« Même si je sais que les escroqueries sont courantes de nos jours, je n’arrive toujours pas à croire que j’en ai réellement rencontré une. » Le 23 mai, la lectrice Wu Jia (pseudonyme) était encore effrayée en évoquant la fraude télécom dont elle a été victime il y a quelques jours. Dans l'arnaque rencontrée par Wu Jia, l'escroc a utilisé l'IA pour changer son visage en quelqu'un qu'elle connaissait. Non seulement Wu Jia a été confrontée à une fraude à l'IA contre laquelle il était difficile de se prémunir dans sa vie quotidienne, mais un journaliste du Beijing Business Daily a remarqué que les nouveaux modèles de fraude dans les télécommunications utilisant la technologie de l'IA ont montré une incidence élevée ces derniers jours. est proche de 100 %. technologies. Fraude « qui change le visage de l'IA » L'intelligence artificielle est redevenue populaire, cette fois autour de la fraude dans les télécommunications. Wu Jia

Depuis son lancement public en novembre 2022, ChatGPT a connu une croissance importante. Il est devenu un outil indispensable pour de nombreuses entreprises et particuliers, mais comme ChatGPT est intégré dans notre vie quotidienne et fonctionne à grande échelle, les gens se demanderont naturellement : ChatGPT est-il sûr à utiliser ? ChatGPT est généralement considéré comme sûr en raison des mesures de sécurité étendues, des méthodes de traitement des données et des politiques de confidentialité mises en œuvre par ses développeurs. Cependant, comme toute technologie, ChatGPT n’est pas à l’abri des problèmes de sécurité et des vulnérabilités. Cet article vous aidera à mieux comprendre la sécurité des modèles de langage ChatGPT et AI. Nous explorerons des aspects tels que la confidentialité des données, la vie privée des utilisateurs, les risques potentiels, la réglementation de l'IA et les mesures de sécurité. Enfin, vous serez intéressé par le Chat

De nombreux explorateurs et praticiens du domaine de l'IA se sont réunis pour partager les résultats de leurs recherches, échanger leurs expériences pratiques et parler de la beauté de la science et de la technologie. La Conférence sur les sources intelligentes de Pékin 2023 s'est tenue récemment avec succès en tant qu'événement complet d'experts dans le domaine. de l'intelligence artificielle, cette pensée rayonnante de sagesse Échangez et soyez témoin d'une évolution étonnante de l'intelligence avec des centaines de rapports et de discussions merveilleux. Lors du Forum sur la sécurité et l'alignement de l'IA, de nombreux experts et universitaires ont communiqué. À l'ère des grands modèles, comment garantir que les systèmes d'intelligence artificielle de plus en plus puissants et polyvalents soient sûrs, contrôlables et cohérents avec les intentions et les valeurs humaines est une question. question extrêmement importante. Ce problème de sécurité est également connu sous le nom de problème d’alignement homme-machine (IAalignment) et représente l’un des défis scientifiques les plus urgents et les plus significatifs auxquels la société humaine est confrontée ce siècle. Argument

Points clés : 1. La question de la sécurité des grands modèles d'IA n'est jamais un problème unique. Tout comme la gestion de la santé humaine, il s'agit d'une ingénierie système complexe et systématique impliquant plusieurs sujets et l'ensemble de la chaîne industrielle. 2. La sécurité de l'IA est divisée en : la sécurité des grands modèles de langage (AISafety), la sécurité des modèles et des modèles d'utilisation (Security for AI) et l'impact du développement de grands modèles de langage sur la sécurité des réseaux existants, qui correspond aux besoins individuels. sécurité, sécurité environnementale et sécurité sociale. 3. L'IA, en tant que « nouvelle espèce », nécessite une surveillance de la sécurité pendant le processus de formation des grands modèles. Lorsque les grands modèles sont finalement introduits sur le marché, ils nécessitent également une « inspection de qualité ». et doivent être utilisés de manière contrôlée, ce sont toutes des macros pour résoudre les problèmes de sécurité.

Des pays comme le Royaume-Uni, les États-Unis et la Chine ont convenu d’un consensus sur les risques posés par l’intelligence artificielle avancée, s’engageant à garantir que la technologie soit développée et déployée en toute sécurité. Lors du « Sommet mondial sur la sécurité de l'intelligence artificielle » organisé cette semaine par le gouvernement britannique, 28 pays, dont le Brésil, l'Inde, le Nigeria et l'Arabie saoudite, ainsi que l'Union européenne, ont signé un accord sur l'IA appelé « Déclaration de Bletchley ». Le gouvernement britannique a déclaré que la déclaration atteint l’objectif principal du sommet, à savoir établir un accord commun et des responsabilités sur les risques, les opportunités et la coopération internationale pour progresser dans la sécurité et la recherche avancées en matière d’IA, en particulier grâce à une collaboration scientifique plus large. Les pays participants ont partagé le point de vue selon lequel une éventuelle utilisation abusive intentionnelle pourrait présenter de graves risques et ont souligné leurs préoccupations concernant la cybersécurité, la biotechnologie, la désinformation, les préjugés et les risques liés à la vie privée.

Ne recherchez pas activement les extraterrestres ! Essayez de vous éloigner de la terre le plus rapidement possible ! Abandonnez le développement de l’intelligence artificielle, sinon cela entraînerait la destruction du monde. Voici les trois conseils laissés au monde par le regretté physicien Stephen Hawking. Peut-être penserez-vous que sa déclaration est forcément un peu exagérée, voire alarmiste. Mais avez-vous déjà pensé à ce que serait le monde si ses inquiétudes se réalisaient enfin ? Si vous êtes intéressé par la civilisation extraterrestre, vous devez avoir entendu parler du nom SETI. Il s'agit d'un projet expérimental qui utilise des ordinateurs en réseau partout dans le monde pour rechercher des civilisations extraterrestres. Depuis sa création en 1999, il recherche sans relâche des signaux suspects dans l'univers. Et j’ai hâte de rencontrer un jour une civilisation extraterrestre lointaine et inattendue. Mais Hawking pense que cela

Dans l'après-midi du 7 septembre, lors du forum « Explorer la nouvelle génération de renseignements de sécurité » organisé lors de la conférence 2023Inclusion Bund, la Cloud Security Alliance (CSA) Grande Chine, l'organisation industrielle internationale faisant autorité au monde, a annoncé la création d'un « IA Groupe de travail sur la sécurité". Huayunan et Chine Plus de 30 institutions, dont l'Institut de recherche sur les télécommunications, Ant Group, Huawei, l'Université des sciences et technologies électroniques de Xi'an et le Centre national d'évaluation des technologies financières de Shenzhen, sont devenus le premier groupe de sponsors. Le « AI Security Working Group » s'engage à résoudre conjointement les problèmes de sécurité causés par le développement rapide de la technologie de l'IA. Le groupe de travail sur la sécurité de l'IA dans la Grande Chine de la Cloud Security Alliance sera co-dirigé par le China Telecom Research Institute et Ant Group. Le groupe de travail réunira des entreprises, des écoles, des instituts de recherche et des unités d'utilisateurs impliqués en amont et en aval de la chaîne industrielle de l'intelligence artificielle. au sein de l'alliance.
