Récemment, avec le développement rapide de la technologie de l'intelligence artificielle générative, les cas illégaux d'utilisation de technologies connexes pour commettre des fraudes et des diffamations sont devenus plus fréquents, attirant une large attention de la société. Le 22 mai, un cas de fraude dans les télécommunications utilisant l'IA révélé par la police de Baotou est devenu un sujet brûlant. L'escroc a utilisé la technologie de changement de visage de l'IA pour se déguiser, et la victime a été escroquée de 4,3 millions de yuans en 10 minutes. En tant que leader mondial de la sécurité numérique, 360 (601360.SH, ci-après dénommé « 360 ») est responsable de la construction du Security Brain - la plateforme nationale d'innovation ouverte d'intelligence artificielle de nouvelle génération lancée par le ministère de la Science et de la Technologie. s'appuyer sur les capacités de sécurité numérique au niveau national pour briser la sécurité de l'intelligence artificielle est une question difficile de l'époque.
L'émergence d'incidents d'abus de technologies d'intelligence artificielle générative est due au développement rapide de la synthèse profonde et de l'apprentissage automatique. Les escrocs peuvent utiliser ces technologies pour former une IA capable de simuler le langage et les expressions humaines ", a déclaré le numérique. il n'y a presque aucun défaut dans la forme de la bouche, les expressions et les petits mouvements des personnes. La « conversion sonore » utilise des modèles algorithmiques pour générer des sons similaires à partir d'échantillons vocaux existants. Le PDG d'OpenAI, Sam Altman, s'est dit préoccupé par le fait que de grands modèles puissent être utilisés à des fins de désinformation à grande échelle et que les humains soient contrôlés.
Le 24 mai, l'Internet Society of China a publié un document indiquant que face aux nouvelles escroqueries utilisant la technologie de l'IA, le grand public doit être plus vigilant et renforcer la prévention. Dès juillet 2017, le Conseil d'État a publié le « Plan de développement de l'intelligence artificielle de nouvelle génération », qui proposait l'idéologie directrice, les objectifs stratégiques, les tâches clés et les mesures de sauvegarde pour le développement de la nouvelle génération d'intelligence artificielle de mon pays en 2030, qui spécifiquement a mentionné que "d'ici 2025, établissement initial de lois, de réglementations, de normes éthiques et de systèmes politiques sur l'intelligence artificielle, et formation de capacités d'évaluation et de contrôle de la sécurité de l'intelligence artificielle".
En tant que leader mondial de la sécurité numérique, 360 est profondément impliqué depuis de nombreuses années dans le domaine de la sécurité de l'intelligence artificielle, impliquant la sécurité des cadres, la sécurité des modèles, la sécurité de l'IA générative, etc. Jusqu'à présent, 360 a découvert plus de 200 vulnérabilités dans les principaux cadres d'apprentissage automatique et chaînes d'approvisionnement telles que Tensorflow, Caffe et Pytorch, parmi lesquelles 98 vulnérabilités ont été soumises à Google Tensorflow, dont 24 vulnérabilités graves et à haut risque. dans le monde Classé premier, affectant plus de 4 milliards de terminaux, et a été sélectionné parmi les « Cas d'application typiques des entreprises d'intelligence artificielle » par l'Administration du cyberespace de Chine.
En 2019, « 360 Security Brain » a été sélectionnée comme « Plateforme nationale d'innovation ouverte d'intelligence artificielle de nouvelle génération » du ministère de la Science et de la Technologie, s'efforçant de promouvoir la construction de l'écosystème de sécurité de l'intelligence artificielle en Chine. À l'heure actuelle, la technologie des grands modèles représentée par GPT balaie le monde. 360 a découvert que les grands modèles présentent à la fois les risques de sécurité auxquels sont confrontés les modèles d'IA traditionnels et de nouveaux risques de sécurité propres aux grands modèles, tels que le vol de modèles et les risques d'injection rapide. Afin d'assurer la sécurité des modèles à grande échelle dans le monde, 360 Innovation a lancé le premier système d'évaluation des risques de sécurité des modèles à grande échelle au monde « AISE ».
Pékin organisera une conférence d'application de grands modèles « 360 Intelligent Brain » le 13 juin 2023. D’ici là, davantage de recherches ou de solutions de produits liées à la sécurité de l’intelligence artificielle seront publiées afin de jeter les bases de la sécurité pour le développement sain de l’intelligence artificielle.
Avertissement : Cet article est uniquement à titre de référence et ne constitue pas un conseil en investissement.
Publicité
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!