L'IA explicable (XAI) est une branche émergente de l'intelligence artificielle. Elle est utilisée pour analyser la logique derrière chaque décision prise par les capacités de l'intelligence artificielle. C'est l'une des préoccupations centrales du développement durable de l'intelligence artificielle. Avec l'avènement de l'ère des grands modèles, les modèles deviennent de plus en plus complexes, et prêter attention à l'interprétabilité est d'une grande importance pour améliorer la transparence, la sécurité et la fiabilité des systèmes d'intelligence artificielle.
Interpretable AILa norme internationale IEEE P2894est publiée, ouvrant la «boîte noire» de la AI
Récemment, la norme P2894 de l'IEEE Standards Association sur l'architecture d'IA interprétable ( Guide pour un cadre architectural pour l'intelligence artificielle explicable) est officiellement publié. L'IEEE est la plus grande société professionnelle et technique à but non lucratif au monde. Elle est reconnue comme faisant autorité dans les domaines des normes académiques et internationales et a formulé plus de 900 normes industrielles actuelles.
Lien du texte original standard :https://www.php.cn/link/b252e54edce965ac4408effd7ce41fb7
La norme d'architecture d'IA interprétable publiée cette fois fournit à l'industrie la technologie nécessaire pour créer, déployer et gérer des modèles d'apprentissage automatique. Blueprint , tout en répondant aux exigences d'une IA transparente et fiable en adoptant diverses méthodes d'IA explicables. La norme définit le cadre architectural et les lignes directrices d'application pour l'IA explicable, y compris la description et la définition de l'IA explicable, la classification des méthodes d'IA explicable et les scénarios d'application applicables pour chaque type, ainsi que l'exactitude, la confidentialité et la sécurité des systèmes d'IA explicable. méthode d’évaluation des performances.
Dès juin 2020, WeChat Bank, Huawei, JD.com, Baidu, Yitu, Hisense, CETC Big Data Research Institute, Institute of Computing Technology, Chinese Academy of Sciences, China Telecom, China Mobile, China Unicom, Shanghai Computer Centre de développement de technologies logicielles. Plus de 20 entreprises et institutions, dont ENN Group, China Asset Management et Sinovation Ventures, ont créé conjointement l'Initiative d'interprétabilité au sein de l'IEEE Standards Association, sur la base de leur compréhension approfondie des spécifications de sécurité de la technologie de l'IA et de leur explicabilité dans les scénarios commerciaux. dans plusieurs domaines tels que le groupe de travail sur la finance, la vente au détail et les villes intelligentes, et a organisé la première réunion du groupe de travail sur les normes ce mois-là. Le Dr Fan Lixin, scientifique en chef de l'intelligence artificielle à la WeChat Bank, est président du groupe de travail sur les normes, et le Dr Chen Yixin, professeur à l'Université de Washington aux États-Unis, en est le vice-président. Depuis lors, le groupe de travail sur les normes a tenu plusieurs réunions et le projet final de norme sera officiellement publié par l'IEEE Standards Association en février 2024.
Le Dr Fan Lixin, président du groupe de travail sur les normes, a déclaré : « L'explicabilité est une question importante qui ne peut être ignorée dans le stade actuel de développement de la technologie de l'IA, mais les normes industrielles et les documents normatifs pertinents ne sont toujours pas suffisamment complets. La formulation de cette norme a absorbé des personnes des secteurs de la finance et des communications. L'expérience pratique de pointe d'entreprises et d'institutions de recherche de premier plan dans divers domaines tels que le commerce de détail et Internet est considérée comme une référence précieuse pour une mise en œuvre plus large de l'IA. »
Des normes connexes pour l'apprentissage fédéré de confiance et l'IA fiable seront publiées les unes après les autres, en se concentrant sur la sécurité des données de l'IA et la protection de la vie privée.
" Data Dr. Fan Lixin a présenté que la norme d'architecture de système d'IA explicable publiée cette fois est également une étape importante. dans la recherche et la mise en œuvre du nouveau paradigme de « l'apprentissage fédéré de confiance ». « Apprentissage fédéré de confiance » est un paradigme d'apprentissage automatique distribué qui peut répondre aux besoins des utilisateurs et de la supervision. Dans ce paradigme, la protection de la vie privée, les performances du modèle et l’efficacité des algorithmes sont les pierres angulaires triangulaires. Avec les deux piliers de l’interprétabilité de la prise de décision du modèle et de la supervisabilité du modèle, ils forment un apprentissage fédéré plus sûr et plus fiable. 》 Ceci est un article présentant le nouveau paradigme de « Trusted Federated Learning ». Dans ce paradigme, la protection de la vie privée, les performances du modèle et l’efficacité des algorithmes sont les pierres angulaires triangulaires. Avec les deux piliers de l’interprétabilité de la prise de décision du modèle et de la supervisabilité du modèle, ils forment un apprentissage fédéré plus sûr et plus fiable. Ce paradigme peut répondre aux besoins sous tous les aspects et constitue une nouvelle méthode d'apprentissage automatique distribuée. Cet article présente l'importance et les composantes de ce paradigme.
La circulation sécurisée des données joue un rôle clé, et l'apprentissage fédéré de confiance joue un rôle clé dans la promotion de la circulation sécurisée des éléments de données. Le plan d'action triennal « Éléments de données » (2024-2026) publié par l'Administration nationale des données propose de « créer un environnement de circulation sûr et fiable, d'approfondir l'application de technologies telles que l'informatique confidentielle et l'apprentissage fédéré, et d'améliorer la crédibilité et contrôlabilité de l'utilisation des données." , des capacités mesurables et promouvoir une circulation et une utilisation efficaces de la conformité des données. "L'apprentissage fédéré de confiance, en tant que méthode de circulation de la conformité des données basée sur l'informatique confidentielle, l'apprentissage fédéré et d'autres technologies, peut améliorer la crédibilité, la contrôlabilité et la prévisibilité de l’utilisation des données. Les capacités de mesure favorisent l’application des données dans une circulation et une utilisation conformes et efficaces, maximisant ainsi la valeur des données.
Alors que l'industrie et le monde universitaire prêtent attention à l'apprentissage fédéré et à l'intelligence artificielle digne de confiance, plusieurs normes d'apprentissage fédéré et d'intelligence artificielle digne de confiance approuvées par l'IEEE Standards Association seront également publiées les unes après les autres. Parmi eux, le projet de norme IEEE P2986 (Pratiques recommandées pour la confidentialité et la sécurité pour l'apprentissage automatique fédéré) sur l'architecture de confidentialité et de sécurité de l'apprentissage fédéré a été achevé et devrait être officiellement publié prochainement. Cette norme propose pour la première fois dans l'industrie les méthodes d'évaluation du niveau de risque pour la vie privée et du niveau de risque pour la sécurité de l'apprentissage fédéré. Plus précisément, il inclut les erreurs et contre-mesures courantes dans l'apprentissage automatique fédéré, les exigences en matière de confidentialité et de sécurité pour l'apprentissage automatique fédéré, ainsi que les directives d'évaluation de la confidentialité et de la sécurité de l'apprentissage automatique fédéré.
De plus, basée sur IEEE P2986, la norme d'apprentissage fédéré fiable IEEE P3187 (Guide for Framework for Trustworthy Federated Machine Learning), qui se concentre davantage sur l'apprentissage fédéré, a également terminé son examen préliminaire. La norme propose le cadre et les caractéristiques de l'apprentissage fédéré de confiance, définit des contraintes spécifiques sur la mise en œuvre de ces caractéristiques et introduit des solutions pour la mise en œuvre de l'apprentissage fédéré de confiance.
Grand Modèle AI Agent+Apprentissage fédéré pour créer une intelligence artificielle digne de confiance à l'ère des grands modèles
Récemment, China Telecom et WeBank ont également lancé conjointement la création de l'intelligence artificielle sémantique. Groupe de travail sur la norme d'apprentissage IEEE P3427 (Standard for Federated Machine Learning of Semantic Information Agents). Les sujets abordés dans ce plan standard incluent la définition des rôles, le mécanisme d'incitation, la communication sémantique de différents agents sémantiques dans le réseau cognitif sémantique basé sur l'apprentissage automatique fédéré, la représentation d'informations sémantiques sur les agents sémantiques qui est facile à comprendre par l'homme et la fédération entre agents sémantiques. Sécurité de l’information, interaction efficace, etc. Le groupe de travail sur les normes prévoit de lancer l'élaboration de normes fin mars 2024 et recrute actuellement des experts concernés de divers secteurs pour se joindre à eux afin d'améliorer conjointement les normes et de promouvoir le développement de l'industrie.
La publication successive des normes industrielles pertinentes favorisera davantage la coopération technique et l'innovation intersectorielles et intersectorielles, ouvrira la « boîte noire » de l'IA et favorisera la circulation sûre et efficace des éléments de données avec une grande précision et une grande précision. une interprétabilité élevée contribuera à réaliser une application généralisée, responsable et efficace de la technologie pour apporter des avantages à l’humanité.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!