[CNMO News] Après plusieurs mois de tests, Microsoft a récemment officiellement publié l'outil de révision de contenu AI Azure AI Content Safety. Il est rapporté que ce produit est un outil de modération de contenu qu'il a commencé à tester en mai de cette année. Il contient une série de modèles d'IA entraînés qui peuvent détecter le contenu négatif lié aux préjugés, à la haine, à la violence, etc. dans les images ou les textes, et peuvent le faire. comprendre et détecter Contient des images ou du texte en huit langues.
De plus, l'outil de modération attribue un score de gravité au contenu signalé et guide les évaluateurs humains sur le contenu qui nécessite une action. Initialement, cet outil d'audit était intégré au service Azure OpenAI, mais il sera désormais lancé en tant que système autonome
Mentionné dans le billet de blog officiel de Microsoft : "Cela signifie que les utilisateurs peuvent l'appliquer au contenu d'intelligence artificielle généré par des modèles open source et d'autres modèles d'entreprise, et peuvent également appeler certains contenus générés par les utilisateurs pour améliorer encore leur utilité."
Microsoft a déclaré que même si le produit s'est amélioré dans la gestion des données et du contenu et peut comprendre le contexte de manière plus équitable, il doit toujours s'appuyer sur des évaluateurs humains pour signaler les données et le contenu. Cela signifie également que la justice ultime appartient aux humains. Cependant, les évaluateurs humains peuvent ne pas être complètement neutres et prudents lors du traitement des données et du contenu en raison de préjugés personnelsCe qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!