Afin de construire un cadre de système d'intelligence artificielle plus responsable, Microsoft a confirmé qu'il retirerait les logiciels qui utilisent l'analyse d'images pour déterminer les états émotionnels personnels. Dans le même temps, l’entreprise limitera également la prolifération des technologies de reconnaissance faciale. Les clients existants n'auront qu'un an pour utiliser Azure Face, un ensemble d'outils d'IA qui tentent de déduire l'humeur, le sexe, l'âge, le sourire, les cheveux et si le maquillage est porté.
Sarah Bird, chef de produit principale pour Azure AI chez Microsoft, a déclaré : « Ces efforts ont soulevé des questions sur le manque de consensus sur la confidentialité et les émotions, et sur l'incapacité de généraliser entre les expressions faciales et les états émotionnels dans des cas d'utilisation pertinents. , la géographie et la démographie.
Selon les rapports, Microsoft a examiné si le système de reconnaissance des émotions est scientifique. Bien que l'entreprise n'ait pas pris position, il semble désormais qu'elle ne soit peut-être pas en mesure d'améliorer davantage l'algorithme permettant de déduire l'état émotionnel d'une personne sur la base d'images, et Microsoft pourrait soutenir de nouvelles réglementations et lois pour l'utilisation de tels outils.
En plus d'arrêter la vente de technologies de reconnaissance des émotions, Microsoft restreindra également l'accès à la technologie faciale. Les clients qui souhaitent continuer à l'utiliser à l'avenir doivent obtenir une autorisation préalable et assumer les obligations contractuelles correspondantes.
En ce qui concerne le fonctionnement réel, il n'est pas clair si Microsoft imposera des restrictions supplémentaires ou exigera simplement que les clients signent une clause de non-responsabilité pour éviter toute forme de sanction légale pour divers cas d'abus.
Actuellement, Microsoft demande uniquement à ses clients « d’éviter les situations qui portent atteinte à la vie privée ou qui pourraient potentiellement causer des problèmes à la technologie ». Curieusement, malgré les exigences légales visant à éviter l'identification des mineurs, Microsoft ne semble pas interdire explicitement de telles utilisations.
Enfin, Microsoft a également imposé certaines limitations à sa fonctionnalité de voix neuronale personnalisée. Cette fonctionnalité permet aux clients de produire des paroles synthétisées par l'IA sur la base d'enregistrements de personnes réelles.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!