De nouvelles affaires se sont-elles ouvertes dans le domaine de la reconnaissance faciale IA ?
Cette fois, il s’agit d’identifier des visages sur de vieilles photos de la Seconde Guerre mondiale.
Récemment, Daniel Patt, un ingénieur logiciel chez Google, a développé une technologie de reconnaissance faciale IA appelée N2N (Numbers to Names), qui peut identifier des photos de l'Europe avant la Seconde Guerre mondiale et l'Holocauste, et les comparer avec des personnes modernes connectées.
En 2016, lorsque Pat a visité le Musée commémoratif des Juifs polonais à Varsovie, il a eu une idée.
Ces visages étranges pourraient-ils lui être liés par le sang ?
Trois de ses grands-parents étaient des survivants de l'Holocauste originaires de Pologne, et il voulait aider sa grand-mère à retrouver les membres de sa famille qui ont été tués par les photos des nazis.
Pendant la Seconde Guerre mondiale, en raison du grand nombre de Juifs polonais emprisonnés dans différents camps de concentration, beaucoup d'entre eux ont disparu.
Rien qu'à travers une photo jaunie, il est difficile d'identifier le visage qui s'y trouve, encore moins de retrouver vos proches perdus.
Alors, il est rentré chez lui et a immédiatement transformé cette idée en réalité.
L'idée originale de ce logiciel est de collecter des informations sur les images des visages via une base de données et d'utiliser des algorithmes d'intelligence artificielle pour aider à faire correspondre les dix principales options présentant la plus grande similarité.
La plupart des données d'images proviennent du US Holocaust Memorial Museum, et il existe plus d'un million d'images provenant de bases de données à travers le pays.
Les utilisateurs doivent simplement sélectionner l'image dans le fichier informatique, cliquer sur télécharger et le système filtrera automatiquement les dix meilleures options avec les images les plus correspondantes.
De plus, les utilisateurs peuvent également cliquer sur l'adresse source pour afficher l'année, le lieu, la collection et d'autres informations sur l'image.
Un inconvénient est que si vous saisissez des images modernes de personnes, les résultats de la recherche peuvent être scandaleux.
Est-ce le résultat ? (Point d'interrogation noir)
Bref, les fonctions du système doivent encore être améliorées.
De plus, Patt travaille également avec d'autres équipes d'ingénieurs logiciels et de data scientists chez Google pour améliorer la portée et la précision des recherches.
En raison du risque de fuite de confidentialité dans le système de reconnaissance faciale, Patt a déclaré : « Nous ne procédons à aucune évaluation de l'identité. Nous sommes uniquement responsables de présenter les résultats en utilisant des scores de similarité et de laisser les utilisateurs porter leur propre jugement.
Alors, comment cette technologie reconnaît-elle les visages ?
Au départ, la technologie de reconnaissance faciale devait commencer par "comment déterminer si l'image détectée est un visage".
En 2001, les chercheurs en vision par ordinateur Paul Viola et Michael Jones ont proposé un cadre permettant de détecter les visages en temps réel avec une grande précision.
Ce cadre peut comprendre « ce qu'est un visage et ce qui n'est pas un visage » sur la base de modèles de formation.
Après la formation, le modèle extrait des caractéristiques spécifiques, puis stocke ces caractéristiques dans des fichiers afin que les caractéristiques des nouvelles images puissent être comparées aux caractéristiques précédemment stockées à différentes étapes.
Pour garantir l'exactitude, l'algorithme doit être entraîné sur « un vaste ensemble de données contenant des centaines de milliers d'images positives et négatives », ce qui améliore la capacité de l'algorithme à déterminer si un visage est dans une image et où il se trouve.
Si l'image étudiée passe chaque étape de comparaison des caractéristiques, un visage a été détecté et vous pouvez continuer.
Bien que le framework Viola-Jones soit très précis pour la reconnaissance faciale dans les applications en temps réel, il présente certaines limites.
Par exemple, la monture peut ne pas fonctionner si le visage porte un masque ou si un visage n'est pas orienté correctement.
Pour aider à éliminer les lacunes du framework Viola-Jones et à améliorer la détection des visages, ils ont développé des algorithmes supplémentaires.
Tels que les réseaux neuronaux convolutifs basés sur la région (R-CNN) et les détecteurs à tir unique (SSD) pour aider à améliorer le processus.
Convolutional Neural Network (CNN) est un réseau de neurones artificiels utilisé pour la reconnaissance et le traitement d'images, spécifiquement conçu pour traiter les données de pixels.
R-CNN génère des propositions de régions sur un framework CNN pour localiser et classer des objets dans des images.
Alors que les méthodes basées sur les réseaux de propositions de régions (telles que R-CNN) nécessitent deux prises de vue - une pour générer des propositions de régions et une autre pour détecter chaque objet proposé - le SSD ne nécessite qu'une seule prise de vue pour détecter des objets dans l'image de plusieurs objets. Par conséquent, le SSD est nettement plus rapide que le R-CNN.
Ces dernières années, les avantages de la technologie de reconnaissance faciale pilotée par des modèles d'apprentissage profond sont nettement meilleurs que les méthodes traditionnelles de vision par ordinateur.
Les premières reconnaissances faciales utilisaient principalement des algorithmes d'apprentissage automatique traditionnels, et la recherche se concentrait davantage sur la manière d'extraire des caractéristiques plus discriminantes et d'aligner les visages plus efficacement.
Avec l'approfondissement de la recherche, l'amélioration des performances de la reconnaissance faciale des algorithmes d'apprentissage automatique traditionnels sur les images bidimensionnelles a progressivement atteint un goulot d'étranglement.
Les gens ont commencé à étudier le problème de la reconnaissance faciale dans des vidéos, ou en combinaison avec des méthodes de modèles tridimensionnels pour améliorer encore les performances de la reconnaissance faciale, tandis que quelques chercheurs ont commencé à étudier le problème de la reconnaissance faciale tridimensionnelle.
Dans la plus célèbre bibliothèque publique LFW, l'algorithme d'apprentissage profond a surmonté le goulot d'étranglement des algorithmes d'apprentissage automatique traditionnels en termes de performances de reconnaissance faciale sur des images bidimensionnelles, augmentant pour la première fois le taux de reconnaissance à plus de 97 %.
C'est-à-dire utiliser le « modèle haute dimension établi par le réseau CNN » pour extraire directement les caractéristiques d'identification efficaces de l'image faciale d'entrée et calculer directement la distance cosinus pour la reconnaissance faciale.
La détection des visages a évolué des techniques de base de vision par ordinateur aux progrès de l'apprentissage automatique (ML), en passant par les réseaux de neurones artificiels (ANN) et les techniques associées de plus en plus complexes, avec pour résultat une amélioration continue des performances.
Il joue désormais un rôle important en tant que première étape dans de nombreuses applications critiques, notamment le suivi facial, l'analyse faciale et la reconnaissance faciale.
Pendant la Seconde Guerre mondiale, la Chine a également subi le traumatisme de la guerre, et de nombreuses personnes sur les photos de cette époque n'étaient plus identifiables.
Les personnes dont la génération des grands-parents a souffert de traumatismes de guerre ont de nombreux parents et amis dont on ignore où ils se trouvent.
Le développement de cette technologie peut aider les gens à découvrir les années poussiéreuses et à trouver un certain réconfort pour les personnes du passé.
Référence : https://www.timesofisrael.com/google-engineer-identifies-anonymous-faces-in-wwii-photos-with-ai-facial-recognition/
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!