La technologie de reconnaissance faciale est devenue de plus en plus répandue dans diverses applications, des systèmes de sécurité aux médias sociaux. L'un des modèles les plus efficaces pour cette tâche est FaceNet, un modèle d'apprentissage en profondeur conçu pour la vérification, la reconnaissance et le clustering des visages.
Dans ce tutoriel, je vais vous montrer comment créer un système de reconnaissance faciale en Python à l'aide de FaceNet. Nous couvrirons tout, du chargement du modèle à la comparaison des visages. À la fin de ce guide, vous disposerez d'une base solide pour mettre en œuvre la reconnaissance faciale dans vos propres projets.
FaceNet est un modèle d'apprentissage profond développé par Google qui cartographie les visages dans un espace euclidien de 128 dimensions. Ces intégrations représentent les caractéristiques essentielles d'un visage, ce qui facilite la comparaison et la reconnaissance des visages avec une grande précision. Contrairement aux méthodes traditionnelles de reconnaissance faciale, FaceNet se concentre sur l'intégration de l'apprentissage, ce qui le rend très efficace et évolutif.
Avant de plonger dans le code, assurez-vous d'avoir installé les éléments suivants :
Vous pouvez installer ces dépendances en utilisant pip :
pip install tensorflow numpy opencv-python scikit-learn
Tout d'abord, nous allons charger un modèle FaceNet pré-entraîné. Vous pouvez soit télécharger le modèle à partir d'une source fiable, soit utiliser celui disponible via la bibliothèque keras-facenet.
from keras.models import load_model # Load the pre-trained FaceNet model model = load_model('facenet_keras.h5') print("Model Loaded Successfully")
Le chargement du modèle est la première étape de la configuration de notre système de reconnaissance faciale. Le modèle sera utilisé pour générer des intégrations pour les images, qui sont des représentations numériques des visages.
FaceNet s'attend à ce que les images d'entrée soient de 160 x 160 pixels au format RVB. De plus, les valeurs des pixels doivent être normalisées avant d'être introduites dans le modèle.
import cv2 import numpy as np def preprocess_image(image_path): # Load the image using OpenCV img = cv2.imread(image_path) # Convert the image to RGB (FaceNet expects RGB images) img = cv2.cvtColor(img, cv2.COLOR_BGR2RGB) # Resize the image to 160x160 pixels img = cv2.resize(img, (160, 160)) # Normalize the pixel values img = img.astype('float32') / 255.0 # Expand dimensions to match the input shape of FaceNet (1, 160, 160, 3) img = np.expand_dims(img, axis=0) return img
Cette fonction gère le prétraitement d'image requis par FaceNet. Il convertit l'image au format et à la taille appropriés, garantissant que le modèle reçoit des informations avec lesquelles il peut fonctionner efficacement.
Ensuite, nous utiliserons le modèle FaceNet pour générer des intégrations à partir des images prétraitées. Ces intégrations serviront de représentations numériques uniques des visages.
def get_face_embedding(model, image_path): # Preprocess the image img = preprocess_image(image_path) # Generate the embedding embedding = model.predict(img) return embedding
La fonction get_face_embedding prend en compte le modèle et un chemin d'image, traite l'image et renvoie l'intégration. Cette intégration est ce que nous utiliserons pour la comparaison des visages.
Pour déterminer si deux faces correspondent, nous comparons leurs plongements en calculant la distance euclidienne entre elles. Si la distance est inférieure à un certain seuil, les visages sont considérés comme une correspondance.
from numpy import linalg as LA def compare_faces(embedding1, embedding2, threshold=0.5): # Compute the Euclidean distance between the embeddings distance = LA.norm(embedding1 - embedding2) # Compare the distance to the threshold if distance < threshold: print("Face Matched.") else: print("Faces are different.") return distance
La fonction compare_faces calcule la distance entre deux intégrations. Si cette distance est inférieure au seuil spécifié (0,5 par défaut), la fonction imprime « Face Matched ». Sinon, il imprime "Les visages sont différents".
Enfin, testons notre système de reconnaissance faciale avec deux images pour voir s'il les identifie correctement comme étant la même personne ou non.
# Load the FaceNet model model = load_model('facenet_keras.h5') # Get embeddings for two images embedding1 = get_face_embedding(model, 'face1.jpg') embedding2 = get_face_embedding(model, 'face2.jpg') # Compare the two faces distance = compare_faces(embedding1, embedding2) print(f"Euclidean Distance: {distance}")
De plus, la distance euclidienne entre les deux intégrations sera imprimée.
Vous venez de créer un système de reconnaissance faciale simple mais puissant en utilisant FaceNet en Python. Ce système peut être facilement étendu pour inclure davantage de visages, gérer la reconnaissance en temps réel ou être intégré à des projets plus vastes. La grande précision et l'efficacité de FaceNet en font un excellent choix pour les tâches de reconnaissance faciale.
N'hésitez pas à expérimenter les valeurs seuils ou essayez d'utiliser ce système dans une application en temps réel comme un outil de reconnaissance faciale basé sur une webcam.
Si vous avez des questions ou avez besoin d'aide supplémentaire, laissez un commentaire ci-dessous. Bon codage !
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!