文章目录
- FisherFaces算法
- 一、算法原理
- 二、算法优势与局限
- 三、算法实现
- 1. 图像预处理
- 2. 创建FisherFace人脸特征识别器
- 3. 训练模型
- 4. 测试图像
- 总结
FisherFaces算法
PCA方法是EigenFaces人脸识别的核心,但是其具有明显的缺点,在操作过程中会损失许多人脸的特征信息。因此在某些特殊的情况下,如果损失的信息刚好是用于分类的关键信息,必然导致结果预测错误。于是我们推出来新的方法:
FisherFaces算法,也称为线性判别分析(LDA)在人脸识别领域的应用,是一种经典且有效的人脸识别方法。
一、算法原理
FisherFaces算法基于LDA技术,其核心思想是将高维的人脸图像数据投影到低维的最佳矢量空间。
- 基本原理:在低维表示下,首先将训练集样本集投影到一条直线A上,让投影后的点满足:同类间的点尽可能地靠近、异类间的点尽可能地远离,以达到抽取重要分类信息和压缩特征空间维度的效果。投影后的模式样本在新的子空间中具有最大的类间距离和最小的类内距离,即模式在该空间中有最佳的可分离性。
-
具体来说:算法首先提取人脸图像的特征,这些特征可以包括人脸的形状、眼睛、嘴巴、鼻子等部位的几何特征,以及纹理、颜色等特征。然后,利用这些特征构建类内散度矩阵和类间散度矩阵。类内散度矩阵反映的是同一类人脸特征的相似性,而类间散度矩阵反映的是不同类人脸特征的差异性。通过求解这两个矩阵的广义特征问题,可以得到投影系数,这些投影系数可以将原始的人脸特征投影到低维空间中。
-
实际应用中:FisherFaces算法已经广泛应用于人脸认证、人脸追踪、人脸合成等领域。
二、算法优势与局限
- 优势:
- 能够有效降低计算复杂度,提高识别速度。
- 保持较高的识别准确率。
- 对光照和表情变化具有一定的鲁棒性。
- 局限:
- 在处理大规模数据集时,可能需要较长的训练时间和较高的计算资源。
- 对于极端姿态或遮挡情况下的人脸识别,效果可能不佳。
三、算法实现
1. 图像预处理
准备好训练图像以及对应的标签,还有待识别图像:
注意!!!:在使用FisherFaces算法进行人脸识别时,传入图像的大小(即尺寸)需要保持一致。
因为FisherFaces算法基于线性判别分析(LDA)技术,它需要将人脸图像投影到低维空间以提取重要分类信息。在这个过程中,如果图像的大小不一致,那么转换后的矩阵或向量的维度也会不同,这将导致算法无法正确处理这些数据。此外,算法在计算类内散度矩阵和类间散度矩阵时,也需要所有输入图像的维度保持一致。
import cv2
import numpy as np
def image_re(image):a = cv2.imread(image,0)a = cv2.resize(a,(75,100))return aimages = []
a = image_re('f1.jpg')
b = image_re('f2.jpg')
c = image_re('z1.jpg')
d = image_re('z2.jpg')images.append(a)
images.append(b)
images.append(c)
images.append(d)labels = [0,0,1,1]
pre_image = image_re('f_test.jpg')
2. 创建FisherFace人脸特征识别器
recognizer = cv2.face.FisherFaceRecognizer_create()
3. 训练模型
recognizer.train(images,np.array(labels))
4. 测试图像
置信度需要低于五千才有说服力,越小越准确。
label,confidence = recognizer.predict(pre_image)
dic = {0:'yifei',1:"zrn"}
print('这人是',dic[label])
print('置信度',confidence)
aa = cv2.putText(cv2.imread('f_test.jpg').copy(),dic[label],(10,30),cv2.FONT_HERSHEY_SIMPLEX,0.9,(0,0,255),2)
cv2.imshow('xx',aa)
cv2.waitKey(0)
-------------------
这人是 yifei
置信度 1806.3739273411293
总结
本篇介绍了,如何通过FisherFaces算法来实现人脸识别,其中需要注意的是:
- 在使用EigenFaces算法进行人脸识别时,传入图像的大小(即尺寸)需要保持一致。
- 训练以及测试图像最好使用大头照,减少身体的部分。
- 置信度需要低于五千才有说服力,越小越准确。