基于PCA方法的人脸识别(Python)_基于pca算法的人脸识别-程序员宅基地

技术标签: python  python机器视觉  numpy  人脸识别  pca降维  opencv  

目录

1.PCA简介

2.照片要求

3.创建训练人脸库的特征脸空间

    3.1:创建所有训练样本组成的 M×N 矩阵

    3.2:计算训练样本的平均值矩阵

    3.3:去除平均值,得到规格化后的训练样本矩阵

    3.4:计算协方差矩阵

    3.5:计算协方差矩阵的特征值和特征向量

    3.6:将特征值排序

    3.7:保留前K个最大的特征值对应的特征向量

    3.8:获得训练样本的特征脸空间

    3.9:计算训练样本在特征脸空间的投影

4.人脸识别

    4.1:创建测试样本组成的 1×N 矩阵

    4.2:去除平均值,得到规格化后的识别样本矩阵

    4.3:计算测试样本在特征脸空间的投影

    4.4:计算欧式距离,找到匹配人脸


1.PCA简介

主成分分析算法(PCA)是最常用的线性降维方法,它的目标是通过某种线性投影,将高维的数据映射到低维的空间中,并期望在所投影的维度上数据的信息量最大(方差最大),以此使用较少的数据维度,同时保留住较多的原数据点的特性。

PCA降维的目的,就是为了在尽量保证“信息量不丢失”的情况下,对原始特征进行降维,也就是尽可能将原始特征往具有最大投影信息量的维度上进行投影。将原特征投影到这些维度上,使降维后信息量损失最小。

1:获得数据 
2:求平均值
3:各数据减平均值 
4:计算数据的协方差矩阵 
5:计算协方差矩阵的特征值、特征向量 
6:把原数据进行投影 

2.照片要求

    30个人,每人拍摄10张正脸照片,取每个人的7张照片,共210张作为训练数据。那么每个人剩下的3张照片,计算机还没有看过,就可以在计算机认识了每一个人之后用来考研计算机是否真的能够正确识别图像中的人是谁。

这是我创造的30个人的训练集文件,每个trainxx 下又包含7张照片。

这是我创造的30个人的测试集文件,每个testxx 下又包含3张照片。

3.创建训练人脸库的特征脸空间

        3.1:创建所有训练样本组成的 M×N 矩阵

 创建所有训练样本组成的 M×N 矩阵 trainFaceMat。M 为样本个数,N 为一 个训练样本                 图像所有像素按行相连的像素值,在本次实验中, M = 人数(使用的30个人的人脸数据) * 7(每人7张照片)= 210。

N = 像素点的个数,比如说一张照片大小为 10 * 10, N就为100。在本次实验中,我们把每个人的照片都处理成128 * 128,因此N = 16384。

# 对于每一张照片,首先创建一个列表list,存储本张照片的16384个灰度值,
# 当一个list存储完16384个灰度值后,将list添加至bigList。
# 依次循环210次, bigList就存储了210张照片的灰度值了。
'''
注:这里有一处细节,就是我是在读入每一张照片时,是新创建的列表list。
   而不是在最开始创建list,然后每次读入照片时使用.clear()清空list。
   这里涉及到Python中浅复制的知识,是因为bigList使用append的时候,
   是浅复制的状态,如果之后对列表list操作bigList也会被修改,这样的话
   最后bigList存储的全为最后一张照片的灰度值。
'''
# 最后使用numpy中的函数,将列表bigList转换为矩阵。

bigList = []
# 导入人脸模型库
faceCascade = cv2.CascadeClassifier(r'C:\Python\haarshare\haarcascade_frontalface_alt.xml')
# 遍历30个人
for i in range(1, 31):
    # 遍历每个人的7张照片
	for j in range(1, 8):
		list = []
        # 直接读入灰度照片
		image = cv2.imread("C:\\Users\\tangyitao\\Pictures\\Saved Pictures\\trainFace\\train"
								+ str(i) + "\\train" + str(i) + "" + str(j) + ".jpg", 0)
		faces = faceCascade.detectMultiScale(image, 1.3, 5)
		for (x, y, w, h) in faces:
            # 裁剪人脸区域为 128 * 128 大小
			cutResize = cv2.resize(image[y:y + h, x:x + w], (128, 128),
										interpolation=cv2.INTER_CUBIC)  
        # 遍历图片行数
		for x in range(cutResize.shape[0]):
            # 遍历图片每一行的每一列
			for y in range(cutResize.shape[1]):
                # 将每一处的灰度值添加至列表
				list.append(cutResize[x, y]) 
		bigList.append(list)
print("\n\ntrainFaceMat ")
trainFaceMat = numpy.mat(bigList)  # 得到训练样本矩阵
print("trainFaceMat.shape[0] ",trainFaceMat.shape[0])
print("trainFaceMat.shape[1]",trainFaceMat.shape[1])
print(trainFaceMat)

运行结果:

         3.2:计算训练样本的平均值矩阵

 计算训练样本的平均值矩阵meanFaceMat,该矩阵大小为1 * N。1 * N 就代表目前算出                     来的平均值矩阵是 一张 人脸的数据,这张平均脸其实就是把上面的 M * N 的矩阵             trainFaceMat平均化,把这 M 张照片的每一个位置对应的数值加起来,然后再除以 M。可以理解为把一 个 M * N 的二维数组的每一列都加起来,变成一个 1 * N 的数组,然后这个数组的每一         位都除以 M,最后得到一个 1 * N 的平均值脸。

# numpy中有相关函数,直接调用即可
# axis = 0代表计算每一列的平均值
# axis = 1代表计算每一行的平均值

meanFaceMat = numpy.mean(trainFaceMat, axis=0)  # 每一列的和除行数,得到平均值
print("meanFaceMat \n\n")
print("meanFaceMat.shape[0] ",meanFaceMat.shape[0])
print("meanFaceMat.shape[1] ",meanFaceMat.shape[1])
print(meanFaceMat)
        

 运行结果:

        3.3:去除平均值,得到规格化后的训练样本矩阵

计算规格化后的训练样本矩阵 normTrainFaceMat,矩阵大小为 M×N。用我们一开始得到的 M*N 的矩阵 trainFaceMat 减去我们的平均脸矩阵meanFaceMat,即计算出我每个人的数据跟这个平均脸的差异,我们把计算结果成为差值矩阵。

# trainFaceMat 大小为 M * N, meanFaceMat 大小为 1 * N
# 可直接相减
normTrainFaceMat = trainFaceMat - meanFaceMat
print("\n\n normTrainFaceMat")
print("normTrainFaceMat.shape[0]  ",normTrainFaceMat.shape[0])
print("normTrainFaceMat.shape[1]  ",normTrainFaceMat.shape[1])
print(normTrainFaceMat)

运行结果:

        3.4:计算协方差矩阵

计算 normTrainFaceMat 的协方差矩阵covariance。
covariance = numpy.cov(normTrainFaceMat)

        3.5:计算协方差矩阵的特征值和特征向量

计算 协方差矩阵covariance的特征值eigenvalue和特征向量featurevector。

# 求得协方差矩阵的特征值和特征向量
eigenvalue, featurevector = numpy.linalg.eig(covariance) 

        3.6:将特征值排序

获取特征值按降序排序对应原矩阵的下标。
sorted_Index = numpy.argsort(eigenvalue)

        3.7:保留前K个最大的特征值对应的特征向量

特征向量与特征值是相互对应的,我们可以直接根据刚刚得到的特征值排序
后对应原序列中的索引来得到排序后的特征向量,公式如下:
topk_evecs = featurevector[:, sorted_Index[:-k - 1:-1]]
这是一个由前 k 个特征向量组成的矩阵,一个特征向量可以理解为一个特征,我们
取最具有代表性的 k 个特征来构成我们的特征空间。选取前 k 个特征向量的过程我们叫
降维 降维的目的 是为了抛弃那些对我们计算影响不大的值,减少计算量,只选前 k
个而不选排名靠后的原因就是因为后面的数据对我们的影响不大,可以抛弃。 K 可以取
150 左右。在这里,我取得是140。
topk_evecs = featurevector[:,sorted_Index[:-140-1:-1]]
获得训练样本的特征脸空间eigenface 。其中: eigenface = normTrainFaceMat' * topk_evecs。
注意这个地方的 normTrainFaceMat 是转置了的,它的右上角有个撇,在 numpy
要使用 transpose ()方法,对其转置,而“ * ”号代表点乘,在 numpy 中使用 dot ()

函数计算得到的矩阵 eigenface 大小为 N×m,每一列是一个长度为 N 的特征脸,共 m 列。

eigenface = numpy.dot(numpy.transpose(normTrainFaceMat), topk_evecs)
训练样本在特征脸空间的投影eigen_train_sample。其中:
eigen_train_sample = np.dot(normTrainFaceMat, eigenface)。
eigen_train_sample = numpy.dot(normTrainFaceMat, eigenface)

 eigen_train_sample 为投影样本矩阵,大小为 M×m,每一行为一个训练样本图 像在特征脸空间的投影。由于 m<<N,经过投影可获得更能描述训练样本图像特征的描述。

4.人脸识别

        4.1:创建测试样本组成的 1×N 矩阵

将测试人脸展开为 1 × N 矩阵 testFaceMat。
# 主要思想和第一步计算trainFaceMat差不多,这里只需要添加一张照片的数据
list = []
faceCascade = cv2.CascadeClassifier(r'C:\Python\haarshare\haarcascade_frontalface_alt.xml')
# fileName 为待识别图片的文件名,读入灰度人脸
image = cv2.imread(fileName, 0)
faces = self.faceCascade.detectMultiScale(self.image, 1.3, 5)
for (x, y, w, h) in self.faces:
	cut = image[y:y + h, x:x + w]
	# 处理成 128 * 128大小的人脸
	cutResize = cv2.resize(cut, (128, 128), interpolation=cv2.INTER_CUBIC)
for x in range(cutResize.shape[0]):
	for y in range(cutResize.shape[1]):
		list.append(cutResize[x, y])
testFaceMat = numpy.mat(list)

         4.2:去除平均值,得到规格化后的识别样本矩阵

# 这里减的meanFaceMat 和计算normTrainFaceMat 的meanFaceMat是同一个变量
normTestFaceMat = testFaceMat - meanFaceMat

         4.3:计算测试样本在特征脸空间的投影

# 和计算 eigen_train_sample相同,用规格化矩阵去点乘 eigenface即可。
eigen_test_sample = numpy.dot(normTestFaceMat, eigenface)

          4.4:计算欧式距离,找到匹配人脸

计算 eigen_test_sample eigen_train_sample 中各样本(每行)的欧式距离,距离
最小的那个样本则可以认为与待识别样本为同一人。numpy中提供了函数计算欧氏距离, numpy.linalg.norm( )。
# 以 eigen_train_sample[0]与eigen_test_sample的欧式距离赋值 minDistance
minDistance = numpy.linalg.norm(eigen_train_sample[0] - eigen_test_sample)
# num 记录训练集中第几个人与待识别人为同一人
num = 1
# 遍历 eigen_train_sample 的每一行,在此处,eigen_train_sample.shape[0] = 210。
for i in range(1, eigen_train_sample.shape[0]):
    distance = numpy.linalg.norm(eigen_train_sample[i] - eigen_test_sample)
	if minDistance > distance:
		minDistance = distance
        # 30个人中,每个人有7张照片,i是记录的第几张照片
        # 因此记录第几个人的num为 i // 7 + 1。
		num = i // 7 + 1

到这一步,人脸识别的算法就完了,后面就自己去写一些界面来丰富自己的人脸识别,下面附上几张图测试一下此算法。

 

因为我使用的所有图片都是学长学姐们自己拍摄的,所以为了保护肖像权······嘿嘿…^o^懂得都懂。 

从发型看还是能看出来是同一个人吧哈哈哈。

在本博客所写代码中,不能实现待识别人脸不在训练集中的提示,他会查找到一张跟欧氏距离最小的照片显示。另因为算法本身就较为简陋,所以识别成功率不是很高。

注:此博客是在我的一位学长写的任务书下完成,文章中部分提及到任务书中的内容,在此感谢那位学长。

     

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/qq_51938362/article/details/118993725

智能推荐

2024中国闪存市场观察:AI助推闪存全面起势?-程序员宅基地

文章浏览阅读864次,点赞17次,收藏8次。,QLC SSD在质量、可靠性和寿命等诸多方面都得到了广泛的验证,将会在2024年全面起势,成为市场的主流选择。

Citrix 服务器虚拟化之二十六 应用程序虚拟化XenApp 6.5_cirtix开发应用虚拟化-程序员宅基地

文章浏览阅读7.8k次,点赞3次,收藏6次。Citrix 服务器虚拟化之二十六 应用程序虚拟化XenApp 6.5 Citrix XenApp提供客户端和服务器端应用虚拟化。XenApp 可以根据用户、应用和位置自动匹配最佳的交付方式。不论采用何种交付方式,IT 部门都能在应用中心轻松地集中管理应用。客户端应用虚拟化支持通过流技术将应用交付到客户端设备上,让应用运行在一个受保护的虚拟环境中。利用XenApp 铂金版和企业版的这一功_cirtix开发应用虚拟化

单片机用c语言按键控制led灯,51单片机 4个独立按键控制LED灯 (protues仿真)(C语言版)...-程序员宅基地

文章浏览阅读2.8k次,点赞2次,收藏19次。一、思路及相关问题1、逻辑思路:当按下key1时 led1亮起来 因为按下去具有瞬时性不用while,用if语句,当松开时,用while(!key1) ,函数调用。先在脑海里想象它的大致运行过程,其次在仿真软件protues上摆好元器件并连接,最后用keil4写对应代码。需注意keil4软件上的设置如波特率,添加文件,勾选等等。至少要了解C语言程序设计的基本功。2、关于消抖:通常的按键所用开关为机..._利用单片机控制4个按键和4个发光二极管

scratch2.0制作母亲节礼物——电子烟花送给母亲_scratch母亲节作品-程序员宅基地

文章浏览阅读3.3k次,点赞4次,收藏9次。首先,我们先来看一下效果_scratch母亲节作品

投票系统_开源投票系统 github-程序员宅基地

文章浏览阅读686次。package mainimport ( "awesomeProject1/src/github.com/hyperledger/fabric/core/chaincode/shim" "awesomeProject1/src/github.com/hyperledger/fabric/protos/peer" "bytes" "encoding/json" "..._开源投票系统 github

tensorboard一些简单常用的代码_tensorboard代码-程序员宅基地

文章浏览阅读3.9k次。需要再Terminal里面输入tensorboard --logdir logs才能打开Tensorboard# tensorboard --logdir=logs --port=6007 是将端口号改为了6007#一般用到一下几个指令:# 一、打开图片显示图片# writer.add_images("input",imgs,step) 第一个是标签,第二个是图像,注意图像必须是numpy或者tentor类型的,而且必须是通道数在前面,比如RGB三通道的就要是3*w*h#如果通道数在后面,则._tensorboard代码

随便推点

Cuda __CUDA_ARCH__宏-程序员宅基地

文章浏览阅读1.3k次。__CUDA_ARCH__宏___cuda_arch__

mysql查询包含小写字母_详解MySQL查询时区分字符串中字母大小写的方法-程序员宅基地

文章浏览阅读533次。如果你在mysql有唯一约束的列上插入两行值'A'和'a',Mysql会认为它是相同的,而在oracle中就不会。就是mysql默认的字段值不区分大小写?这点是比较令人头痛的事。直接使用客户端用sql查询数据库。 发现的确是大小不敏感 。通过查询资料发现需要设置collate(校对) 。collate规则:*_bin: 表示的是binary case sensitive collation,也就是..._mysql查询varchar2结果是否包含小写字母

拖拽小元素html编程,html界面元素拖拽实现[超简单]-程序员宅基地

文章浏览阅读150次。就是一个十分简单的小功能,将一个html界面元素从一个地方拖到另一个地方(复制或移动)html部分,省略部分非关键代码A股拖拽js部分, 即监听部分$('#ma').bind('dragstart', function (event) {const ev = event.originalEvent// 存储拖拽元素的idev.dataTransfer.setData('targetId', ev...._html移动元素生成代码 如何实现

总结: 十分钟深入理解Java反射机制_深入理解反射机制-程序员宅基地

文章浏览阅读1w次,点赞22次,收藏79次。首先先看一下Java反射的概念JAVA反射机制是在运行状态中,对于任意一个类,都能够知道这个类的所有属性和方法;对于任意一个对象,都能够调用它的任意方法和属性;这种动态获取信息以及动态调用对象方法的功能称为java语言的反射机制。JAVA反射(放射)机制:“程序运行时,允许改变程序结构或变量类型,这种语言称为动态语言”。从这个观点看,Perl,Python,Ruby是动态语言,C++,Java,C..._深入理解反射机制

总结使用Unity 3D优化游戏运行性能的经验_为什么用unity性能会好很多-程序员宅基地

文章浏览阅读521次。原作者:Amir Fasshihi流畅的游戏玩法来自流畅的帧率,而我们即将推出的动作平台游戏《Shadow Blade》已经将在标准iPhone和iPad设备上实现每秒60帧视为一个重要目标。以下是我们在紧凑的优化过程中提升游戏运行性能,并实现目标帧率时需要考虑的事项。当基本游戏功能到位时,就要确保游戏运行表现能够达标。我们衡量游戏运行表现的一个基本工具是Unity内置分析_为什么用unity性能会好很多

2023新版图文详解SpringBoot整合SSM框架(附源码)_ssm 2023-程序员宅基地

文章浏览阅读5k次,点赞20次,收藏97次。本教程以图文形式详细讲解SpringBoot整合SSM框架的流程以及具体步骤及其注意事项。总体而言,在IDEA中利用SpringBoot整合SSM框架的技术难度不大;但是需要注意的细节之处较多。所以,在整合过程中务必细致周到,考虑周全,富有耐心。_ssm 2023