《计算机视觉》—— 基于 dlib 库的方法将两张人脸图片进行换脸

声明:此篇文章所用的明星照片只为用于演示代码的效果,无诋毁她人肖像之意

一、案例实现的思想

  • 此案例的核心是基于人脸68个关键点检测模型来实现的,人脸68个关键带点检测后的效果如下:
    在这里插入图片描述

  • 通过对上图中红色区域的转换,来实现换脸的操作

  • 参照以下链接文章,可以帮助对此片案例内容的理解

    • 基于 dlib 库的人脸68个关键点定位
      • https://blog.csdn.net/weixin_73504499/article/details/142990867?spm=1001.2014.3001.5501
    • 基于 dlib 库的人脸关键部位的轮廓轮廓检测
      • https://blog.csdn.net/weixin_73504499/article/details/143027371?spm=1001.2014.3001.5501
  • 实现步骤与结果如下图:
    在这里插入图片描述

二、编辑代码

步骤解析:

  • 第一步:对人脸的关键部位在68个关键点中的点集确定下来,并将红框内的各部位的点击存储在一个列表中

    """ 根据人脸68个关键点检测模型,将脸部各部位对应的点集以列表形式存储 """
    JAW_POINTS = list(range(0, 17))
    RIGHT_BROW_POINTS = list(range(17, 22))
    LEFT_BROW_POINTS = list(range(22, 27))
    NOSE_POINTS = list(range(27, 35))
    RIGHT_EYE_POINTS = list(range(36, 42))
    LEFT_EYE_POINTS = list(range(42, 48))
    MOUTH_POINTS = list(range(48, 61))
    FACE_POINTS = list(range(17, 68))# 换脸的关键点集
    POINTS = [LEFT_BROW_POINTS + RIGHT_EYE_POINTS +LEFT_EYE_POINTS + RIGHT_BROW_POINTS + NOSE_POINTS + MOUTH_POINTS]# 处理为元组,后续使用方便
    POINTStuple = tuple(POINTS)
    
  • 第二步:读取两张人脸图片,并获取两张人脸图片的68个关键点

    def getKeyPoints(im):  # 获取关键点rects = detector(im, 1)  # 获取人脸方框位置shape = predictor(im, rects[0])  # 获取关键点s = np.matrix([[p.x, p.y] for p in shape.parts()])  # 将关键点转换为坐标(x,y)的形式return sa = cv2.imread("dlrb_3.jpg")  # 换脸A图片
    b = cv2.imread("zly.jpg")  # 换脸B图片detector = dlib.get_frontal_face_detector()  # 构造脸部位置检测器
    predictor = dlib.shape_predictor("shape_predictor_68_face_landmarks.dat")  # 获取人脸关键点定位模型aKeyPoints = getKeyPoints(a)  # 获取A图片的68关键点
    bKeyPoints = getKeyPoints(b)  # 获取B图片的68关键点
    
  • 第三步:分别获取两张人脸红色区域(上图中红色)的掩膜

    def getFaceMask(im, keyPoints):  # 根据关键点获取脸部掩膜im = np.zeros(im.shape[:2], dtype=np.float64)for p in POINTS:points = cv2.convexHull(keyPoints[p])  # 获取凸包cv2.fillConvexPoly(im, points, color=1)  # 填充凸包,数字在0~1之间# 单通道im构成3通道im(3,行,列),改变形状(行、列、3)适应0penCVim = np.array([im, im, im]).transpose((1, 2, 0))im = cv2.GaussianBlur(im, (25, 25), 0)  # 需要根据具体调整return imaMask = getFaceMask(a, aKeyPoints)  # 获取图片A的人脸掩膜
    cv2.imshow('aMask', aMask)
    cv2.waitKey()bMask = getFaceMask(b, bKeyPoints)  # 获取图片B的人脸掩膜
    cv2.imshow('bMask', bMask)
    cv2.waitKey()
    
    • 效果如下:
      在这里插入图片描述
  • 第四步:求出b脸仿射变换到a脸的变换矩阵M

    • 图像的几何变换主要包括:平移、旋转、缩放、剪切、仿射、透视等。

    • 图像的几何变换主要分为:刚性变换、相似变换、仿射变换和透视变换(投影变换)

    • 刚性变换:平移+旋转

    • 相似变换:缩放+剪切

    • 仿射变换:从一个二维坐标系变换到另一个二维坐标系,属于线性变换。通过已知3对坐标点可以求得变换矩阵

    • 透视变换:从一个二维坐标系变换到一个三维坐标系,属于非线性变换。通过已知4对坐标点可以求得变换矩阵。
      在这里插入图片描述

    • 下图中内容是对仿射变换的简单概述
      在这里插入图片描述

    """ 求出b脸仿射变换到a脸的变换矩阵M,此处用到的算法难以理解,大家可直接跳过 """def getM(points1, points2):points1 = points1.astype(np.float64)  # int8转换为浮点数类型points2 = points2.astype(np.float64)  # 转换为浮点数类型c1 = np.mean(points1, axis=0)  # 归一化:(数值-均值)/标准差c2 = np.mean(points2, axis=0)  # 归一化:(数值-均值)/标准差,均值不同,主要是脸五官位置大小不同points1 -= c1  # 减去均值points2 -= c2  # 减去均值s1 = np.std(points1)  # 方差计算标准差s2 = np.std(points2)  # 方差计算标准差points1 /= s1  # 除标准差,计算出归一化的结果points2 /= s2  # 除标准差,计算出归一化的结果# 奇异值分解,Singular Value DecompositionU, S, Vt = np.linalg.svd(points1.T * points2)R = (U * Vt).T  # 通过U和Vt找到Rreturn np.hstack(((s2 / s1) * R, c2.T - (s2 / s1) * R * c1.T))M = getM(aKeyPoints[POINTStuple], bKeyPoints[POINTStuple])
    
  • 第五步:将b的脸部(bmask)根据M仿射变换到a上

    dsize = a.shape[:2][::-1]
    # 目标输出与图像a大小一致
    # 需要注意,shape是(行、列),warpAffine参数dsize是(列、行)
    # 使用a.shape[:2][::-1],获取a的(列、行)# 函数warpAffine(src,M,dsize,dst=None, flags=None, borderMode=None, borderValue=None)
    # src:输入图像
    # M:运算矩阵,2行3列的,
    # dsize:运算后矩阵的大小,也就是输出图片的尺寸
    # dst:输出图像
    # flags:插值方法的组合,与resize函数中的插值一样,可以查看cv2.resize
    # borderMode:边界模式,BORDER_TRANSPARENT表示边界透明
    # borderValue:在恒定边框的情况下使用的borderValue值;默认情况下,它是 0
    bMaskWarp = cv2.warpAffine(bMask, M, dsize, borderMode=cv2.BORDER_TRANSPARENT, flags=cv2.WARP_INVERSE_MAP)
    cv2.imshow("bMaskWarp", bMaskWarp)
    cv2.waitKey()
    
    • 结果如下:
      在这里插入图片描述
  • 第六步:获取脸部最大值(两个脸模板相加)

    mask = np.max([aMask, bMaskWarp], axis=0)
    cv2.imshow("mask", mask)
    cv2.waitKey()
    
    • 结果如下:
      在这里插入图片描述
  • 第七步:使用仿射矩阵M,将b映射到a

    bWrap = cv2.warpAffine(b, M, dsize, borderMode=cv2.BORDER_TRANSPARENT, flags=cv2.WARP_INVERSE_MAP)
    cv2.imshow("bWrap", bWrap)
    cv2.waitKey()
    
    • 结果如下:
      在这里插入图片描述
  • 第八步:求b图片的仿射到图片a的颜色值,b的颜色值改为a的颜色

    def normalColor(a, b):ksize = (111, 111)  # 非常大的核,去噪等运算时为11就比较大了aGauss = cv2.GaussianBlur(a, ksize, 0)  # 对a进行高斯滤波bGauss = cv2.GaussianBlur(b, ksize, 0)  # 对b进行高斯滤波weight = aGauss / bGauss  # 计算目标图像调整颜色的权重值,存在除0警告,可忽略。where_are_inf = np.isinf(weight)weight[where_are_inf] = 0return b * weightbcolor = normalColor(a, bWrap)
    cv2.imshow("bcolor", bcolor)
    cv2.waitKey()
    
    • 结果如下:
      在这里插入图片描述
  • 第九步:换脸(mask区域用bcolor,非mask区城用a)

    # 换脸
    out = a * (1.0 - mask) + bcolor * mask# =========输出原始人脸、换脸结果===============
    cv2.imshow("a", a)
    cv2.imshow("b", bOriginal)
    cv2.imshow("out", out / 255)
    cv2.waitKey()
    cv2.destroyAllWindows()
    
    • 最终结果如下:
      在这里插入图片描述
  • 完整代码如下:

    import cv2
    import dlib
    import numpy as np""" 根据人脸68个关键点检测模型,将脸部各部位对应的点集以列表形式存储 """
    JAW_POINTS = list(range(0, 17))
    RIGHT_BROW_POINTS = list(range(17, 22))
    LEFT_BROW_POINTS = list(range(22, 27))
    NOSE_POINTS = list(range(27, 35))
    RIGHT_EYE_POINTS = list(range(36, 42))
    LEFT_EYE_POINTS = list(range(42, 48))
    MOUTH_POINTS = list(range(48, 61))
    FACE_POINTS = list(range(17, 68))# 换脸的关键点集
    POINTS = [LEFT_BROW_POINTS + RIGHT_EYE_POINTS +LEFT_EYE_POINTS + RIGHT_BROW_POINTS + NOSE_POINTS + MOUTH_POINTS]# 处理为元组,后续使用方便
    POINTStuple = tuple(POINTS)def getFaceMask(im, keyPoints):  # 根据关键点获取脸部掩膜im = np.zeros(im.shape[:2], dtype=np.float64)for p in POINTS:points = cv2.convexHull(keyPoints[p])  # 获取凸包cv2.fillConvexPoly(im, points, color=1)  # 填充凸包,数字在0~1之间# 单通道im构成3通道im(3,行,列),改变形状(行、列、3)适应0penCVim = np.array([im, im, im]).transpose((1, 2, 0))im = cv2.GaussianBlur(im, (25, 25), 0)  # 需要根据具体调整return im""" 求出b脸仿射变换到a脸的变换矩阵M,此处用到的算法难以理解,大家可直接跳过 """def getM(points1, points2):points1 = points1.astype(np.float64)  # int8转换为浮点数类型points2 = points2.astype(np.float64)  # 转换为浮点数类型c1 = np.mean(points1, axis=0)  # 归一化:(数值-均值)/标准差c2 = np.mean(points2, axis=0)  # 归一化:(数值-均值)/标准差,均值不同,主要是脸五官位置大小不同points1 -= c1  # 减去均值points2 -= c2  # 减去均值s1 = np.std(points1)  # 方差计算标准差s2 = np.std(points2)  # 方差计算标准差points1 /= s1  # 除标准差,计算出归一化的结果points2 /= s2  # 除标准差,计算出归一化的结果# 奇异值分解,Singular Value DecompositionU, S, Vt = np.linalg.svd(points1.T * points2)R = (U * Vt).T  # 通过U和Vt找到Rreturn np.hstack(((s2 / s1) * R, c2.T - (s2 / s1) * R * c1.T))def getKeyPoints(im):  # 获取关键点rects = detector(im, 1)  # 获取人脸方框位置shape = predictor(im, rects[0])  # 获取关键点s = np.matrix([[p.x, p.y] for p in shape.parts()])  # 将关键点转换为坐标(x,y)的形式return s""" 修改b图的颜色值,与a图相同 """def normalColor(a, b):ksize = (111, 111)  # 非常大的核,去噪等运算时为11就比较大了aGauss = cv2.GaussianBlur(a, ksize, 0)  # 对a进行高斯滤波bGauss = cv2.GaussianBlur(b, ksize, 0)  # 对b进行高斯滤波weight = aGauss / bGauss  # 计算目标图像调整颜色的权重值,存在除0警告,可忽略。where_are_inf = np.isinf(weight)weight[where_are_inf] = 0return b * weight""" 读取两张人脸图片,并获取两张人脸图片的68个关键点 """
    a = cv2.imread("dlrb_3.jpg")  # 换脸A图片
    b = cv2.imread("zly.jpg")  # 换脸B图片detector = dlib.get_frontal_face_detector()  # 构造脸部位置检测器
    predictor = dlib.shape_predictor("shape_predictor_68_face_landmarks.dat")  # 获取人脸关键点定位模型aKeyPoints = getKeyPoints(a)  # 获取A图片的68关键点
    bKeyPoints = getKeyPoints(b)  # 获取B图片的68关键点bOriginal = b.copy()  # 不对原来的图片b进行破坏和修改""" 分别获取两张人脸的掩膜 """
    aMask = getFaceMask(a, aKeyPoints)  # 获取图片A的人脸掩膜
    cv2.imshow('aMask', aMask)
    cv2.waitKey()bMask = getFaceMask(b, bKeyPoints)  # 获取图片B的人脸掩膜
    cv2.imshow('bMask', bMask)
    cv2.waitKey()"""求出b脸仿射变换到a脸的变换矩阵M"""
    M = getM(aKeyPoints[POINTStuple], bKeyPoints[POINTStuple])"""将b的脸部(bmask)根据M仿射变换到a上"""
    dsize = a.shape[:2][::-1]
    # 目标输出与图像a大小一致
    # 需要注意,shape是(行、列),warpAffine参数dsize是(列、行)
    # 使用a.shape[:2][::-1],获取a的(列、行)# 函数warpAffine(src,M,dsize,dst=None, flags=None, borderMode=None, borderValue=None)
    # src:输入图像
    # M:运算矩阵,2行3列的,
    # dsize:运算后矩阵的大小,也就是输出图片的尺寸
    # dst:输出图像
    # flags:插值方法的组合,与resize函数中的插值一样,可以查看cv2.resize
    # borderMode:边界模式,BORDER_TRANSPARENT表示边界透明
    # borderValue:在恒定边框的情况下使用的borderValue值;默认情况下,它是 0
    bMaskWarp = cv2.warpAffine(bMask, M, dsize, borderMode=cv2.BORDER_TRANSPARENT, flags=cv2.WARP_INVERSE_MAP)
    cv2.imshow("bMaskWarp", bMaskWarp)
    cv2.waitKey()"""获取脸部最大值(两个脸模板相加)"""
    mask = np.max([aMask, bMaskWarp], axis=0)
    cv2.imshow("mask", mask)
    cv2.waitKey()""" 使用仿射矩阵M,将b映射到a """
    bWrap = cv2.warpAffine(b, M, dsize, borderMode=cv2.BORDER_TRANSPARENT, flags=cv2.WARP_INVERSE_MAP)
    cv2.imshow("bWrap", bWrap)
    cv2.waitKey()""" 求b图片的仿射到图片a的颜色值,b的颜色值改为a的颜色 """
    bcolor = normalColor(a, bWrap)
    cv2.imshow("bcolor", bcolor)
    cv2.waitKey()""" ===========换脸(mask区域用bcolor,非mask区城用a)============= """
    out = a * (1.0 - mask) + bcolor * mask# =========输出原始人脸、换脸结果===============
    cv2.imshow("a", a)
    cv2.imshow("b", bOriginal)
    cv2.imshow("out", out / 255)
    cv2.waitKey()
    cv2.destroyAllWindows()

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/455851.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Android 图片相识度比较(pHash)

概述 在 Android 中,要比对两张 Bitmap 图片的相似度,常见的方法有基于像素差异、直方图比较、或者使用一些更高级的算法如 SSIM(结构相似性)和感知哈希(pHash)。 1. 基于像素的差异比较 可以逐像素比较…

SQL实战测试

SQL实战测试 (请写下 SQL 查询语句,不需要展示结果) 表 a DateSalesCustomerRevenue2019/1/1张三A102019/1/5张三A18 1. **用一条 ** SQL 语句写出每个月,每个销售有多少个客户收入多少 输出结果表头为“月”,“销…

【LeetCode:910. 最小差值 II + 模拟 + 思维】

🚀 算法题 🚀 🌲 算法刷题专栏 | 面试必备算法 | 面试高频算法 🍀 🌲 越难的东西,越要努力坚持,因为它具有很高的价值,算法就是这样✨ 🌲 作者简介:硕风和炜,…

iOS 本地存储地址(位置)

使用UserDefaults存储,数据的位置在沙盒的 Library文件下的 Preferences 里 //获取沙盒地址print("sanbox地址:",NSHomeDirectory())UserDefaults.standard.setValue("4", forKey: "tag4") 存储位置: 打开这个文件: 注意,存入到plist 文件的类型…

动态规划-子序列问题——300.最长递增子序列

1.题目解析 题目来源:300.最长递增子序列——力扣 测试用例 2.算法原理 1.状态表示 首先创建一个与数组大小相同的dp表,此时dp[i]表示的是:以第i个位置为结尾的所有子序列中最长递增子序列的长度 2.状态转移方程 此时第i个位置一定是最长递…

SpringBoot中yml文件多环境配置

yml文件多环境配置步骤如下: 1、在application.yml同级目录下创建配置文件,格式为: application-环境名.yml,示例如下: 2、通过主配置文件application.yml中的spring.profiles.activexxx指定具体的环境。 建议配置&a…

Chrome谷歌浏览器加载ActiveX控件之JT2Go控件

背景 JT2Go是一款西门子公司出品的三维图形轻量化预览解决工具,包含精确3D测量、基本3D剖面、PMI显示和改进的选项过滤器等强大的功能。JT2Go控件是一个标准的ActiveX控件,曾经主要在IE浏览器使用,由于微软禁用IE浏览器,导致JT2Go…

股票与基金资料收集

声明:本内容是网上资料的收集与整理而成,不定时更新。仅供参考,不构成任何投资建议。 目录: 一、股票 1、黄金交叉和死亡交叉 2、技术指标 3、T、TR、THR含义 二、基金 平准基金 一、股票 1、黄金交叉和死亡交叉 “黄金交…

CSS 网格布局

网格布局是一个二维布局系统,允许开发者以行和列的形式创建灵活的网络,并将内容放置在网络的单元格中。有些元素可能只占据网络的一个单元,另一些元素则可能占据多行或多列。 网格的大小既可以精确定义,也可以根据自身内容自动计…

【算法篇】动态规划类(4)——子序列(笔记)

目录 一、Leetcode 题目 1. 最长递增子序列 2. 最长连续递增序列 3. 最长重复子数组 4. 最长公共子序列 5. 不相交的线 6. 最大子序和 7. 判断子序列 8. 不同的子序列 9. 两个字符串的删除操作 10. 编辑距离 11. 回文子串 12. 最长回文子序列 二、动态规划总结 …

ctfshow-web入门-web31

<?php ​ /* # -*- coding: utf-8 -*- # Author: h1xa # Date: 2020-09-04 00:12:34 # Last Modified by: h1xa # Last Modified time: 2020-09-04 00:49:10 # email: h1xactfer.com # link: https://ctfer.com ​ */ ​ error_reporting(0); if(isset($_GET[c])){$c …

Java语言-接口(下)

目录 1. 接口使用实例 1.1 给对象数组排序 1.2 Clonable接口和深拷贝 Cloneable 浅拷贝 深拷贝 1.3 抽象类和接口的区别 2. Object类 2.1 Object类的介绍 2.2 toString() 2.3 equals() 2.4 hashcode() 1. 接口使用实例 1.1 给对象数组排序 现有一个学生类&#…

关于java继承(深入解析父类属性的抽取与构造函数的作用)

目录 前言基础继承作用 理论分析父类属性的抽取构造函数调用父类构造函数会不会创建一个父类的对象&#xff1f;生命周期角度谁的属性用谁的构造函数初始化 示例解析代码代码调试展示构造函数初始化成员变量 总结 前言 在Java中&#xff0c;继承是一项至关重要的特性&#xff0…

详解23种设计模式——第二部分:结构型模式

目录 3 结构型模式 3.1 代理模式 3.2 适配器模式 3.2.1 默认适配器模式 3.2.2 对象适配器模式 3.2.3 类适配器模式 3.2.4 适配器模式总结 3.3 桥梁模式 3.4 装饰模式 3.4 门面模式 3.5 组合模式 3.6 享元模式 3.7 结构型模式总结 接上一篇&#xff1a;详解23种设计…

openrtp 音视频时间戳问题

解决音视频发送的rtp问题 openrtp增加了音频aac的发送&#xff0c;地址 OpenRTP Gitee开源地址 同时使用两个rtp &#xff0c;来发送音频和视频 使用以下音频rtp&#xff0c;是可以发送和接收的&#xff0c;音频端口在视频端口上2 v0 o- 0 0 IN IP4 127.0.0.1 sMy Stream cI…

Windows通过netsh控制安全中心防火墙和网络保护策略

Windows通过netsh控制安全中心防火墙和网络保护策略 1. 工具简介 【1】. Windows安全中心 【2】. netsh工具 netsh(Network Shell) 是一个Windows系统本身提供的功能强大的网络配置命令行工具。 2. 开启/关闭防火墙策略 在设置端口&#xff08;禁用/启用&#xff09;前&am…

使用 CDN 后 Apache 的日志记录客户真实 IP

经常搭建网站服务器的都知道&#xff0c;在给站点使用了 CDN 后 Web 应用的日志记录里就会只记录 CDN 节点 IP 了&#xff0c;这就没法看到真实客户请求 IP&#xff0c;对于日志分析、运维日常维护来说就有点儿麻烦了&#xff0c;今天明月结合在五洛云服务器上搭建的Apache环境…

多ip访问多网站

多IP访问多网站 1.预配操作 [rootlocalhost ~]# mount /dev/sr0 /mnt mount: /mnt: WARNING: source write-protected, mounted read-only. [rootlocalhost ~]# systemctl stop firewalld ----------关闭防火墙 [rootlocalhost ~]# setenforce 0 -------关闭selinux2.安装n…

【论文阅读】ESRGAN

学习资料 论文题目:增强型超分辨率生成对抗网络(ESRGAN: Enhanced Super-Resolution Generative Adversarial Networks)论文地址:[1809.00219] ESRGAN:增强型超分辨率生成对抗网络代码:xinntao / ESRGAN:ECCV18 研讨会 - 增强的 SRGAN。Champion PIRM Challenge 关于感知…

【机器学习】VQ-VAE(Vector Quantized Variational Autoencoder)

VQ-VAE&#xff08;Vector Quantized Variational Autoencoder&#xff09;是一种生成模型&#xff0c;它结合了变分自编码器&#xff08;Variational Autoencoder, VAE&#xff09;和向量量化&#xff08;Vector Quantization&#xff09;技术。VQ-VAE的主要目的在于通过离散潜…