FaceChain是一个可以用来打造个人数字形象的深度学习模型工具

工具软件12个月前发布 AI观察员
125 0 0

FaceChain是一个可以用来打造个人数字形象的深度学习模型工具。用户仅需要提供最低三张照片即可获得独属于自己的个人形象数字替身。FaceChain支持在gradio的界面中使用模型训练和推理能力,也支持资深开发者使用python脚本进行训练推理。同时,FaceChain欢迎开发者对本Repo进行继续开发和贡献。

您也可以在ModelScope创空间中直接体验这项技术而无需安装任何软件。

FaceChain的模型由ModelScope开源模型社区提供支持。

环境准备

兼容性验证

FaceChain是一个组合模型,使用了包括pytorch和tensorflow在内的机器学习框架,以下是已经验证过的主要环境依赖:

  • python环境: py3.8, py3.10
  • pytorch版本: torch2.0.0, torch2.0.1
  • tensorflow版本: 2.7.0, tensorflow-cpu
  • CUDA版本: 11.7
  • CUDNN版本: 8+
  • 操作系统版本: Ubuntu 20.04, CentOS 7.9
  • GPU型号: Nvidia-A10 24G

资源占用

  • GPU: 显存占用约19G
  • 磁盘: 推荐预留50GB以上的存储空间

安装指南

支持以下几种安装方式,任选其一:

    1. 使用ModelScope提供的notebook环境【推荐】

      ModelScope(魔搭社区)提供给新用户初始的免费计算资源,参考ModelScope Notebook

      如果初始免费计算资源无法满足要求,您还可以从上述页面开通付费流程,以便创建一个准备就绪的ModelScope(GPU) DSW镜像实例。

      Notebook环境使用简单,您只需要按以下步骤操作(注意:目前暂不提供永久存储,实例重启后数据会丢失):

# Step1: 我的notebook -> PAI-DSW -> GPU环境
# Step2: 打开Terminal,将github代码clone到本地GIT_LFS_SKIP_SMUDGE=1 git clone https://github.com/modelscope/facechain.git
# Step3: 进入Notebook cell,执行:import osos.chdir('/mnt/workspace/facechain')    # 注意替换成上述clone后的代码文件夹主路径print(os.getcwd())
!pip3 install gradio!python3 app.py
# Step4: 点击生成的URL即可访问web页面,上传照片开始训练和预测
  1. docker镜像

    如果您熟悉docker,可以使用我们提供的docker镜像,其包含了模型依赖的所有组件,无需复杂的环境安装:

    conda create -n facechain python=3.8    # 已验证环境:3.8 和 3.10conda activate facechain
    pip3 install -r requirements.txtpip3 install -U openmim mim install mmcv-full==1.7.0
    # 进入facechain文件夹,执行:python3 app.py
    # 最后点击log中生成的URL即可访问页面。

备注:app服务成功启动后,在log中访问页面URL,进入”形象定制“tab页,点击“选择图片上传”,并最少选1张包含人脸的图片;点击“开始训练”即可训练模型。训练完成后日志中会有对应展示,之后切换到“形象体验”标签页点击“开始推理”即可生成属于自己的数字形象。

脚本运行

如果不想启动服务,而是直接在命令行进行开发调试等工作,FaceChain也支持在python环境中直接运行脚本进行训练和推理。在克隆后的文件夹中直接运行如下命令来进行训练:

PYTHONPATH=. sh train_lora.sh "ly261666/cv_portrait_model" "v2.0" "film/film" "./imgs" "./processed" "./output"

参数含义:

ly261666/cv_portrait_model: ModelScope模型仓库的stable diffusion基模型,该模型会用于训练,可以不修改v2.0: 该基模型的版本号,可以不修改film/film: 该基模型包含了多个不同风格的子目录,其中使用了film/film目录中的风格模型,可以不修改./imgs: 本参数需要用实际值替换,本参数是一个本地文件目录,包含了用来训练和生成的原始照片./processed: 预处理之后的图片文件夹,这个参数需要在推理中被传入相同的值,可以不修改./output: 训练生成保存模型weights的文件夹,可以不修改

等待5-20分钟即可训练完成。用户也可以调节其他训练超参数,训练支持的超参数可以查看train_lora.sh的配置,或者facechain/train_text_to_image_lora.py中的完整超参数列表。

进行推理时,请编辑run_inference.py中的代码:

 

# 填入上述的预处理之后的图片文件夹,需要和训练时相同processed_dir = './processed'# 推理生成的图片数量num_generate = 5# 训练时使用的stable diffusion基模型,可以不修改base_model = 'ly261666/cv_portrait_model'# 该基模型的版本号,可以不修改revision = 'v2.0'# 该基模型包含了多个不同风格的子目录,其中使用了film/film目录中的风格模型,可以不修改base_model_sub_dir = 'film/film'# 训练生成保存模型weights的文件夹,需要保证和训练时相同train_output_dir = './output'# 指定一个保存生成的图片的文件夹,本参数可以根据需要修改output_dir = './generated'

之后执行:

python run_inference.py

算法介绍

基本原理

个人写真模型的能力来源于Stable Diffusion模型的文生图功能,输入一段文本或一系列提示词,输出对应的图像。我们考虑影响个人写真生成效果的主要因素:写真风格信息,以及用户人物信息。为此,我们分别使用线下训练的风格LoRA模型和线上训练的人脸LoRA模型以学习上述信息。LoRA是一种具有较少可训练参数的微调模型,在Stable Diffusion中,可以通过对少量输入图像进行文生图训练的方式将输入图像的信息注入到LoRA模型中。因此,个人写真模型的能力分为训练与推断两个阶段,训练阶段生成用于微调Stable Diffusion模型的图像与文本标签数据,得到人脸LoRA模型;推断阶段基于人脸LoRA模型和风格LoRA模型生成个人写真图像。

输入:用户上传的包含清晰人脸区域的图像

输出:人脸LoRA模型

描述:首先,我们分别使用基于朝向判断的图像旋转模型,以及基于人脸检测和关键点模型的人脸精细化旋转方法处理用户上传图像,得到包含正向人脸的图像;接下来,我们使用人体解析模型和人像美肤模型,以获得高质量的人脸训练图像;随后,我们使用人脸属性模型和文本标注模型,结合标签后处理方法,产生训练图像的精细化标签;最后,我们使用上述图像和标签数据微调Stable Diffusion模型得到人脸LoRA模型。

推断阶段

输入:训练阶段用户上传图像,预设的用于生成个人写真的输入提示词

输出:个人写真图像

描述:首先,我们将人脸LoRA模型和风格LoRA模型的权重融合到Stable Diffusion模型中;接下来,我们使用Stable Diffusion模型的文生图功能,基于预设的输入提示词初步生成个人写真图像;随后,我们使用人脸融合模型进一步改善上述写真图像的人脸细节,其中用于融合的模板人脸通过人脸质量评估模型在训练图像中挑选;最后,我们使用人脸识别模型计算生成的写真图像与模板人脸的相似度,以此对写真图像进行排序,并输出排名靠前的个人写真图像作为最终输出结果。

项目链接

https://github.com/modelscope/facechain

© 版权声明

相关文章

天猫U特购  京东优惠购        京东优惠    天猫优惠