前几天发了一篇DFL2.0的文章,不少已经用过DFL的小伙伴都有一个疑问:DFL2.0到底有什么提升?有什么不一样?我要不要更新?应该怎么更新?因为时间经历的原因我也还没有深入研究,但是可以和大家分享下以显而易见的一些点。

 

 

* 仅支持N卡,不再支持A卡!

因为作者觉得支持A卡有点累,所以A卡被放弃了。对于A卡用户来说有点可惜。 从深度学习的角度来说,确实是N卡支持的比较好。虽然A卡可能比较便宜性价比高,但是如果想要跑一些基于深度学习的软件,尤其是开源软件,还是推荐购买N卡。

 

* 支持N卡多卡训练了

我本身是单卡没有去测试,但是从更新记录中可以看到,现在训练模型的时候也支持多卡了。这对多卡用户来说是一个好消息。

 

* 删除了一堆模型和脚本

深度学习设置多张显卡训练 deepfacelab 多显卡_深度学习

 

软件解压后,这一点显而易见。 提取环节MF和DLIB已经成为过去式,现在只剩下S3FD,也不存在最佳GPU,所有GPU这些脚本了,对于GPU的选择移动到了启动后的命令行界面。排序也浓缩了成了一个sort脚本。原先的convert脚本名字改成了merged。当然这里最大的变化是,删减了很多模型。其中包括H64,H128,DF,SAE。目前仅剩下Quick96和SAEHD模型。

 

在换脸软件中H64可以说是经典模型,在AI换脸爆火的时候,当时那些看起来牛逼哄哄的视频背后的算法都是和H64类似的。

 

* 交互方式做了改变。

 

深度学习设置多张显卡训练 deepfacelab 多显卡_新版本_02

同样是命令行,但是交互方式稍微发生了一些变化。尤其关于模型的操作,增加了新建,命名,重命名等。基本所有环节都可以选择CPU或者某个GPU来运行。

 

* 首次使用加载变快了。

深度学习设置多张显卡训练 deepfacelab 多显卡_新版本_03

在以往的版本中,首次解压软件后,走到第四步往往容易卡住,这个时间会持续几分钟。新版本已经基本解决了这个问题。

 

* 提取功能调整

从三个步骤变成了一个步骤,好处是万一中断了也不会功亏一篑。当然整体速度可能比早前的版本会慢一些。

 

*模型命名功能

 

以前训练模型的时候都是以模型类型来命名的,现在可以自定义文件名。这样的好处是,同一个目录下,可以训练无数个SAEHD或者Quick96而不会冲突。为了实现这一功能,模型文件中有添加了一个新的配置文件XXXX_default_options.dat。模型文件后缀从H5变成了npy。

 

 

* 模型不在兼容以前版本。

作为DFL的资深玩家,也算是见怪不怪了,想当年SAE狂更新的时候,动不动就要重练模型。就是苦了那些拼命练丹的同学!

 

 

* 模型迭代时间缩短了

 

深度学习设置多张显卡训练 deepfacelab 多显卡_深度学习_04

1126版SAEHD模型默认参数情况下,单次迭代1219ms(显卡1070) ,训练10分钟后效果如上!

深度学习设置多张显卡训练 deepfacelab 多显卡_迭代_05

 

新版本中SAEHD模型默认参数下,单次迭代442ms,训练十分钟效果如上。 对比一下,新版本的单次时间减少了很多,相同时间内,Loss值更低,预览图更好!至于到底效率提高了多少,还没有进行严格的测试。

 

 

*SAEHD新增和修改了一些参数!

 

Autobackup every N hour :从原先的一个小时一次,可以选择多少个小时备份一次。

 

super resolution power: 从原先的是否启用改为可以输入0~100的数值

 

erode/blur :默认值改为0

 

GAN power :用生成对抗式网络来训练神经网络,强制神经网络学习面部小细节。

 

True face power: 从原先的是否启用改为可以输入 0~1的数值

 

optimizer_mode:被移除

 

Place models and optimizer on GPU:新增。当你在GPU上训练是时,默认将模型和权重放在GPU上以加速该过程。你也可以将它们放在CPU上以释放额外的VRAM,从而可以配置更高的参数。

 

*交互式合成似乎无法自动进行

在之前的版本中,交互式合成方式,只需要按回车键就会自动进行,新版本可以确定按回车没有用,其他键似乎也无法启动自动合成,这样就会比较崩溃了。

 

* 如何更新

安装包可以从群文件获取,只要解压到和老版本不同的目录即可,两者不冲突,可以共存!

 

 

大概就是这些内容啦。

 

整体来说,作者付出了大量的时间和经历对软件进行了更新,也有些不错的改进,对特定的需求人群比较有用。但是作为大部分应用使用者来说,可能并没有太大的必要立马去升级,众多改变中并没有颠覆性的内容。

 

软件更新是非常常见的一个问题,作为研究者探索者自然会去尝试新的版本,而作为使用者,其实只要某个功能点满足了,就没必要付出太大精力去更新!再等等,等稳定了再说。