Henc 发表于 2022-1-4 16:08:15

[256-WF-SAEHD-DF-UD] 预训练100w+训练141w共241w次迭代 6G显存可以8bz

本帖最后由 Henc 于 2022-1-4 16:13 编辑

个人通过自己的电脑和租赁的云服务器跑的模型 分辨率是256,WF
该模型是从外网下载的预训练模型,本身的预训练模式已经跑了100w次,
又使用了自己分割的素材跑了141w迭代,也就是100w加141w=241w次迭代
模型本身我用1060-6G可以跑到10bz,但有概率OOM,如果有条件可以使用linux跑
下面的详细介绍是训练模式下的迭代次数。

模型介绍:================== Model Summary ===================
==                                                               
==            Model name: 256wf_SAEHD            
==                                                               
==   Current iteration: 1411533               
==                                                
==---------------- Model Options -----------------
==                                             
==            resolution: 256                     
==             face_type: wf                     
==   models_opt_on_gpu: True                  
==               archi: df-ud                  
==               ae_dims: 256                     
==                e_dims: 64                     
==                d_dims: 64                     
==         d_mask_dims: 22                  
==       masked_training: True                  
==             eyes_prio: False            
==         uniform_yaw: False               
==            lr_dropout: n                     
==         random_warp: True                  
==             gan_power: 0.0                     
==       true_face_power: 0.0                     
==      face_style_power: 0.0                  
==      bg_style_power: 0.0                     
==               ct_mode: none               
==            clipgrad: False                  
==            pretrain: False                  
==       autobackup_hour: 0                     
== write_preview_history: False                  
==         target_iter: 0                     
==         random_flip: False                  
==            batch_size: 10                  
==                                                
==------------------ Running On ------------------
==                                             
==          Device index: 0                     
==                  Name: NVIDIA GeForce GTX 1060
==                  VRAM: 6.00GB               
==                                             
====================================================

效果如下:


















kkk1kkk 发表于 2022-2-15 13:14:32

感觉这个模型不错哦!!!值得买

Henc 发表于 2022-1-4 16:10:40

本帖最后由 Henc 于 2022-1-4 16:38 编辑

我使用的DFL版本是2020.07,在使用从我这下载的模型时,如果显存小于等于6G,建议第一次训练时把batch_size开成1。开始迭代后,保存并关闭模型。再次训练时可以根据自己的硬件配置调整模型的batch_size。让模型适应新机器。

guoruoxuan 发表于 2022-1-4 16:13:02

谢谢分享

whl716694 发表于 2022-1-4 16:24:23

支持一下

xiaotiantang 发表于 2022-1-4 16:34:41

您的显卡能开到10,我3060-6G显卡跑224的模型只能开到3是啥原因啊?

Henc 发表于 2022-1-4 16:39:44

xiaotiantang 发表于 2022-1-4 16:34
您的显卡能开到10,我3060-6G显卡跑224的模型只能开到3是啥原因啊?
我是df-ud架构,你的df-d架构吧,那个架构算是很老的了。不过有人会认为它的表达能力更强,看你需求

xiaotiantang 发表于 2022-1-4 16:50:44

Henc 发表于 2022-1-4 16:39
我是df-ud架构,你的df-d架构吧,那个架构算是很老的了。不过有人会认为它的表达能力更强,看你需求 ...

嗯,我看了一下,的确是!我先去了解一下架构的问题哈!

wcw888 发表于 2022-1-4 17:11:44

感谢分享

ltlzy 发表于 2022-1-4 17:22:23

感谢分享

达布溜 发表于 2022-1-4 17:32:37

不错不错不错
页: [1] 2 3 4 5 6 7 8 9 10
查看完整版本: [256-WF-SAEHD-DF-UD] 预训练100w+训练141w共241w次迭代 6G显存可以8bz