挑战sdwebui最低配置

109次阅读

共计 1692 个字符,预计需要花费 5 分钟才能阅读完成。

sdwebg 以上显存的英伟达甜品卡,天花板自然是卡皇 4090。过高的配置要求让不少坛友望而却步,虽然有 colab、dsw 这种资源可白嫖,不过线上的自然没有本地用的舒坦用的安心。事实上 sdwebui 早就可以运行在低显存的机器上,甚至直接拿 CPU 跑,只不过效率极低。那么低配置的机器到底该如何运行,出图效率到底如何呢。这里拿两台机器作为参考,一台是 i7 4710mq+950m,另一台 i5 4200h+940m,都是七八年前的老爷机。我们拿 940m 跑 cuda,4710mq 跑 CPU(就不要难为 4200h)安装很简单要求 python3.10.6+git 克隆代码➜双击 webui-user.bat 即可这是官方的安装流程唯一的难度在于网络,要么全局梯子 / 软路由,要么改安装文件使用反代,亦或者直接用集成环境的安装包 https://www.123pan.com/s/DhC8Vv-vcNad.html 提取码:1234 复制代码安装之前,务必将显卡驱动更新至最新,让 cuda 能够支持 Stable Diffusion。安装完之后,webui 启动程序会自动检测当前环境是否满足程序运行要求,为了能使用低配机器,需要额外设置启动命令。这里没有使用一键包 set PYTHON=set GIT=set VENV_DIR=set COMMANDLINE_ARGS=–lowvram –always-batch-cond-uncond –deepdanbooru –xformers –no-half-vae –theme dark 复制代码如果已经成功安装了 Python 和 Git,并且设置好环境变量,就无需再填写到 webui 启动脚本内,VENV 在安装过程中会自动创建,也可以不填。–lowvram:启用低显存模式 –always-batch-cond-uncond:禁用批量生成,同样为了减少显存使用 –deepdanbooru:为了让某些动漫模型运行的更好 –xformers:优化显存,尝试开启 –no-half-vae:不使用半精度(fp16)模型 –theme dark:暗黑模式(更不那么刺眼)配置完之后双击启动即可,由于调用的文件很多,启动过程比较漫长,建议安装在固态硬盘内。我们使用默认的 512×512,步数 20,采样方式为 dpm++ sde karras 模型使用 chilloutmix,vae 选择通用的 840000,挂载三个 Lora,分别为 20d、fashiongirl 与 koreanDollLikeness 来模拟日常出图需求。出图过程比较顺利,速度确实有点慢,高达 20s/it,总耗时 7m40s 通过调用 nvidia-smi,我们看到,940m 的显存使用开始上升,最终稳定在 1500M。顺便一提的是,CPU 几乎没有什么波动,倒是 8g 内存所剩无几,看来一部分内存被当作虚拟显存划走了。之后使用图生图,将刚生成的图片使用 ESRGAN 插件放大 2 倍,可怜的 2g 显存终于被全部吃完。图生图放大总耗时 37m32s 高清修复(hires)和 mutidiffusion 都以爆显存告终。不使用显卡,纯 CPU 跑 sdwebui 如何?程序不需要额外的设置,通过更改启动命令即可实现。set COMMANDLINE_ARGS=–use-cpu all –no-half –precision full –skip-torch-cuda-test –theme darkset CUDA_VISIBLE_DEVICES=- 1 复制代码 set CUDA_VISIBLE_DEVICES=-1:禁用掉 cuda 设备,让程序找不到显卡 –use-cpu all:使用全部的 CPU 核心 –no-half –precision full:仅使用单精度(fp32)运行 –skip-torch-cuda-test:跳过 torch-cuda 检测和上一个测试一样,我们准备了相同的参数来控制变量,只不过这个结果属于——我和 CPU 比命长系列总耗时 22m35s 完成一开始会非常慢,几乎 200s/it,最终平稳在 70s/it,作为对比 4090 高达 30it/s,诠释了什么叫时间就是金钱。

正文完
 0