如何给你的WebUI添加/修改启动参数?

黄黄黄 使用帮助 1699

启动参数是一种程序语言,在一些程序配置文件里加入一些文字性的参数,就可以以不同的方式开启WebUI,让它的一些功能细节发生变化。

如果你使用的是Windows系统:

找到webui-user.bat文件,使用记事本一类的文档软件打开,在”set COMMANDLINE_ARGS=“后面加入指定启动参数,保存并关闭,就可以让它在启动时生效。

如果你使用的是Mac系统:

找到webui-user.sh文件,使用文本编辑一类的文档软件打开,找到#export COMMANDLINE_ARGS=””这一行,将最前面的井号键删掉,然后=后面加入指定启动参数,保存并关闭,就可以让它在启动时生效。

如果你使用的是一些整合包:

请查阅整合包作者的相关说明。大部分整合包、启动器,会将这些启动参数转换成更为人性化的选项或滑块。

启动参数完整列表(来自:Ivon的部落格)

参数指令
数值
默认值
说明
设置值
-h, –help
None
False
显示此帮助消息并退出。
–exit
安装后终止程序。
–data-dir
DATA_DIR
./
用户数据保存的路径。
–config
CONFIG
configs/stable-diffusion/v1-inference.yaml
建构模型设置档的路径。
–ckpt
CKPT
model.ckpt
Stable Diffusion模型的存盘点模型路径。一旦指定,该模型会加入至存盘点模型列表并加载。
–ckpt-dir
CKPT_DIR
None
存放Stable Diffusion模型存盘点模型的路径。
–no-download-sd-model
None
False
即使找不到模型,也不自动下载SD1.5模型。
–vae-dir
VAE_PATH
None
VAE的路径。
–gfpgan-dir
GFPGAN_DIR
GFPGAN/
GFPGAN路径
–gfpgan-model
GFPGAN_MODEL
GFPGAN模型文件名
–codeformer-models-path
CODEFORMER_MODELS_PATH
models/Codeformer/
Codeformer模型档的路径。
–gfpgan-models-path
GFPGAN_MODELS_PATH
models/GFPGAN
GFPGAN模型档的路径。
–esrgan-models-path
ESRGAN_MODELS_PATH
models/ESRGAN
ESRGAN模型档的路径。
–bsrgan-models-path
BSRGAN_MODELS_PATH
models/BSRGAN
BSRGAN模型档的路径。
–realesrgan-models-path
REALESRGAN_MODELS_PATH
models/RealESRGAN
RealESRGAN模型档的路径。
–scunet-models-path
SCUNET_MODELS_PATH
models/ScuNET
ScuNET模型档的路径。
–swinir-models-path
SWINIR_MODELS_PATH
models/SwinIR
SwinIR和SwinIR v2模型档的路径。
–ldsr-models-path
LDSR_MODELS_PATH
models/LDSR
含有LDSR模型档的路径。
–lora-dir
LORA_DIR
models/Lora
含有LoRA模型档的路径。
–clip-models-path
CLIP_MODELS_PATH
None
含有CLIP模型档的路径。
–embeddings-dir
EMBEDDINGS_DIR
embeddings/
Textual inversion的embeddings路径 (缺省: embeddings)
–textual-inversion-templates-dir
TEXTUAL_INVERSION_TEMPLATES_DIR
textual_inversion_templates
Textual inversion范本的路径
–hypernetwork-dir
HYPERNETWORK_DIR
models/hypernetworks/
Hypernetwork路径
–localizations-dir
LOCALIZATIONS_DIR
localizations/
在地化翻译路径
–styles-file
STYLES_FILE
styles.csv
风格文件名
–ui-config-file
UI_CONFIG_FILE
ui-config.json
UI设置档文件名
–no-progressbar-hiding
None
False
取消隐藏Gradio UI的进度条 (我们之所以将其隐藏,是因为在浏览器启动硬件加速的状况下,进度条会降低机器学习的性能)
–max-batch-count
MAX_BATCH_COUNT
16
UI的最大批量数值
–ui-settings-file
UI_SETTINGS_FILE
config.json
UI设置值画面的文件名
–allow-code
None
False
允许在WebUI运行自订指令稿
–share
None
False
使用此参数在启动后会产生Gradio网址,使WebUI能从外部网络访问
–listen
None
False
以0.0.0.0主机名称启动Gradio,使其能回应连接请求
–port
PORT
7860
以给定的通信端口启动Gradio。1024以下的通信端口需要root权限。如果可用的话,缺省使用7860通信端口。
–hide-ui-dir-config
None
False
在WebUI隐藏设置档目录。
–freeze-settings
None
False
停用编辑设置。
–enable-insecure-extension-access
None
False
无视其他选项,强制激活扩充功能页签。
–gradio-debug
None
False
使用 –debug选项启动Gradio
–gradio-auth
GRADIO_AUTH
None
设置Gardio授权,例如”username:password”,或是逗号分隔值形式”u1:p1,u2:p2,u3:p3″
–gradio-auth-path
GRADIO_AUTH_PATH
None
设置Gardio授权文件路径。 例如 “/路径/” 再加上–gradio-auth的格式。
–disable-console-progressbars
None
False
不在终端机显示进度条。
–enable-console-prompts
None
False
在使用文生图和图生图的时候,于终端机印出提示词
–api
None
False
以API模式启动WebUI
–api-auth
API_AUTH
None
设置API授权,例如”username:password”,或是逗号分隔值形式”u1:p1,u2:p2,u3:p3″
–api-log
None
False
激活所有API请求的纪录档
–nowebui
None
False
仅启动API, 不启动WebUI
–ui-debug-mode
None
False
不加载模型,以更快启动WebUI
–device-id
DEVICE_ID
None
选择要使用的CUDA设备 (例如在启动指令稿使用export CUDA_VISIBLE_DEVICES=0或1)
–administrator
None
False
使用系统管理员权限
–cors-allow-origins
CORS_ALLOW_ORIGINS
None
允许跨来源资源共用,列表以逗号分隔,不可有空格
–cors-allow-origins-regex
CORS_ALLOW_ORIGINS_REGEX
None
允许跨来源资源共用,后面加上单一正规表达式
–tls-keyfile
TLS_KEYFILE
None
部份激活TLS,,需要配合–tls-certfile才能正常运作
–tls-certfile
TLS_CERTFILE
None
部份激活TLS,需要配合–tls-keyfile才能正常运作
–server-name
SERVER_NAME
None
设置服务器主机名称
–gradio-queue
None
False
使用Gradio queue,限制短时间内API的请求数量。实验性功能,会导致重启按钮损坏。
–skip-version-check
None
False
不检查torch和xformers的版本
–no-hashing
None
False
停用计算存盘点模型的sha256哈希值,加快加载速度
性能相关
–xformers
None
False
给cross attention layers激活xformers
–reinstall-xformers
None
False
强制重装xformers,升级时很有用。但为避免不断重装,升级后将会移除。
–force-enable-xformers
None
False
强制给cross attention layers激活xformers 此选项无法运作的话请勿回报bug
–xformers-flash-attention
None
False
给xformers激活Flash Attention,提升再现能力 (仅支持SD2.x或以此为基础的模型)
–opt-split-attention
None
False
强制激活Doggettx的cross-attention layer优化。有CUDA的系统缺省激活此选项。
–opt-split-attention-invokeai
None
False
强制激活InvokeAI的cross-attention layer优化。无CUDA的系统缺省激活此选项。
–opt-split-attention-v1
None
False
激活旧版的split attention优化,防止占用全部可用的VRAM,
–opt-sub-quad-attention
None
False
激活增进内存效率的sub-quadratic cross-attention layer优化
–sub-quad-q-chunk-size
SUB_QUAD_Q_CHUNK_SIZE
1024
sub-quadratic cross-attention layer优化使用的串行化区块大小
–sub-quad-kv-chunk-size
SUB_QUAD_KV_CHUNK_SIZE
None
sub-quadratic cross-attention layer优化使用的kv区块大小
–sub-quad-chunk-threshold
SUB_QUAD_CHUNK_THRESHOLD
None
sub-quadratic cross-attention layer优化过程中,区块化使用的VRAM阈值
–opt-channelslast
None
False
激活4d tensors使用的alternative layout,或许可以加快推理速度 仅适用搭载Tensor内核的Nvidia显卡(16xx系列以上)
–disable-opt-split-attention
None
False
强制停用cross-attention layer的优化
–disable-nan-check
None
False
不检查生成图像/潜在空间是否有nan。在CI模式无使用存盘点模型的时候很有用。
–use-cpu
{all, sd, interrogate, gfpgan, bsrgan, esrgan, scunet, codeformer}
None
让部份模块使用CPU作为PyTorch的设备
–no-half
None
False
不将模型转换为半精度浮点数
–precision
{full,autocast}
autocast
使用此精度评估
–no-half-vae
None
False
不将VAE模型转换为半精度浮点数
–upcast-sampling
None
False
向上采样。搭配 –no-half使用则无效。生成的结果与使用–no-half参数相近,效率更高,使用更少内存。
–medvram
None
False
激活Stable Diffusion模型优化,牺牲速度,换取较小的VRAM占用。
–lowvram
None
False
激活Stable Diffusion模型优化,大幅牺牲速度,换取更小的VRAM占用。
–lowram
None
False
将Stable Diffusion存盘点模型的权重加载至VRAM,而非RAM
–always-batch-cond-uncond
None
False
将–medvram或–lowvram使用的无限制批量停用
功能
–autolaunch
None
False
启动WebUI后自动打开系统缺省的浏览器
–theme
None
Unset
使用指定主题启动WebUI (light或dark),无指定则使用浏览器缺省主题。
–use-textbox-seed
None
False
在WebUI的种子字段使用textbox (没有上下,但可以输入长的种子码)
–disable-safe-unpickle
None
False
不检查PyTorch模型是否有恶意代码
–ngrok
NGROK
None
Ngrok授权权杖, –share参数的替代品。
–ngrok-region
NGROK_REGION
us
选择启动Ngrok的区域
无效选项
–show-negative-prompt
None
False
无作用
–deepdanbooru
None
False
无作用
–unload-gfpgan
None
False
无作用
–gradio-img2img-tool
GRADIO_IMG2IMG_TOOL
None
无作用
–gradio-inpaint-tool
GRADIO_INPAINT_TOOL
None
无作用

回复

我来回复
  • 暂无回复内容