Skip to content
GitLab
菜单
为什么选择 GitLab
定价
联系销售
探索
为什么选择 GitLab
定价
联系销售
探索
登录
获取免费试用
主导航
搜索或转到…
项目
S
Stable Diffusion Webui
管理
动态
成员
代码
仓库
分支
提交
标签
仓库图
比较修订版本
部署
模型注册表
分析
模型实验
帮助
帮助
支持
GitLab 文档
比较 GitLab 各版本
社区论坛
为极狐GitLab 提交贡献
提交反馈
隐私声明
快捷键
?
新增功能
4
代码片段
群组
项目
显示更多面包屑
Hunter0726
Stable Diffusion Webui
提交
b5d1af11
提交
b5d1af11
编辑于
2 years ago
作者:
Abdullah Barhoum
提交者:
AUTOMATIC1111
2 years ago
浏览文件
操作
下载
补丁
差异文件
Modular device management
上级
065e310a
No related branches found
No related tags found
无相关合并请求
变更
4
隐藏空白变更内容
行内
左右并排
显示
4 个更改的文件
modules/devices.py
+12
-0
12 个添加, 0 个删除
modules/devices.py
modules/esrgan_model.py
+2
-1
2 个添加, 1 个删除
modules/esrgan_model.py
modules/lowvram.py
+2
-6
2 个添加, 6 个删除
modules/lowvram.py
modules/shared.py
+3
-6
3 个添加, 6 个删除
modules/shared.py
有
19 个添加
和
13 个删除
modules/devices.py
0 → 100644
+
12
−
0
浏览文件 @
b5d1af11
import
torch
# has_mps is only available in nightly pytorch (for now), `getattr` for compatibility
has_mps
=
getattr
(
torch
,
'
has_mps
'
,
False
)
def
get_optimal_device
():
if
torch
.
cuda
.
is_available
():
return
torch
.
device
(
"
cuda
"
)
if
has_mps
:
return
torch
.
device
(
"
mps
"
)
return
torch
.
device
(
"
cpu
"
)
此差异已折叠。
点击以展开。
modules/esrgan_model.py
+
2
−
1
浏览文件 @
b5d1af11
...
...
@@ -9,12 +9,13 @@ from PIL import Image
import
modules.esrgam_model_arch
as
arch
from
modules
import
shared
from
modules.shared
import
opts
from
modules.devices
import
has_mps
import
modules.images
def
load_model
(
filename
):
# this code is adapted from https://github.com/xinntao/ESRGAN
pretrained_net
=
torch
.
load
(
filename
,
map_location
=
'
cpu
'
if
torch
.
has_mps
else
None
)
pretrained_net
=
torch
.
load
(
filename
,
map_location
=
'
cpu
'
if
has_mps
else
None
)
crt_model
=
arch
.
RRDBNet
(
3
,
3
,
64
,
23
,
gc
=
32
)
if
'
conv_first.weight
'
in
pretrained_net
:
...
...
此差异已折叠。
点击以展开。
modules/lowvram.py
+
2
−
6
浏览文件 @
b5d1af11
import
torch
from
modules.devices
import
get_optimal_device
module_in_gpu
=
None
cpu
=
torch
.
device
(
"
cpu
"
)
if
torch
.
has_cuda
:
device
=
gpu
=
torch
.
device
(
"
cuda
"
)
elif
torch
.
has_mps
:
device
=
gpu
=
torch
.
device
(
"
mps
"
)
else
:
device
=
gpu
=
torch
.
device
(
"
cpu
"
)
device
=
gpu
=
get_optimal_device
()
def
setup_for_low_vram
(
sd_model
,
use_medvram
):
parents
=
{}
...
...
此差异已折叠。
点击以展开。
modules/shared.py
+
3
−
6
浏览文件 @
b5d1af11
...
...
@@ -9,6 +9,7 @@ import tqdm
import
modules.artists
from
modules.paths
import
script_path
,
sd_path
from
modules.devices
import
get_optimal_device
import
modules.styles
config_filename
=
"
config.json
"
...
...
@@ -43,12 +44,8 @@ parser.add_argument("--ui-config-file", type=str, help="filename to use for ui c
cmd_opts
=
parser
.
parse_args
()
if
torch
.
has_cuda
:
device
=
torch
.
device
(
"
cuda
"
)
elif
torch
.
has_mps
:
device
=
torch
.
device
(
"
mps
"
)
else
:
device
=
torch
.
device
(
"
cpu
"
)
device
=
get_optimal_device
()
batch_cond_uncond
=
cmd_opts
.
always_batch_cond_uncond
or
not
(
cmd_opts
.
lowvram
or
cmd_opts
.
medvram
)
parallel_processing_allowed
=
not
cmd_opts
.
lowvram
and
not
cmd_opts
.
medvram
...
...
此差异已折叠。
点击以展开。
预览
0%
加载中
请重试
或
添加新附件
.
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
保存评论
取消
想要评论请
注册
或
登录