Skip to content
GitLab
菜单
为什么选择 GitLab
定价
联系销售
探索
为什么选择 GitLab
定价
联系销售
探索
登录
获取免费试用
主导航
搜索或转到…
项目
C
ComfyUI
管理
动态
成员
代码
仓库
分支
提交
标签
仓库图
比较修订版本
锁定的文件
部署
模型注册表
分析
模型实验
帮助
帮助
支持
GitLab 文档
比较 GitLab 各版本
社区论坛
为极狐GitLab 提交贡献
提交反馈
隐私声明
快捷键
?
新增功能
4
代码片段
群组
项目
Show more breadcrumbs
hanamizuki
ComfyUI
提交
b07258ce
提交
b07258ce
编辑于
3星期前
作者:
comfyanonymous
浏览文件
操作
下载
补丁
差异文件
Fix typo.
Let me know if this slows things down on 2000 series and below.
上级
31e54b70
No related branches found
No related tags found
无相关合并请求
变更
1
隐藏空白变更内容
行内
左右并排
显示
1 个更改的文件
comfy/model_management.py
+1
-1
1 个添加, 1 个删除
comfy/model_management.py
有
1 个添加
和
1 个删除
comfy/model_management.py
+
1
−
1
浏览文件 @
b07258ce
...
...
@@ -1121,7 +1121,7 @@ def should_use_bf16(device=None, model_params=0, prioritize_performance=True, ma
bf16_works
=
torch
.
cuda
.
is_bf16_supported
()
if
bf16_works
or
manual_cast
:
if
bf16_works
and
manual_cast
:
free_model_memory
=
maximum_vram_for_weights
(
device
)
if
(
not
prioritize_performance
)
or
model_params
*
4
>
free_model_memory
:
return
True
...
...
This diff is collapsed.
点击以展开。
预览
0%
加载中
请重试
或
添加新附件
.
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
保存评论
取消
想要评论请
注册
或
登录