该优化仅适用于 DLSS 的图像超分模块,不包括帧生成(Frame Generation)部分。
新模型显存更节省,接近旧 CNN 架构据 VideoCardz 首先发现的数据,在 1080p 分辨率下,旧版 Transformer 模型需占用约 106.9MB 显存;而最新版本仅需 85.77MB。相比之下,旧 CNN 模型约为 60.83MB。这意味着新版 Transformer 模型的显存开销仅高出 CNN 约 40%,而此前几乎是翻倍。
DLSS 显存开销会随着分辨率线性增长。例如在 4K 分辨率下,Transformer 模型将占用 307MB 左右 显存,而 8K 分辨率下甚至可超过 1GB。
实战影响有限,但技术进步明显尽管节省了 20% 显存,但对于现代显卡动辄 12GB 或 16GB 的显存容量而言,节省的几十 MB 显然难以感知。即便在 4K 下,也仅减少了约 80MB。除非在极限分辨率(如 8K)或显存紧张的特定场景中,才可能体现其实际优势。
不过从技术演进的角度看,这次优化仍具有重要意义。毕竟 DLSS 的 Transformer 模型参数量是 CNN 的两倍,能够提供更接近原生画质的超分效果。在此基础上还能降低资源占用,体现了 Nvidia 在 AI 图像处理领域的持续优化能力。
需要注意的是,此次优化不涉及帧生成模块。不过 DLSS 4 在此前发布时也已对帧生成做出显存优化,最高节省幅度达到 30%。以游戏《战锤 40K:暗潮》为例,使用 DLSS 4 帧生成相比 DLSS 3 可减少约 400MB 显存使用。
微软资讯推荐
win10系统推荐
系统教程推荐