近年来,英伟达始终在技术领域占据领先地位,推出了众多具有革命性的技术功能,其中尤为引人注目的便是其人工智能图像增强技术DLSS;而在近期举办的GTC 2026大会上,该公司再度发布了一项名为神经纹理压缩的创新技术。
该人工智能技术据称可将玩游戏时显存的占用降低85%,且画质零损失。其神经纹理压缩Demo显示,在显存占用6.5GB和970MB之间实现了“惊人的视觉效果一致性”。
随着游戏的复杂度与逼真度持续提升,游戏行业对图像放大技术的依赖日益加深,以此来应对不断增长的硬件需求。优化不足所引发的一个核心问题便是显存占用率,该指标在近年呈现出急剧攀升的态势。为解决这一难题,英伟达研发出了名为“神经纹理压缩”(NTC)的技术,并且在今日的GTC大会上再次对其进行了提及。性能最为强劲的显卡将能够充分发挥英伟达NTC技术的作用。
NTC技术支持开发者运用小型神经网络对各类场景的纹理进行解包处理。这一技术优势明显:一方面能大幅压缩纹理体积,让游戏安装过程更轻松;另一方面也有效减少了运行时的显存消耗。值得一提的是,经其处理生成的纹理质量更为出色,据英伟达介绍,最终渲染的分辨率最高可实现4倍提升。
在下面的示例中,英伟达运行了一个托斯卡纳别墅场景,使用标准块(BCN)压缩时占用6.5 GB显存,但切换到NTC后,显存占用降至仅970MB,而图像效果却完全相同。
此前,该公司的另一个演示展示了一个飞行头盔,其未压缩纹理占用272 MB——块压缩将其减少到98MB,而NTC则将其减少到仅11.37MB,约为原始纹理占用的1/24。
目前还不确定这项技术能否适配老款显卡,但像RTX 5060或5060Ti这类配备8GB显存的显卡用户大概率能从中获得好处。DLSS 5虽一直存在争议,不过这项技术应该会受到不少用户的青睐。
英伟达还展示了神经材质(Neural Materials),其理念与此相同:利用神经网络评估和解压缩材质纹理数据,而不是依赖计算量巨大的双向反射分布函数(BRDF)数学运算。
一般来说,一种材质往往会叠加多个纹理贴图,GPU在渲染流程里得同时计算光线和每一层的相互作用方式。而神经材质技术只需要向神经网络查询光线在特定场景中的反应,再根据这个来调整像素的着色效果。由于神经网络是基于所有纹理数据训练的,所以它已经清楚给定光线和角度下的结果。也正因为这样,在演示场景中,英伟达在1080p分辨率下把渲染速度提升了高达7.7倍,而且图像质量完全没有下降。
NTC的高效性源于其采用的矩阵加速引擎。在当代GPU里,矩阵加速引擎属于独立的硬件模块,所以不会对基础性能造成影响。英伟达将其命名为Tensor Core,英特尔称之为XMX引擎,AMD则叫它AI加速器。像DLSS、FSR和XeSS这类图像放大技术同样依赖该引擎,它们能把低分辨率帧重建为更高分辨率的输出,故而这也是英伟达神经渲染计划的构成部分。
神经渲染这一概念目前在业界尚未获得广泛认可,“神经网络”这个术语或许会让你认为这不过是人工智能领域又一次并不成功的尝试。然而实际情况却与此相反,它可以说是人工智能的出色应用案例之一,原因在于它完全不涉及生成环节。NTC仅会针对游戏开发过程中需要作为参考的特定纹理集展开训练,所以不会产生任何幻觉现象。
在所有游戏组件里,纹理对显存的占用量是最大的,所以任何能有效控制纹理显存占用的技术都备受期待。不过要说明的是,该技术并非英伟达一家独有,微软已将其在DirectX中标准化为“协作向量”(Cooperative Vectors)。英特尔之前也展示过相关的纹理演示,对比块压缩,其纹理呈现效果有显著优势。AMD上一次公开提及这项技术是在2024年,但它大概率也在积极推进相关研发。
目前,还没有游戏支持合作向量或英伟达的神经纹理压缩技术,但从行业发展趋势来看,这些技术的应用应该很快就能见到。人工智能仿佛成了所有老问题的万能钥匙,各大企业也在持续尝试把它运用到各种看似不搭边的领域。不过,神经纹理压缩这类创新显示,人工智能能够被巧妙地用于实际场景,进而产生真正有价值的影响。