admin管理员组

文章数量:1531939

2024年5月10日发(作者:)

NVIDIA GeForce RTX 3080全球首发评测

作者:《微型计算机》评测室

来源:《微型计算机》2020年第19期

RTX 30系列產品综合概述

RTX30系列首发产品有三款,也就是前文介绍的GeForceRTX3090、GeForceRTX3080和

GeForceRTX3070。其中最先上市的是RTX3080,国内上市时间为9月17日,价格为5499元

起。随后是RTX3090,上市时间为9月24日,国内定价11999元起。最晚上市的是

RTX3070,上市时间是10月15日,国内定价仅为3899元起。从参数对比来看,RTX30系列

最显著的变化便是换用了三星的8nm工艺,同时CUDA核心的数量大幅度增长,单精度计算

性能、张量核心性能暴增。另外,RTX30系列的功耗也显著增加,顶级的RTX3090和高端的

RTX3080在TDP功耗上均突破了300W,难怪NVIDIA建议玩家为RTX3090、RTX3080配备

750W以上的电源。

RTX30系列在工艺上采用的是三星的8nm工艺。和之前NVIDIA在顶级产品上偏爱台积

电的工艺不同的是,Ampere显卡所使用的制程工艺的确有点出乎大众预料。三星8nm工艺在

实际的工艺代次上是属于10nm工艺的改进版本,属于典型的半代工艺。其存在两个版本,分

别是8nmLPP和8nmLPU。但是三星没有给出更多有关8nmLPU的数据,可能和三星之前宣布

的高密度库有关。NVIDIA本次RTX30系列显卡,有可能选择的是三星8nm工艺的LPU版

本,但是目前没有更多消息可供证明。

在采用了三星8nm工艺后,相比上代同为面向图形的TU102核心,GA102核心的晶体管

数量增加了大约50%,但是整体芯片面积却降低了17%。RTX30系列GPU所使用的8nm工艺

的晶体管密度为4458万/mm2,之前RTX20系列使用12nmFFN工艺的晶体管密度为2467万

/mm2,新工艺的晶体管密度是之前工艺的1.8倍。

性能飞跃式增长,RTX30系列GPU架构解读

RTX30系列GPU在架构上最大的变化是改用了全新的安培(Ampere)架构。有关安培架

构的内容,本刊在之前的《来自540亿晶体管的力量—全新NVIDIA安培架构和A100GPU深

入解读》一文中已经做出了比较详细的解读。不过,之前NVIDIA在发布A100GPU的时候,

无论是GPU本身还是架构设计都更偏向于计算,在面向图形应用时,偏向计算的架构显然是

无法适应图形计算的需求的,因此NVIDIA在同为安培架构、面向不同计算场合的芯片设计

上,采用了针对性的改进。可以这样理解,目前我们看到的RTX30系列显卡,采用的是面向

图形的安培架构,它和面向计算的安培架构有一定的相似之处,但是侧重点完全不同。

GA102和GA104的宏观架构

NVIDIA给出了完整版本GA102芯片的信息。根据这些内容显示,GA102芯片前端设计

PCIe4.0总线控制器和常见的极线程分发器(GigaThreadEngine),数据通过这两个端口进入

GPC中。GA102内部一共包含了7个GPC,每个GPC内部包含6个TPC,一共拥有42个

TPC。每个TPC包含2个SM模块和一个PolyMorphEngine(几何处理引擎,用于曲面细分计

算),也就是84个SM模块和42个PolyMorphEngine。在安培架构上,NVIDIA定义一个SM

模块内拥有等效128个CUDA核心或者流处理器,那么完整版本的GA102就包含了等效

10752个CUDA核心。显存控制器方面,GA102拥有12组显存控制器,每组32bit,组成了

384bit的规格,后端还包括用于全局连接的高速Hub和4通道NVLink总线。

值得注意的是,GA102内部还有168个FP64单元(每个SM内有2个),但是在宏观架

构图中并未显示。FP64的计算性能是FP32单元的1/64。在这里加入少量FP64单元的目的主

要是考虑到部分程序中有少量FP64计算任务,以及张量核心也有部分FP64数据需要计算。当

然,相比A100GPU中庞大的FP64规模,这里的FP64单元仅仅是为满足基本计算需求而设

定。

继续向下深入探讨的话,安培核心的SM,除了包含等效128个CUDA核心外,还包含4

个第三代Tensor Core张量核心、256KB的寄存器、4个纹理单元、1个第二代光线追踪核心以

及128KB的L1/共享缓存。另外核心内部还为每个显存控制器配备了512KB的L2缓存,总计

6144KB。

再来看GA10 4。RT X 3070使用的芯片代号是GA10 4-300- A1,按照惯例,NVIDIA会使

用GXXX- 400作为比较接近完整版芯片的产品代号。根据NVIDIA数据,GA104的完整版本

有6个GPC、24个TCP和48个SM,等效6144个CUDA核心。GA104-300-A1则屏蔽了1个

TPC,最终只包含了6个GPC、23个TCP和46个SM,以及等效5888个CUDA核心,所以

RTX 3070SUPER或RTX 3070 Ti理论上应该是有空间的。

总的来说,从宏观架构来看,安培架构和之前的图灵架构存在非常相似的地方,这也是

NVIDIA使用多年的、GPC-TPC- SMCUDA核心四级层级的继承和发展。今天我们看到的面向

图形的安培架构和面向计算的安培架构其差别之大甚至接近两代GPU的架构差异,虽然部分

技术可能来源相同,但由于最终目标不同,因此两者的差异鲜明。

SM模块解析

SM(Streaming Multi- processer,流式多处理器模块)模块一直是NVIDIA GPU的计算核

心。在之前面向计算的A100上,SM模块的基本配置情况是1个完整的SM模块包含了64个

INT 32单元、64个FP32单元(也就是CUDA核心)以及32个FP64单元、4个第三代张量核

心,分别针对传统的数据处理、双精度计算和AI计算三种任务。不过,在新的GA10X核心的

安培架构上,由于计算任务的变化,和A100的SM模块相比,GA10X的SM模块也有了巨大

的变化。

NVIDIA从RTX 20系列开始,就将图形计算部分划分为三个类型,那就是传统图形数据

计算、光线追踪计算和AI计算。在图灵架构上,这三个部分使用的分别是图灵架构SM、第

一代RTCore以及第二代Tensor Core,后两者都是NVIDIA的独家方案。在新的面向图形计算

的安培架构中,这三个计算任务依旧被完整地保留了下来,并共同组成了全新的安培SM模

块。

面向图形的安培SM模块的基本配置和之前的图灵架构在宏观结构上是基本相同的。整个

SM中都包含了4个计算单元,128KB的L1缓存和共享内存以及4个纹理单元、RT核心等。

其主要变化发生在计算单元内部。

在之前的图灵SM模块的单个计算单元配置上(4个SM计算单元组成一个SM模块),

每个SM模块中的计算单元拥有1个warp调度单元和1个派遣单元,16384×32bit寄存器、16

个FP32内核和16个INT32内核,2个张量核心以及后端的LD/ST单元、特殊功能单元

(Special Function Unit,简称SFU)等。

在新的GA10X安培SM的计算单元内部,依旧配置了1个warp调度单元和1个派遣单

元、16384×32bit寄存器和后端LD/ST、SFU单元,但是在计算的部分却包含了1组16个可自

由执行FP32和INT32计算的双功能计算单元(ALU)—它们既可以完成FP32计算,又可以

完成INT32计算,另外还包含了1组16个FP32计算单元和1个新的第三代张量核心。

由于SM设计的变化,因此安培架构相比图灵架构显示出巨大的功能性和性能导向差异。

最典型的就是CUDA核心的数量方面,NVIDIA一直以来都将1个FP32单元作为1个CUDA

核心来计数和宣传,但是在本次使用了INT32和FP32双功能设计、并额外增加了FP32单元

后,可宣传的CUDA核心数量就大大增加了。比如同为4个SM计算单元组成的SM模块,

GA10X安培架构拥有等效128个CUDA核心、面向计算的A1xx安培架构拥有64个CUDA核

心,图灵架构也拥有64个CUDA核心,这也是NVIDIA宣传GA10X安培架构SM模块2倍

于图灵架构的数字计量来源。

但是,这并不意味着安培架构在FP32计算性能上随时都能保证达到图灵架构的2倍,毕

竟安培架构的每个SM模块中只有64个“纯粹”的FP32单元,其余64个是双功能单元。这意

味着当计算任务的数据格式以混合INT和FP格式占据这些单元时,安培架构的SM模块每周

期所呈现的FP计算能力就会根据计算任务而变化,最极端情况下会降低至和图灵架构相同

(假设INT32占据了所有64个双功能单元),或者呈现图灵架构的2倍(全部都是FP32计

算)。

考虑到目前复杂的图形计算任务,采用FP32+INT32混组核心的设计的优势是能够带来每

晶体管性能的显著提升。毕竟计算任务并不会老老实实地按照设计规范出现。举例来说,一个

计算任务中包含了20个INT计算和80个FP计算时,在图灵架构下,20个INT计算任务在1

个时钟周期内就可以完成,但是80个FP计算就需要2个时钟周期才能完成。其中部分INT32

核心在此时就会被闲置,每晶体管性能就会降低。换到安培架构,20个INT计算任务会分配

20个双功能核心的INT32功能完成(剩余48个双功能核心),其余80个计算任务中的64个

可以交给固定FP32核心,另外16个可以交给双功能核心的FP32功能完成。那么,1个时钟

周期就可以完成所有的计算任务,效率自然能得到大幅度提升。

总的来看,在计算任务全部都是FP32的情况下,新的安培架构的1个SM可以视同拥有

128个FP32计算单元、4个第三代张量核心和1个RT核心。因此,NVIDIA特别提到,现代

游戏工作负载具有广泛的处理需求,许多工作负载混合使用FP32算术指令(例如FFMA、浮

点加法FADD、浮点乘法FMUL等),以及许多更简单的整数指令,例如用于寻址和获取数

据算法,或者用于处理结果等。因此,在图灵架构上,NVIDIA增加了新的计算路径后,大幅

度提升了这类算法的自由度和工作效能,从而带来了不错的性能优势。在安培架构上,这样的

设计被强化了,浮点计算可以根据需求选择任何一组计算单元(计算路径),根据Shader指

令和应用程序设计的不同,性能将有所变化,具体取决于指令的应用方式。比如光线追踪降噪

计算全部都是FP指令,能够充分利用新的双功能计算单元和传统的FP32单元,显著提升性

能。

此外,在L1缓存部分,安培架构的SM L1共享缓存应用下的带宽相比图灵架构翻倍,安

培架构的SM共享缓存带宽为每时钟周期128bytes,而图灵架构为每时钟周期64bytes。这样一

来,RTX 3080的总L1带宽为219GB/s,RTX 2080 SUPER仅有116GB/s。

在缓存方面,安培架构的SM缓存容量从之前的96KB提升到了128KB,容量增大了

33%,这有助于存放更多的数据在L1缓存中,减少数据不断地从外部存储调用的频率,能提

高性能并降低功耗。完整的GA102包含10752KB的L1缓存,对比TU102为6912KB。此

外,NVIDIA还给出了L1和共享缓存的容量配置表,L1和共享缓存的可配置方案如下:

128KB L1 + 0 KB共享内存

120KB L1 + 8 KB共享内存

112KB L1 + 16 KB共享内存

96KB L1 + 32 KB共享内存

64KB L1 + 64 KB共享內存

28KB L1 + 100 KB共享内存

NVIDIA特别提到,对于图形工作负载和异步计算,GA102将分配6 4KB L1数据纹理缓

存(相比之下图灵架构仅能分配32KB)、48KB共享内存和16 KB保留用于各种图形管线操

作。

光线追踪模块

NVIDIA从RTX 20系列开始,就将图形计算部分划分为三个类型,那就是传统图形数据

计算、光线追踪計算和AI计算。在图灵架构上,这三个部分使用的分别是图灵架构SM、第

一代RTCore以及第二代Tensor Core,后两者都是NVIDIA的独家方案。在新的面向图形计算

的安培架构中,这三个计算任务依旧被完整地保留了下来,并共同组成了全新的安培SM模

块。

面向图形的安培SM模块的基本配置和之前的图灵架构在宏观结构上是基本相同的。整个

SM中都包含了4个计算单元,128KB的L1缓存和共享内存以及4个纹理单元、RT核心等。

其主要变化发生在计算单元内部。

在之前的图灵SM模块的单个计算单元配置上(4个SM计算单元组成一个SM模块),

每个SM模块中的计算单元拥有1个warp调度单元和1个派遣单元,16384×32bit寄存器、16

个FP32内核和16个INT32内核,2个张量核心以及后端的LD/ST单元、特殊功能单元

(Special Function Unit,简称SFU)等。

在新的GA10X安培SM的计算单元内部,依旧配置了1个warp调度单元和1个派遣单

元、16384×32bit寄存器和后端LD/ST、SFU单元,但是在计算的部分却包含了1组16个可自

由执行FP32和INT32计算的双功能计算单元(ALU)—它们既可以完成FP32计算,又可以

完成INT32计算,另外还包含了1组16个FP32计算单元和1个新的第三代张量核心。

由于SM设计的变化,因此安培架构相比图灵架构显示出巨大的功能性和性能导向差异。

最典型的就是CUDA核心的数量方面,NVIDIA一直以来都将1个FP32单元作为1个CUDA

核心来计数和宣传,但是在本次使用了INT32和FP32双功能设计、并额外增加了FP32单元

后,可宣传的CUDA核心数量就大大增加了。比如同为4个SM计算单元组成的SM模块,

GA10X安培架构拥有等效128个CUDA核心、面向计算的A1xx安培架构拥有64个CUDA核

心,图灵架构也拥有64个CUDA核心,这也是NVIDIA宣传GA10X安培架构SM模块2倍

于图灵架构的数字计量来源。

但是,这并不意味着安培架构在FP32计算性能上随时都能保证达到图灵架构的2倍,毕

竟安培架构的每个SM模块中只有64个“纯粹”的FP32单元,其余64个是双功能单元。这意

味着当计算任务的数据格式以混合INT和FP格式占据这些单元时,安培架构的SM模块每周

期所呈现的FP计算能力就会根据计算任务而变化,最极端情况下会降低至和图灵架构相同

(假设INT32占据了所有64个双功能单元),或者呈现图灵架构的2倍(全部都是FP32计

算)。

考虑到目前复杂的图形计算任务,采用FP32+INT32混组核心的设计的优势是能够带来每

晶体管性能的显著提升。毕竟计算任务并不会老老实实地按照设计规范出现。举例来说,一个

计算任务中包含了20个INT计算和80个FP计算时,在图灵架构下,20个INT计算任务在1

个时钟周期内就可以完成,但是80个FP计算就需要2个时钟周期才能完成。其中部分INT32

核心在此时就会被闲置,每晶体管性能就会降低。换到安培架构,20个INT计算任务会分配

20个双功能核心的INT32功能完成(剩余48个双功能核心),其余80个计算任务中的64个

可以交给固定FP32核心,另外16个可以交给双功能核心的FP32功能完成。那么,1个时钟

周期就可以完成所有的计算任务,效率自然能得到大幅度提升。

总的来看,在计算任务全部都是FP32的情况下,新的安培架构的1个SM可以视同拥有

128个FP32计算单元、4个第三代张量核心和1个RT核心。因此,NVIDIA特别提到,现代

游戏工作负载具有广泛的处理需求,许多工作负载混合使用FP32算术指令(例如FFMA、浮

点加法FADD、浮点乘法FMUL等),以及许多更简单的整数指令,例如用于寻址和获取数

据算法,或者用于处理结果等。因此,在图灵架构上,NVIDIA增加了新的计算路径后,大幅

度提升了这类算法的自由度和工作效能,从而带来了不错的性能优势。在安培架构上,这样的

设计被强化了,浮点计算可以根据需求选择任何一组计算单元(计算路径),根据Shader指

令和应用程序设计的不同,性能将有所变化,具体取决于指令的应用方式。比如光线追踪降噪

计算全部都是FP指令,能够充分利用新的双功能计算单元和传统的FP32单元,显著提升性

能。

此外,在L1缓存部分,安培架构的SM L1共享缓存应用下的带宽相比图灵架构翻倍,安

培架构的SM共享缓存带宽为每时钟周期128bytes,而图灵架构为每时钟周期64bytes。这样一

来,RTX 3080的总L1带宽为219GB/s,RTX 2080 SUPER仅有116GB/s。

在缓存方面,安培架构的SM缓存容量从之前的96KB提升到了128KB,容量增大了

33%,这有助于存放更多的数据在L1缓存中,减少数据不断地从外部存储调用的频率,能提

高性能并降低功耗。完整的GA102包含10752KB的L1缓存,对比TU102为6912KB。此

外,NVIDIA还给出了L1和共享缓存的容量配置表,L1和共享缓存的可配置方案如下:

128KB L1 + 0 KB共享内存

120KB L1 + 8 KB共享内存

112KB L1 + 16 KB共享内存

96KB L1 + 32 KB共享内存

64KB L1 + 64 KB共享内存

28KB L1 + 100 KB共享内存

NVIDIA特别提到,对于图形工作负载和异步计算,GA102将分配6 4KB L1数据纹理缓

存(相比之下图灵架构仅能分配32KB)、48KB共享内存和16 KB保留用于各种图形管线操

作。

光线追踪模块

NVIDIA从RTX 20系列开始,就将图形计算部分划分为三个类型,那就是传统图形数据

计算、光线追踪计算和AI计算。在图灵架构上,这三个部分使用的分别是图灵架构SM、第

一代RTCore以及第二代Tensor Core,后两者都是NVIDIA的独家方案。在新的面向图形计算

的安培架构中,这三个计算任务依旧被完整地保留了下来,并共同组成了全新的安培SM模

块。

面向图形的安培SM模块的基本配置和之前的图灵架构在宏观结构上是基本相同的。整个

SM中都包含了4个计算单元,128KB的L1缓存和共享内存以及4个纹理单元、RT核心等。

其主要变化发生在计算单元内部。

在之前的图灵SM模块的单个计算单元配置上(4个SM计算单元组成一个SM模块),

每个SM模块中的计算单元拥有1个warp调度单元和1个派遣单元,16384×32bit寄存器、16

个FP32内核和16个INT32内核,2个张量核心以及后端的LD/ST单元、特殊功能单元

(Special Function Unit,简称SFU)等。

在新的GA10X安培SM的计算单元内部,依旧配置了1个warp调度单元和1个派遣单

元、16384×32bit寄存器和后端LD/ST、SFU单元,但是在计算的部分却包含了1组16个可自

由执行FP32和INT32计算的双功能计算单元(ALU)—它们既可以完成FP32计算,又可以

完成INT32计算,另外还包含了1组16个FP32计算单元和1个新的第三代张量核心。

由于SM设计的变化,因此安培架构相比图灵架构显示出巨大的功能性和性能导向差异。

最典型的就是CUDA核心的数量方面,NVIDIA一直以来都将1个FP32单元作为1个CUDA

核心来计数和宣传,但是在本次使用了INT32和FP32双功能设计、并额外增加了FP32单元

后,可宣传的CUDA核心数量就大大增加了。比如同为4个SM计算单元组成的SM模块,

GA10X安培架构拥有等效128个CUDA核心、面向计算的A1xx安培架构拥有64个CUDA核

心,图灵架构也拥有64个CUDA核心,这也是NVIDIA宣传GA10X安培架构SM模块2倍

于图灵架构的数字计量来源。

但是,这并不意味着安培架构在FP32计算性能上随时都能保证达到图灵架构的2倍,毕

竟安培架构的每个SM模块中只有64个“纯粹”的FP32单元,其余64个是双功能单元。这意

味着当计算任务的数据格式以混合INT和FP格式占据这些单元时,安培架构的SM模块每周

期所呈现的FP计算能力就会根据计算任务而变化,最极端情况下会降低至和图灵架构相同

(假设INT32占据了所有64个双功能单元),或者呈现图灵架构的2倍(全部都是FP32计

算)。

考虑到目前复杂的图形计算任务,采用FP32+INT32混组核心的设计的优势是能够带来每

晶体管性能的显著提升。毕竟计算任务并不会老老实实地按照设计规范出现。举例来说,一个

计算任务中包含了20个INT计算和80个FP计算时,在图灵架构下,20个INT计算任务在1

个时钟周期内就可以完成,但是80个FP计算就需要2个时钟周期才能完成。其中部分INT32

核心在此时就会被闲置,每晶体管性能就会降低。换到安培架构,20个INT计算任务会分配

20个双功能核心的INT32功能完成(剩余48个双功能核心),其余80个计算任务中的64个

可以交给固定FP32核心,另外16个可以交给双功能核心的FP32功能完成。那么,1个时钟

周期就可以完成所有的计算任务,效率自然能得到大幅度提升。

总的来看,在计算任务全部都是FP32的情况下,新的安培架构的1个SM可以视同拥有

128个FP32计算单元、4个第三代张量核心和1个RT核心。因此,NVIDIA特別提到,现代

游戏工作负载具有广泛的处理需求,许多工作负载混合使用FP32算术指令(例如FFMA、浮

点加法FADD、浮点乘法FMUL等),以及许多更简单的整数指令,例如用于寻址和获取数

据算法,或者用于处理结果等。因此,在图灵架构上,NVIDIA增加了新的计算路径后,大幅

度提升了这类算法的自由度和工作效能,从而带来了不错的性能优势。在安培架构上,这样的

设计被强化了,浮点计算可以根据需求选择任何一组计算单元(计算路径),根据Shader指

令和应用程序设计的不同,性能将有所变化,具体取决于指令的应用方式。比如光线追踪降噪

计算全部都是FP指令,能够充分利用新的双功能计算单元和传统的FP32单元,显著提升性

能。

此外,在L1缓存部分,安培架构的SM L1共享缓存应用下的带宽相比图灵架构翻倍,安

培架构的SM共享缓存带宽为每时钟周期128bytes,而图灵架构为每时钟周期64bytes。这样一

来,RTX 3080的总L1带宽为219GB/s,RTX 2080 SUPER仅有116GB/s。

在缓存方面,安培架构的SM缓存容量从之前的96KB提升到了128KB,容量增大了

33%,这有助于存放更多的数据在L1缓存中,减少数据不断地从外部存储调用的频率,能提

高性能并降低功耗。完整的GA102包含10752KB的L1缓存,对比TU102为6912KB。此

外,NVIDIA还给出了L1和共享缓存的容量配置表,L1和共享缓存的可配置方案如下:

128KB L1 + 0 KB共享内存

120KB L1 + 8 KB共享内存

112KB L1 + 16 KB共享内存

96KB L1 + 32 KB共享内存

64KB L1 + 64 KB共享内存

28KB L1 + 100 KB共享内存

NVIDIA特别提到,对于图形工作负载和异步计算,GA102将分配6 4KB L1数据纹理缓

存(相比之下图灵架构仅能分配32KB)、48KB共享内存和16 KB保留用于各种图形管线操

作。

光线追踪模块

NVIDIA从RTX 20系列开始,就将图形计算部分划分为三个类型,那就是传统图形数据

计算、光线追踪计算和AI计算。在图灵架构上,这三个部分使用的分别是图灵架构SM、第

一代RTCore以及第二代Tensor Core,后两者都是NVIDIA的独家方案。在新的面向图形计算

的安培架构中,这三个计算任务依旧被完整地保留了下来,并共同组成了全新的安培SM模

块。

面向图形的安培SM模块的基本配置和之前的图灵架构在宏观结构上是基本相同的。整个

SM中都包含了4个计算单元,128KB的L1缓存和共享内存以及4个纹理单元、RT核心等。

其主要变化发生在计算单元内部。

在之前的图灵SM模块的单个计算单元配置上(4个SM计算单元组成一个SM模块),

每个SM模块中的计算单元拥有1个warp调度单元和1个派遣单元,16384×32bit寄存器、16

个FP32内核和16个INT32内核,2个张量核心以及后端的LD/ST单元、特殊功能单元

(Special Function Unit,简称SFU)等。

在新的GA10X安培SM的计算单元内部,依旧配置了1个warp调度单元和1个派遣单

元、16384×32bit寄存器和后端LD/ST、SFU单元,但是在计算的部分却包含了1组16个可自

由执行FP32和INT32计算的双功能计算单元(ALU)—它们既可以完成FP32计算,又可以

完成INT32计算,另外还包含了1组16个FP32计算单元和1个新的第三代张量核心。

由于SM设计的变化,因此安培架构相比图灵架构显示出巨大的功能性和性能导向差异。

最典型的就是CUDA核心的数量方面,NVIDIA一直以来都将1个FP32单元作为1个CUDA

核心来计数和宣传,但是在本次使用了INT32和FP32双功能设计、并额外增加了FP32单元

后,可宣传的CUDA核心数量就大大增加了。比如同为4个SM计算单元组成的SM模块,

GA10X安培架构拥有等效128个CUDA核心、面向计算的A1xx安培架构拥有64个CUDA核

心,图灵架构也拥有64个CUDA核心,这也是NVIDIA宣传GA10X安培架构SM模块2倍

于图灵架构的数字计量来源。

但是,这并不意味着安培架构在FP32计算性能上随时都能保证达到图灵架构的2倍,毕

竟安培架构的每个SM模块中只有64个“纯粹”的FP32单元,其余64个是双功能单元。这意

味着当计算任务的数据格式以混合INT和FP格式占据这些单元时,安培架构的SM模块每周

期所呈现的FP计算能力就会根据计算任务而变化,最极端情况下会降低至和图灵架构相同

(假设INT32占据了所有64个双功能单元),或者呈现图灵架构的2倍(全部都是FP32计

算)。

考虑到目前复杂的图形计算任务,采用FP32+INT32混组核心的设计的优势是能够带来每

晶体管性能的显著提升。毕竟计算任务并不会老老实实地按照设计规范出现。举例来说,一个

计算任务中包含了20个INT计算和80个FP计算时,在图灵架构下,20个INT计算任务在1

个时钟周期内就可以完成,但是80个FP计算就需要2个时钟周期才能完成。其中部分INT32

核心在此时就会被闲置,每晶体管性能就会降低。换到安培架构,20个INT计算任务会分配

20个双功能核心的INT32功能完成(剩余48个双功能核心),其余80个计算任务中的64个

可以交给固定FP32核心,另外16个可以交给双功能核心的FP32功能完成。那么,1个时钟

周期就可以完成所有的计算任务,效率自然能得到大幅度提升。

总的来看,在计算任务全部都是FP32的情况下,新的安培架构的1个SM可以视同拥有

128个FP32计算单元、4个第三代张量核心和1个RT核心。因此,NVIDIA特别提到,现代

游戏工作负载具有广泛的处理需求,许多工作负载混合使用FP32算术指令(例如FFMA、浮

点加法FADD、浮点乘法FMUL等),以及许多更简单的整数指令,例如用于寻址和获取数

据算法,或者用于处理结果等。因此,在图灵架构上,NVIDIA增加了新的计算路径后,大幅

度提升了这类算法的自由度和工作效能,从而带来了不错的性能优势。在安培架构上,这样的

设计被强化了,浮点计算可以根据需求选择任何一组计算单元(计算路径),根据Shader指

令和應用程序设计的不同,性能将有所变化,具体取决于指令的应用方式。比如光线追踪降噪

计算全部都是FP指令,能够充分利用新的双功能计算单元和传统的FP32单元,显著提升性

能。

此外,在L1缓存部分,安培架构的SM L1共享缓存应用下的带宽相比图灵架构翻倍,安

培架构的SM共享缓存带宽为每时钟周期128bytes,而图灵架构为每时钟周期64bytes。这样一

来,RTX 3080的总L1带宽为219GB/s,RTX 2080 SUPER仅有116GB/s。

在缓存方面,安培架构的SM缓存容量从之前的96KB提升到了128KB,容量增大了

33%,这有助于存放更多的数据在L1缓存中,减少数据不断地从外部存储调用的频率,能提

高性能并降低功耗。完整的GA102包含10752KB的L1缓存,对比TU102为6912KB。此

外,NVIDIA还给出了L1和共享缓存的容量配置表,L1和共享缓存的可配置方案如下:

128KB L1 + 0 KB共享内存

120KB L1 + 8 KB共享内存

112KB L1 + 16 KB共享内存

96KB L1 + 32 KB共享内存

64KB L1 + 64 KB共享内存

28KB L1 + 100 KB共享内存

NVIDIA特别提到,对于图形工作负载和异步计算,GA102将分配6 4KB L1数据纹理缓

存(相比之下图灵架构仅能分配32KB)、48KB共享内存和16 KB保留用于各种图形管线操

作。

光线追踪模块

本文标签: 计算架构单元核心图灵