1超越临界的震撼
Titan,伟大的巨人神祗,希腊神话中曾统治世界的古老的神族,这个家族是天穹之神乌拉诺斯和大地女神盖娅的子女,他们曾经主宰着这个世界,至今仍然象征着巨大、宏伟以及不朽的力量。现在,他们回来了,带着令人窒息的强大力量回来了。他们的目的只有一个,就是再次统治人类的桌面游戏显卡业界,而且很明显的,他们已经办到了。
北京时间2013年2月19日22时,NVIDIA全球发布了最新的桌面游戏显卡产品——GeForce GTX Titan。这款基于GK110架构的桌面显卡不仅拥有震撼人心的强大性能以及同样震撼人心的售价,同时还将Kepler架构的完整特性首次展现在了世人面前。
先期于去年发布的GeForce GTX 680是NVIDIA在Kepler架构上的第一次突击,它以比竞争对手更小更凉的核心提供了超越竞争对手Radeon HD7970的性能,这种震撼一直持续了近一年之久。现在,GeForce GTX Titan成功的延续了这样的震撼,它的性能功耗比继续被提升到了新的高度,它的游戏性能让任何单芯显卡都望尘莫及,它甚至没有一个数字的编号——常规的NVIDIA产品线数字编号已经找不到容纳它的合适位置了。
作为首批获得这款震撼级产品的幸运者,我们在过去的数日间都承受着Titan给我们心灵所带来的冲击。所以在今天的测试文章中,我们将会把这份冲击传递个屏幕前的诸位。接下来,就让我们一起抵近观察这位回归的“神祗”吧。
2Titan规格一览
● Titan规格一览
GeForce GTX Titan与我们之前所见的Kepler架构存在巨大的规模差异。它拥有71亿的晶体管规模,核心面积因此达到了573.4平方毫米(23.5X24.4毫米),这一数值十分接近但并未超越NVIDIA在DirectX 11时代所划D线(什么是D线? 它会导致怎样的问题?)的上限(529+52.9平方毫米)。与GeForce GTX 680相比,其运算资源总量从1536个ALU上升到了2688个,Texture Filter Unit由128个上升到了224个,构成后端的ROP则从32个提升到了48个。Titan拥有Kepler架构中最庞大的MC结构,6个64bit双通道显存控制器组合形成了384bit显存控制单元,Titan也因此采用了容量高达6144MB的尺寸空前的显存体系。
GeForce GTX Titan 显 卡 对 位 产 品 规 格 比 较 表 | |||||
显卡型号 | GeForce GTX Titan | GeForce GTX 680 | Radeon HD 7970 |
Radeon HD 6970 | GeForce GTX 580 |
市场定价 | 7999 元 | 3999 元 | 4299 元 | 2999 元 | 3999 元 |
GPU代号 | GK110 | GK104 | Tahiti | Cayman | GF110 |
GPU工艺 | 28nm | 28 nm | 28 nm | 40 nm | 40 nm |
GPU晶体管 | 71亿 | 35.5 亿 | 43 亿 | 26.7 亿 | 30 亿 |
着色器数量 | 2688 | 1536 | 2048 | 1536 | 512 |
着色器组织 | 1D*2688 | 1D*1536 | Vector*2048 | 4D*384 | 1D *512 |
ROPs数量 | 48 | 32 | 32 | 32 | 48 |
纹理单元数量 | 224 | 128 | 128 | 96 | 64 |
核心频率 | 837 MHz | 1006 MHz | 925 MHz | 880 MHz | 772 MHz |
着色器频率 | 837 MHz | 1006 MHz | 925 MHz | 880 MHz | 1544 MHz |
理论计算能力 | 4.5 TFLOPs | 3.09 TFLOPs | 3.79 TFLOPs |
2.7 TFLOPs |
2.37 TFLOPs |
等效内存频率 | 6008 MHz | 6008 MHz | 5500 MHz | 5500 MHz | 4008 MHz |
内存位宽 | 384 bit | 256 bit | 384 bit | 256 bit | 384 bit |
内存带宽 | 288.4 GB/S | 192.3 GB/S | 264 GB/s | 176 GB/s | 192.4 GB/s |
内存类型 | GDDR5 | GDDR5 | GDDR5 | GDDR5 | GDDR5 |
内存容量 | 6144MB | 2048 MB | 3072 MB | 2048 MB | 1536 MB |
DX版本支持 | 11.1 | 11.1 | 11.1 | 11 | 11 |
HD视频技术 | PureVideo HD+NVENC | PureVideo HD+NVENC | UVD3.0 VCE |
UVD3 | PureVideo HD |
通用计算接口 | CUDA | CUDA | Stream | Stream | CUDA |
注:市场定价均为官方首发限价
Titan的默认核心及显存运行频率为837/6008MHz,默认Pixel Fillrate能力为40.2G/S,默认Texture Fillrate能力为182.3G/S,显存带宽288.4GB/S。Titan拥有4.5T Flops的单精度浮点运算能力,同时并未对双精度浮点运算能力进行限制,因此也就保留了1/3速DP的运算特征,双精度浮点运算能力为1.3T Flops。
值得注意的是,Titan的双精度浮点运算能力是可以手动开启或者关闭的。当我们在驱动中关闭双精度浮点运算能力时,Titan仅提供1/24速的双精度浮点运算能力,而当我们开启双精度浮点运算能力时,Titan将会运行在Tesla K20X的默认频率上,因此其双精度浮点运算能力为1.3T Flops。
GeForce GTX Titan恐怖的规模
Titan采用的GK110与GK104同属Kepler架构,但只有GK110开放了Kepler架构全部功能性设计和特点,我们甚至可以这样说——只有GK110才是真正意义上的Kepler架构。由以下主要的部分组成:
1、更加成熟的基于HKMG的TSMC 28nm工艺。
2、与GK104不同的宏观并行结构,15组SMX单元(Titan开放14组)被分为5个GPC,每个GPC包含3组SMX。
3、14组包含了几何引擎、光栅化引擎以及线程仲裁管理机制的SMX单元。每个SMX单元的细节同GK104完全相同,均包含一组改进型的负责处理几何任务需求的PolyMorph Engine,192个负责处理运算任务及Pixel Shader的ALU,16个负责处理材质以及特种运算任务如卷积、快速傅里叶变换等的Texture Array,二级线程管理机制以及与它们对应的shared+unified cache等缓冲体系。
4、基于Dynamic Parallelism的全新本地任务管控机制,以及由此带来的更高的单元复用率。
5、调节粒度更细同时频率控制范围更大的新一代GPU Boost。
Kepler构架曾经是一个充满了神秘感的存在,伴随着GK104的发布,我们在过去的一年里曾经对它的各种细节,诸如ALU团簇单元、Cache、线程仲裁机制、动态频率调节体系等等进行过相关的分析,但这些分析都不足以完全为我们揭示Kepler架构的全部特色、目的以及意义。随着GK110的到来,Kepler架构终于完整的展现在了我们的面前,接下来就让我们一起正式深入Kepler架构,来一睹“黑科技”的真正内幕吧。
3宏观并行体系
● 宏观并行体系
NVIDIA于Fermi架构中首次引入了宏观并行结构设计,它将若干组ALU团簇绑定为一个GPC,并辅以完整的几何处理及光栅化流水线,这让每个GPC因此成了与传统GPU同等级的存在。在执行符合DirectX 11特征的程序时,一级任务管理机制只需将Kernel并行的发放给不同的GPC,即可达成整个架构的并行kernel处理过程。因此这种设计不仅可以比较直接的为架构带来更好的几何和光栅化处理能力,同时还可以提升任务的执行效率。
与去年发布的GK104不同,NVIDIA在GK110架构中使用了新的宏观并行结构。GK104的8组SMX单元被两两分组结合成一个GPC,整个架构的8组SMX单元被划分成了4 GPC并行的形式。而GK110则是将15组SMX单元以三组为单位结合成一个GPC,整个架构被划分成了5 GPC并行的形式。
完整规格GK110架构图
由于NVIDIA采用了Setup以及Rasterizer同GPC绑定的方案,因此GK110架构可以实现单周期输出5多边形,在同频下拥有了比GK104多20%的多边形泵出能力以及光栅化处理能力。
宏观并行度的进一步提升有助于体系在处理并行Kernel时的效率,但从外表上来看GK110对于宏观并行度的提升与其运算单元(SMX/ALU)规模的提升并不成比例,单个GPC的规模较之GK104提升了50%,这样的做法给人一种整个架构开始偏重于吞吐而非强调任务效率以及单元复用率的感觉。这是否意味着NVIDIA打算放弃坚持了多年的既有设计思路,开始放弃效率并转向提升架构的吞吐能力了呢?
事实并非如此,因为NVIDIA在GK110中为我们带来了另外两个重要的特性——Dynamic Parallelism和Hyper-Q,这两个特性不仅极大地提升了整个架构的任务效率/密集度,同时将单元复用率以及整个Kepler架构的意义提升到了一个全新的高度。
4最重要特性——Dynamic Parallelism
● 最重要特性——Dynamic Parallelism
在GK110架构中,NVIDIA在传统的二级仲裁机制CWD(CUDA Work Distributor,CUDA分配器)之外加入了全新的GMU(Grid Management Unit,Grid管理单元),GMU可以对CWD收到的Grid进行启停管理、回收、判断、挂起以及重排序等操作,令其以更加灵活的方式在必要时进入执行单元,这避免了Grid像过去那样以缺乏排序的顺序模式被送入SM,而且一旦进入SM之后就只能等到全部执行结束才能出来。
Dynamic Parallelism特性
GMU的引入为动态片上创建Kernel提供了条件,所以NVIDIA在GK110中引入了全新的Dynamic Parallelism(动态并行)特性,该特性允许GPU根据需要直接对Grid的结果进行判断并在本地创建新的Kernel,这与传统的Kernel执行完毕之后由CPU进行回收判断并创建新的Kernel再行发放有了很大的不同。
Dynamic Parallelism带来的变化(传统模式 VS Dynamic Parallelism)
Dynamic Parallelism减少了GPU同CPU之间的通讯需求,减轻了与CPU频繁通讯所带来的等待周期产生的延迟影响,提升了GPU内部的Kernel密度和执行连贯度,对于低负载高密集任务中单元复用率改善有不小的帮助。
5“送出去,请进来”
● “送出去,请进来”
从去年GK104架构发布之后起,我们在过去接近一年的时间里一直都在尝试着去解析Kepler架构的真实目的和意义。但遗憾的是由于NVIDIA的产品定位以及发布策略的困扰,Kepler架构的特性并没有在GK104中得到完整的阐释,我们的讨论也仅能止步于“黑科技”以及“将寄存器设计水平优势转化成性能功耗比”这样的程度。
伴随着GK110的发布,Kepler架构的完整特性终于全部来到了我们的面前,尤其是Dynamic Parallelism和Hyper-Q的出现,为我们进一步勾勒出了更加丰满的Kepler架构的轮廓。它们与已经先期在GK104及其后的所有Kepler架构中出现的新Scheduling过程一起为我们带来了Kepler区别于以往架构的最大特点,那就是“送出去,请进来”。
Kepler构架与Fermi构架执行Scheduling过程的差异
通常来讲,可重复性较低且需要运算过程的判断性工作并不适合固定单元来执行,更加灵活的具有可编程性的通用运算单元来完成这类工作会比较得心应手。而那些具有较高可重复性,过程相对固定且基本具备可预期性的控制类工作,则更加适合具有特定针对性功能的电路来完成。如果我们以可编程的通用处理单元来完成判断性工作,让控制工作更多地被特定功能电路所执行,就可以达到最高效率的利用不同单元,以最低的能耗来完成最多工作的目的。
但是很遗憾,Kepler之前的GPU并没有这样的获得最高性能功耗比的幸运。传统结构的GPU会在芯片本地以固定电路自行处理绝大部分具有判断性特征的Scheduling过程,而Kernel的启停和发放则完全依赖CPU,这实际上等于是通过通用处理单元来完成本该由更高效的特定功能电路或者说专用单元来完成的工作。这种让专用电路干通用电路的事,让通用处理器做专用单元的事的局面,与性能功耗比的诉求完全是相反的。
Pre-Scheduling过程变化(图片修改自后藤弘茂先生博客)
在Kepler中,NVIDIA实际上完成了一个“送出去,请进来”的过程——把一部分Scheduling过程从本地“送出去”,也就是转移到了CPU中以运算的形式来完成,同时通过引入GMU单元以及添加Dynamic Parallelism特性来降低CPU控制对任务的介入和影响,将控制工作更多地“请进来”,亦即移动到本地的GMU完成。这种执行位置和执行对象的互换扭转了过去“满拧”的局面,将适合通用处理单元的工作从GPU中拿出来交给了通用处理单元,也将不适合通用处理单元完成的工作交还给了GPU中的固定单元来完成,从而达到了各种单元均可以以更合适的功耗完成更多工作的目的。
Dynamic Parallelism的片上直接Kernel创建特性减小了CPU对控制的介入
关于将Scheduling移交给通用处理器完成的目的和意义,我们在过去的一年里已经进行了详尽的分析和解读,这是一个与NVIDIA未来架构发展息息相关的系列过程,在这里不再赘述,有兴趣的朋友可以点击这里阅读。而引入Dynamic Parallelism则带来了更多显而易见的好处,无论是计算任务还是图形处理任务,Kernel现在都无需亦步亦趋的频繁与CPU进行交换,GPU本地的任务密度将会得到进一步的提升,在此基础上,Hyper-Q的出现让更多的CPU线程可以向GPU发送Kernel,这进一步减少了GPU等待前端发放任务的周期并提高了任务密度。两者的共同作用导致了必然的结局——GK110架构的单元任务密度将进一步提升,单元复用率也将会因此而获益,这对于GPU的图形执行效率和运算执行效率是同样有益的。
6Kepler架构的目的和意义
● Kepler架构的目的和意义
通过GK110的“送出去,请进来”,我们已经可以明确的掌握Kepler架构的目的和意义了——Kepler架构的目的在于在NVIDIA从G80一直延伸到Maxwell及其后架构的路线图中扮演承前启后的角色,它尝试着将一部分逻辑判断性任务交给通用处理器执行,同时将一部分不适合通用处理器执行的控制性工作转移到对应的专用单元来处理,以厘清任务执行地点和执行特征、优化任务处理对象的选定、积累通用处理器使用经验以及收集执行过程中的能耗比特征等一系列手段,为未来Maxwell融合架构中最终接纳ARM架构通用处理器打下了必要的基础。
Maxwell的后续——Echelon架构细节
而Kepler架构的意义则更加单纯,那就是强调性能功耗比属性。让合适的单元以尽可能合适的功耗去完成尽可能合适它们完成的任务,进而让整个架构以更小的功耗达成更大的性能输出能力,这就是Kepler架构最突出的特征和意义。我们在过去一年间面对的以及等待的各色“黑科技”,包括高效的register体系、新Scheduling过程、GPU Boost以及Dynamic Parallelism等等,全部都是为这一意义而存在的。
通过调节SMX结构提升体系的吞吐能力,同时以优秀的缓冲体系、合理的仲裁和任务管理机制以及各种全新的技术来保证体系的单元复用率以及执行效率,这种平衡的理念赋予了Kepler架构强大的性能和成熟稳健的性能功耗表现。Kepler架构的注意力并没有片面的集中在某些特性或者单纯运算能力的提升上,它对任务分派管理机制的调整和改进属于最底层的架构效率优化,正是这种能够让所有架构中运行的任务,无论是运算任务还是图形任务均能受益的改动,为Kepler带来了令人难忘的表现。
G80~GF100架构发展示意,向你们致敬(图片引自后藤弘茂先生博客)
当然,我们同样不能忘记那些站在Kepler背后的英雄们,Kepler之前诸架构对于任务管理体系的不断完善,寄存器及寄存器溢出缓冲体系使用经验的积累,架构设计理念的逐步验证、检讨和补充修正同样是造就Kepler架构的成功的重要因素,而正确平衡成本关系并在DirectX 11时代的起点划下了空间充分的D线,又在可制造型层面为Kepler架构的最终实现奠定了最根本的基础。NVIDIA充分的计划性和推进这些计划的执行力,逐渐将这些积累转化成了实际的架构和产品,并最终带来了今天我们所见到的基于GK110架构的产品——GeForce GTX Titan。
除此Dynamic Parallelism之外,GK110架构还将更多更新的技术引入到了体系当中,其中最典型的就是全新的GPU Boost——GPU Boost 2.0。
7更开放+更细腻:GPU Boost 2.0
● 更开放+更细腻:GPU Boost 2.0
GPU Boost是NVIDIA在GK104中首先引入的动态功耗/性能平衡调节机制,它可以动态游戏及应用负载,并将负载同设计功耗上限进行比较,接着将实际负载同设计功耗上限之间的差值转化成实时频率的提升,同时还能根据用户自定义的游戏帧数上限来判断性能需求,进而将多余的性能以降频的形式予以消去,并最终让用户获得更低的使用能耗。
GPU Boost 2.0
伴随着Titan的发布,NVIDIA将GPU Boost从1.0升级到了全新的2.0版本,新版本GPU Boost支持以下新特性:
更细腻和敏感的频率调节段位。
温度监控出现在控制要素中。
更加集中于“常规使用温度区间”的性能调节区间。
拥有更大的电压调节上限。
支持全新的电压上限/温度联动调节功能,GPU温度越低,可用的电压上限就越高。
支持温度目标值设定及对应的自动调节频率功能。
更多可调节选项。
显示器刷新率调节功能。
GPU Boost 2.0比1.0版本更加敏感,可以更加积极的完成功耗和性能之间的互换,其调节模式也发生了变化,监控机制对GPU频率的调节判断机制将不仅限于功耗数值,温度因素现在也已经被纳入到了判断机制当中。在GPU Boost 2.0默认控制下,Titan将会在更多的时间里处于80度附近这样一个小范围的温度区间中。玩家现在除了可以通过限定自定义帧数上限来达到节能降耗的目的之外,还能通过设定任意的自定义温度上限来达到相同的目的。
除了加入温度要素之外,GPU Boost 2.0还开放了电压控制的上限,玩家在进行超频时可以拥有更大的电压可调空间。另外,电压上限还可以与温度因素进行联动,如果玩家有能力改造散热并达到更低的使用温度,那么在GPU Boost 2.0中将可以获得比常规散热更多地电压上限空间。
GPU Boost 2.0引入的最后一个值得注意的变化来自全新的显示器刷新率超频能力,它允许Titan将显示器的刷新率从60Hz提升至80Hz,进而通过自适应垂直同步将垂直同步的帧速上限设定为80Hz而非过去的60Hz,更高的帧数设定可以让玩家在不产生画面撕裂的前提下获得更高的帧数,这一特性对于需要快节奏激烈对抗的FPS玩家而言应该会非常有趣。NVIDIA并未公开该技术的具体实现细节,仅声称“绝大部分国际一线品牌的产品均支持该项特性”,我们猜测该特性应该是透过更改显示器驱动电路单片机中的时钟信息来完成的,因此原则上并不支持使用固定晶振来完成刷新率控制的显示器。我们会在未来展开针对该项特性的专门测试,敬请期待。
8更多丰富的特性
● 更多丰富的特性
除了本身的强大,GeForce GTX Titan还支持许多新奇的应用性特性,NVIDIA GeForce Experience以及与Project Shield之间的配合就是其中典型的代表。
好吧,即便是我们自己,在遇到诸如SMAA或者SBDOF之类新出现的特效之后往往也懒得去深究它们究竟是些啥……玩游戏图的是开心,要是玩个游戏还要先跑去学一大堆的图形术语,接着搞清楚面前这些花里胡哨的特效都代表了些什么效果,然后再去思考这些特效到底怎么取舍才能让自己的显卡流畅的运行起来……这么折腾一番再去玩游戏,那人生岂不是太苦短了?
GeForce GTX Titan特性
为了让玩家能够更加方便的设置游戏中的特效选项,让显卡可以快速在性能和特效之前达成最佳的平衡,NVIDIA推出了GeForce Experience技术,它基于NVIDIA设置在云端的庞大数据库,可以在连线后分析用户的硬件及游戏需求,然后自动完成以最佳图形表现为基础的最适合当前硬件性能的图形设置工作。只需点击一下,游戏即可以理想的流畅视觉表现呈现在你的面前。GeForce GTX Titan支持GeForce Experience,它的强大似乎可以让它在几乎所有游戏中直接面对最高级别的特效设置,但即便强大如厮,也依旧会有难以应对的场面,比如说……好吧,我们暂时不剧透了,等一下你自然就会知道答案了。
GeForce GTX Titan的新搭档——Project Shield
除了GeForce Experience之外,与Project Shield的配合也是GeForce GTX Titan的一大特色,它可以通过家庭云互联的形式,让Project Shield直接调用其强大的运算和渲染能力完成游戏的本地渲染,然后再将结果呈现在Project Shield的屏幕之上。有了GeForce GTX Titan,在马桶上玩Crysis3也不再是不可能的梦想了。
9见龙卸甲——Titan拆解赏析
● 见龙卸甲——Titan拆解赏析
从工业设计的角度来看,GeForce GTX Titan的硬朗外观还是十分成功的。银色金属磨砂处理的散热搭配黑色色调的卡身成了这款全新单芯王者的主基调。以下就是Titan的各种拆解细节。
GeForce GTX Titan
GeForce GTX Titan的卡身长度并不夸张,略短于GeForce GTX 690,甚至并不比Radeon HD 7970长。这样的身量尺寸似乎并不夸张,那么GeForce GTX Titan的性能究竟是否如传说中那样恐怖呢?
10Titan家族全集合
● Titan家族全集合
七彩虹GeForce GTX Titan
11测试平台一览
● 测试平台一览
为保证测试能够发挥显卡的最佳性能,本次测试的平台由Intel 酷睿i7-3970X处理器、X79芯片组主板、芝奇16GB DDR3-1600四通道内存组建而成。详细硬件规格如下表所示:
测 试 平 台 硬 件 环 境 | |
中 央 处 理 器 | |
Intel Core i7-3970X | |
(6核/12线程/3.5GHz/15MB L3) | |
散 热 器 | |
Intel RTS2011LC | |
(原厂水冷散热器 / 选配件) | |
内 存 模 组 | |
G.SKILL RipjawsX DDR3-1600 16GB | |
(SPD:11-11-11-28-1T) | |
主 板 | |
ASUS RAMPAGE IV EXTREME/BF3 | |
(Intel X79 Chipset) | |
硬 盘 | |
Seagate Barracuda 1TB | |
(1TB/7200RPM/32MB缓存/SATA3) | |
电 源 | |
NERMAX 白金冰核 1500W | |
(CSCI Platinum 80Plus/ 1500W) | |
显 示 器 | |
DELL Ultra Sharp 3008WFP | |
(30英寸LCD / 2560×1600分辨率) |
● 测试平台软件环境一览
为保证系统平台具有最佳稳定性,本次产品测试所使用的操作系统为Microsoft Windows 7正版授权产品,除关闭自动休眠外,其余设置均保持默认,详细软件环境如下表所示。
操 作 系 统 及 驱 动 | |
操作系统 | |
Windows 7 Ultimate RTM SP1 | |
(64bit / 版本号7601) | |
主板芯片组驱动 | |
Intel Chipset Device Software | |
(WHQL / 版本号 9.2.3.1022) | |
NVIDIA显卡驱动 | |
NVIDIA GeForce GTX | |
(Beta / 版本号 314.09) | |
AMD显卡驱动 | |
AMD Catalyst | |
(Beta / 版本号 13.2 beta4) | |
桌面环境 | |
Windows 7 Ultimate RTM SP1 | |
2560×1600_32bit 60Hz |
需要特别说明的是,为了保证游戏及测试过程中双方特效设置的完全相同以及公平公正,我们调整了AMD催化剂驱动的AI控制功能,将镶嵌等级从驱动默认的“AMD优化”改回了应有的“应用程序控制”。只有在这样的设置下,AMD显卡才会在游戏中使用正确的游戏自身设置的曲面细分等级,而不是AMD预设的更低的曲面细分等级。
12理论性能测试:3DMark Series
● 理论性能测试:3DMark Series
有别于以往,我们在本次Titan的首发测试中使用3Dmark 11及新3Dmark来完成理论性能测试,两款软件均针对DirectX 11显卡。测试成绩主要由显卡测试和CPU测试两部分总和构成,整个测试软件更加偏重整机性能。
Titan的性能震撼从测试的开始便降临到了我们的面前,其性能较之GeForce GTX 680以及Radeon HD 7970都太过明显,很难想象这样的测试结果来自同样工艺的同时代产品。
13游戏测试:Crysis3
● 游戏测试:Crysis3
《孤岛危机3》是《孤岛危机》的最新续作,游戏采CryENGINE 3引擎所制作,其卓越的画面表现以及精彩的剧情相信已无需多言。作为硬件杀手的第三代,只支持DirectX 11的Crysis3 PC版再次将游戏的画面精美程度和硬件需求提升到了新的高度。
我们采用运行Origin平台启动游戏并进行第一关至进入建筑物为止,同时收集期间的平均帧数的方式来完成测试,测试进行三次,取平均成绩作为最终测试结果。
作为最新的硬件杀手,Crysis3为我们展现了碾压一切的实力,极限分辨率下的它甚至将Titan成功的压制在了30帧以下。但即便如此,Titan依旧向我们展现了它绝对绝对强劲的性能——因为其他参测显卡连突破20帧都做不到……
14游戏测试:Crysis2
● 游戏测试:Crysis2
《孤岛危机2》是《孤岛危机》的续作,游戏采CryENGINE 3引擎所制作,故事发生在距一代3年后的2023年。外星人在地球上的大片区域挑起了战争,各大城市都遭到攻击,人口锐减,玩家将要进行捍卫地球的末日战争。
孤岛危机2
我们采用Crysis2 BenchmarkTool来完成测试,场景选择Downtown,测试进行三次,取最高成绩作为最终测试结果。
Titan恐怖的性能在Crysis2中再一次得到了展现。2560X1600这样的极限分辨率设置下,Titan差一点便以单芯突破了60帧的水平,其性能提升相对于GK104实属巨大。
15游戏测试:Call of Duty MW3
● 游戏测试:Call of Duty MW3
由动视暴雪于2011年11月初发布的使命召唤:现代战争3延续了前作的诸多特色,其完美的剧情创造了良好的代入感。图形引擎方面则沿用和改进了已经服役两年的IW4.0+引擎,因此拥有良好的硬件“亲和力”。
使命召唤8
我们选择游戏第一关过场动画结束主角翻车至玩家再次恢复控制之间的即时渲染部分作为测试场景,无人为控制干扰因素,测试时长50秒,测试执行3次,取期间的平均帧数作为最终测试结果。
使命召唤8的IW4+引擎相对老旧,已经很难发挥出最新硬件的全部实力,即便如此,Titan依旧击败了所有单芯竞争敌手的挑战。
16游戏测试:Metro 2033
● 游戏测试:Metro 2033
本作题材基于俄罗斯最畅销小说Dmitry Glukhovsky。由乌克兰4A游戏工作室开发,采用4A游戏引擎,而且PC版支持nvidia的PhysX物理特效。 2013年,世界被一次灾难性事件毁灭,几乎所有的人类都被消灭,而且地面已经被污染无法生存,极少数幸存者存活在莫斯科的深度地下避难所里,人类文明进入了新的黑暗时代。直至2033年,整整一代人出生并在地下成长,他们长期被困在“地铁站”的城市。
地铁2033
我们采取游戏提供的Benchmark程序来完成测试,该Benchmark所包含的场景具有光照系统,烟雾系统以及激烈交战场景,能够全面反映显卡在面对Compute Shader以及超高分辨率材质时的表现。需要注明的是,有介于既往测试的经验,我们在本次测试中关闭了所有参测显卡的DOF选项设置,以期获得“可以用来玩的帧数”数据。
在关闭DOF之后,地铁2033终于变得不再是屠杀所有硬件的存在了,起码Titan幸存了下来,甚至还超过了GeForce GTX 690。
17游戏测试:LostPlanet 2
● 游戏测试:LostPlanet 2
《失落的星球2》背景设在原来第一季的十年后。气候变化融化冰雪覆盖的大陆,创造了新的环境,如丛林。在EDN-3rd的改变下,10年过去了。地球发生了重大改变,冰川已经融化,热带丛林,沙漠冷酷无情。玩家将进入新的环境,与雪贼战斗,以抓住不断变化的地球控制权。玩家将控制他们的英雄跨越6个相互关联的事件,创造一个真正独特的互动体验。有了这个概念,玩家将会有机会从不同的发展角度来动态的改变故事情节。
失落星球2
我们采用游戏自带的Benchmark来完成测试,测试进行三次,取三次平均值作为最终结果。
失落星球2的测试延续了Titan在前面游戏中的强势,它依旧是毋庸置疑的单芯王者。
18游戏测试:Dirt 3
● 游戏测试:Dirt 3
《Dirt 3》是Codemasters制作发行的一款赛车竞速单机游戏,作为AMD Gaming Evolution的一款游戏,它采用与《F1 2010》同样的Ego引擎,支持DirectX 11 API,拥有更加拟真的天气系统及画面效果。游戏将包含冰雪场景、动态天气、YouTube上传、经典的赛车、分屏对战、party模式、开放世界、更多真实世界中的赞助商和车手等特点。
我们采用游戏自带的Benchmark来完成测试,最终结果以显示平均帧数为准。
作为第一代DirectX 11游戏,尘埃3已经十分“老旧”了,最新硬件在其上已经难以发挥出全部的性能优势了,但即便如此,Titan仍然在该款游戏中表现了强大的实力。
19游戏测试:蝙蝠侠阿克汉姆之城
● 游戏测试:蝙蝠侠阿克汉姆之城
蝙蝠侠:阿甘之城(Batman: Arkham City)是2009年最佳动作游戏《蝙蝠侠:阿甘疯人院》的续作,由华纳兄弟出品,该作由Rocksteady工作室负责开发,世界架构仍然建立在《阿克汉姆疯人院》的气氛上,不过这次上升至阿克汉姆之城——高谭市内戒备森严的,关押了大量暴徒的监狱之中。新作汇集了众多明星参与的配音阵容以及蝙蝠侠中的极度凶残的恶棍,并改进和加强了一游戏特点,让玩家们拥有像《蝙蝠侠:黑暗骑士》一般的终极游戏体验。
蝙蝠侠:阿克汉姆之城
我们采用游戏自带Benchmark进行性能测试。测试进行三次,取三次平均值作为最终结果。
Titan的成绩已经没有任何悬念和值得怀疑的地方了。非常接近GeForce GTX 690的测试结果已经让这款单芯显卡产品成了当之无愧的单芯王者。
20游戏测试:无主之地2
● 游戏测试:无主之地2
《无主之地》为一款RPG风格合作FPS游戏,作为《无主之地》的续作,这款卡通渲染风格的二代游戏可以让玩家仍然扮演来自前作的自定义英雄,同时引入了名为“圣安德列斯风格”的升级系统。并且该作取消在线多人模式,支持合作模式。
我们采用运行游戏第一关至第一个洞口的方式来完成游戏测试,整个测试过程重复3次,取平均帧数为测试结果。
无主之地2的卡通渲染风格对GPU的性能要求并不算过分苛刻,因此Titan在该款游戏中的亮点主要集中在提高分辨率时相对更低的性能衰减。
21游戏测试:杀手5
● 游戏测试:杀手5
《杀手5:赦免》采用IO Interactive自主研发的冰川2(Glacier 2)引擎制作,游戏内容都是在引擎下实时进行反馈的,所有动作都是即时生成的。新作主要场景发生在芝加哥,名为代号47的主角在本作中将更加灵活,更好控制。他将可以攀在悬崖边,还可以保持平衡,游戏融入了掩护系统,挟持人持的功能回归。
我们使用游戏自带的Benchmark程序来完成设置,测试进行三次,取平均值为最终结果:
在最新发布的杀手5中,Titan继续维持着强劲的性能表现并超越了所有的参测单芯显卡,而且领先幅度非常可观。随着驱动的进一步优化,相信Titan还可以表现出更加强大的性能。
22DirectX 11应用测试:天堂4.0
● DirectX 11应用测试:天堂4.0 《Heaven Benchmark》是由俄罗斯Unigine游戏公司开发设计的一款Benchmark程序的最新版本,该程序是由Unigine公司自主研发的游戏引擎设计,支持DirectX 9、DirectX 10、DirectX 11与OpenGL 3.2 API,通过数十个场景的测试最终得出显卡的实际效能。 有介于前面游戏测试中Titan所表现出的近乎于过剩的性能,我们决定直接在天堂4.0测试中使用最大极限设置——2560X1600环境下开启8XMSAA。如此高的分辨率下继续开启最高级别的抗锯齿对游戏画面的质量提升已经没有任何意义,但却可以为我们提供一个考验性能的极限环境作为参考。Titan在这样设置下的性能表现依旧抢眼,领先其他单芯显卡的幅度均超越了50%。以这样的成绩而言,Titan甚至可以说是一款面向未来的产品了。
天堂4.0
23Titan游戏性能综合比率
● Titan游戏性能综合比率
我们收集了全部9款参测游戏的帧数数据,以GeForce GTX Titan为基础将在游戏中的表现与所有参测显卡进行了一一对比,下面就是所有参测显卡在全部测试游戏中相对于Titan比率的平均值。为方便进行更加直观的对比,我们还分别制作了以GeForce GTX 680、Radeon HD7970 GHz Edition以及Radeon HD7970为基准的性能比率图,以便让大家了解Titan相对于各款旗舰级产品的性能提升幅度,以下就是我们所获得的结果。
GeForce GTX Titan性能比率(1920分辨率)
GeForce GTX Titan性能比率(2560分辨率)
Radeon HD 7970 GHz Edition性能比率(1920分辨率)
Radeon HD 7970 GHz Edition性能比率(2560分辨率)
在2560X1600分辨率下,GeForce GTX Titan的游戏性能领先GeForce GTX 680的幅度为46.8%,领先Radeon HD 7970 GHz Edition的幅度为44.6%,领先Radeon HD 7970的幅度为54.9%,落后GeForce GTX 690的幅度为11.5%。这组比例,应该可以相当直接的反映出GeForce GTX Titan无与伦比的性能等级了。
还记得上一次看到这样的性能提升幅度是在什么时候么?努力回忆一下那段幸福的时光吧。
24SLI多卡性能延伸测试
● SLI多卡性能延伸测试
GeForce GTX Titan支持3way SLI设置,可以以三卡互联的方式进一步拓展其性能界限。因此我们分别使用3Dmark 11以及极限设置的天堂4.0完成了多卡互联性能的测试,结果如下:
好吧,怎么说呢……如果你很有钱,同时又渴望获得这个世界上最快的个人电脑图形性能的话,那就去买3块GeForce GTX Titan吧,因为你已经没有第二个选择了。
25架构通用计算测试:Fluid simulation
● 架构通用计算测试:Fluid simulation
由于目前NVIDIA的Open CL驱动依旧表现不正常,诸如显存中进行原子操作会快于Shared/cache之类的问题仍然存在且没有任何改观,我们只能继续放弃基于OpenCL的通用计算测试软件——GPCBenchmark,转而采用DirectX SDK来完成底层性能及通用计算性能数据的收集。待到NVIDIA的官方驱动能够提供正确的OpenCL支持之后,我们将会补上GPCBenchmark的相关测试。
我们首先进行的DirectX SDK测试,是使用Direct Compute完成的流体力学模拟——Fluid dynamics simulation。Fluid dynamics simulation基于弹性力/黏着力/重力为基础的颗粒碰撞模拟,每一个颗粒均拥有独立的力学参数。通过对颗粒本身在统一的重力参数作用下自有力学参数以及交互作用的计算,可以模拟大量颗粒的行为并达到模拟由它们构成的“流体”特性的目的。
Fluid dynamics simulation
Fluid dynamics simulation分别提供了对shared性能以及Grid性能的测试,力学计算本身需要应用包括矩阵运算在内的多种数学方法,颗粒之间的力学交互作用存在条件分支关系,因此该项测试可以全面考验不同构架对图形通用计算以及有针对性的物理特效计算的性能。
GeForce GTX Titan通用计算性能测试之FluidCS
Kepler架构的通用计算能力是毋庸置疑的,这一点在我们之前进行的GeForce GTX 680发布中就已经明确过了。Titan在Fluid dynamics simulation中的性能表现再次佐证了这一点,它以非常明显的幅度领先于其他所有参测显卡。
26架构通用计算测试:CSM
● 架构通用计算测试:Cascaded Shadow Maps
Cascaded Shadow Maps(CSM)是一种基于阴影深度进行的阴影判断及快速操作模式,CSM通过将整个阴影划分成若干级的层次,以层次内部像素的深度来定义和快速判断阴影位置,并对近景阴影采取高精度贴图,远景阴影采用低精度贴图的方式来达到节约资源同时快速准确实现阴影贴图的目的。CSM可以极大地加快阴影操作的速度,同时避免大多数因为光源形态、阴影深度与像素尺寸差异所导致的阴影边缘及内部贴图错误。
Cascaded Shadow Maps
CSM大量涉及矩阵运算及坐标判断,因此在DirectX 11环境下可以透过Compute Shader来进行。对CSM的性能测试,有助于我们了解构架的矩阵操作等通用计算性能。
GeForce GTX Titan通用计算性能测试之CSM
依旧是令人难以置信的领先程度,Titan以及整个Kepler架构通用计算能力的强劲已经没有任何质疑的必要了。
27构架底层延展测试:OIT
● 构架底层延展测试:OIT
半透明是3D图形中一种重要的特效,但传统的Alpha混合基本上无法完成对不同半透明物体以及同一物体不同半透明部分的层次判断,因此如果以Alpha操作来简单的实现半透明效果,很多时候获得结果都是错误的。所以在DirectX 11中,微软为我们引入了OIT(透明独立叠加)技术来解决这一问题。
OIT
在实现OIT技术的过程中,程序会将处于同一层次的部件所对应的线程/任务以Atomic(原子操作)的形式保护起来,使这些线程在被执行结束之前变成一个不可再分的整体。接下来这些Atomic会被放置在buffer中进行处理优先级的排序,通过这些操作,物体及部件所在的层次和正确的显示效果就被最终确定下来了。如果构架拥有cache等可读写近存近取缓冲,则可以极大地加快OIT的乱序操作过程。因此对OIT的性能测试,将可以让我们了解构架是否具有足够的灵活度、充足的缓冲密度以及完整的Atomic特性支持能力
GeForce GTX Titan通用计算性能测试之OIT
在OIT的测试中Titan似乎遇到了一些不该有的状况,它的性能尚不及先期发布的GeForce GTX 680,我们无法断定这究竟是驱动不完善还是GK110架构的cache体系存在设计问题所导致的,伴随着未来NVIDIA逐步更新和完善驱动程序,我们会持续关注这一问题的解决过程。
28构架底层延展测试:nBody Gravity
● 构架底层延展测试:nBody Gravity CS11
nBody Gravity的前身来自nBody仿真,nBody仿真的目的在于模拟一个多体系统的演化过程,该系统中的每个个体(Body)都会与周围的其他物体发生非接触力学吸引/排斥作用。通过nBody仿真,我们可以获得大量长程力作用的系统,比如小到范德华力作用下的原子/分子群或者大到万有引力作用下的星系之类各色场合的模拟结果。对于气流等稀薄流体的模拟同样可以归约成nBody仿真过程并予以解决。
nBody Gravity
nBody Gravity将场景设定为大量粒子在引力这一种基本长程力下高速运动作用形成的多体问题,尽管粒子间不考虑接触力学传递,但整体而言nBody Gravity模拟与我们前面进行的Fluid dynamics simulation测试一样,都需要大量应用到矩阵操作等大量常见的数学方法。在此基础上,由于长程力一次影响的对象远较流体模拟中弹性碰撞传递所能够影响的对象要多,其背后所对应的线程量非常庞大,因此nBody Gravity对于硬件构架的并行度有极高的要求。透过nBody Gravity的测试,我们可以了解到被测对象的吞吐能力、对基本条件分支的应对能力、并行处理能力以及对矩阵等常规数学方法的处理能力。这些能力,最终都将反映构架执行DirectX 11特性尤其是Compute Shader的效率。
GeForce GTX Titan通用计算性能测试之nBody Gravity
Titan在nBody Gravity测试中恢复了正常的性能,我们再次体会到了GK110以及Kepler架构令人满意的通用计算性能以及整个架构正确的通用计算性能延续性。但愿前面OIT测试中所遇到的问题属于驱动引发的个案。
29功耗温度及性能功耗比测试
● 功耗温度及性能功耗比测试
在功耗、温度及噪音测试环节,我们采用Furmark满载的方式让显卡达到全负荷工作的方式,来收集Titan及Titan三卡互联的满载平台功耗温度及噪音数据。
GeForce GTX Titan平台待机功耗
GeForce GTX Titan平台满载功耗(Furmark)
GeForce GTX Titan平台3卡满载功耗(Furmark)
GeForce GTX Titan的功耗表现令人相当满意,其Furmark满载平台功耗为376W,甚至低于我们之前测试过的标准版Radeon HD 7970的380W。3Way SLI的Furmark满载平台功耗为920W,亦低于之前Radeon HD 7970 3Way CrossFireX获得的1139W的平台功耗数据。
GeForce GTX Titan的Furmark满载温度为81度,3Way SLI时的温度上升亦可以接受。噪音部分的测试则为我们带来了不小的挫败感——无论我们怎么努力,Titan的运行噪音始终都淹没在背景噪音,或者说Intel CPU原装水冷散热的风扇噪音当中,我们无法在噪音计上获得有效地Titan默认及满载运行状态下的噪音数据,因此只能以“GeForce GTX Titan的运行噪音基本上无法被听到”来作为噪音测试的结果了。
30测试总结:从难以理解到可以被理解的强大
● 测试总结:从难以理解到可以被理解的强大
GeForce GTX Titan的测试到这里就全部结束了,相信无论是架构意义还是最终性能的展现,屏幕前的各位对于Titan的震撼表现都应该有一个全面的认知了。对于Titan带来的震撼,我们甚至可以戏谑的套用竞争对手AMD的话来形容,那就是“这东西(Titan)压根就不是当显卡设计的(this is not something which was designed to be a graphics card)”。
“GeForce GTX Titan不是显卡”……?
GeForce GTX Titan以与HD7970标准版完全相同的工艺完成制造,功耗表现也与其相当甚至更低,但GeForce GTX Titan却在这样的前提之下实现了超过后者55%的图形性能,而且Titan在计算层面上甚至提供了与Tesla几乎完全相同的特性(以至于我们无法再用GK104时代的“阉割了计算特征”来进行搪塞)并将显存容量提升到了6GB,这样的事在正常的半导体产品对决中几乎是完全不可能出现的。
尽管不同的逻辑结构会带来不同的性能功耗比表现,但在“给多少电就干多少活”的半导体工业,同代工艺下双方的同功耗性能相差应该不会过于巨大。消耗同样的功耗,某个逻辑结构竟然可以输出比同档次竞争结构多一半以上的性能,这甚至是连错代工艺都是极难实现的。即便是CPU领域的推土机 VS SNB-E,也没有表现出这样程度的差距。如果我们无法接受“Tahiti以及AMD自身依旧存在太多问题从而导致了现在的局面”这种结论的话,那也就只能以“这东西(Titan)压根就不是当显卡设计的”来作为解释Titan性能的理由了……
GeForce GTX Titan的表现源自一系列因素综合的必然——先前架构的完善积累、对GPU设计理念的正确把握、更优秀的研发节奏把握、正确的路线图发展顺序以及坚定的对路线图的执行力、合理的D线及对D线空间的利用(什么是D线? 它会导致怎样的问题?)、在成本/短期利益和有效经验/长期利益间果断选择后者……一连串正确或者正面的要素都将GeForce GTX Titan导向了今天的局面当中。GeForce GTX Titan绝非偶然,它身上所表现出来的诸多符合因果链的现象和经验,都是值得整个业界讨论并学习的。
GeForce GTX Titan是毋庸置疑的单芯旗舰显卡,这不仅表现在单卡性能层面,同时还表现在平台性能界限层面上。尽管GeForce GTX 690在测试中表现出了略快于GeForce GTX Titan的单卡性能,但其性能延展度仅能止于双卡,能够完成3way SLI的GeForce GTX Titan才是平台绝对性能上限需求的最理想满足者。除此之外,更加开放的GPU Boost 2.0也在改善了可玩性的同时将这款显卡的易用性提升到了超越GK104的高度。对于渴望获得史上最强大GPU架构及性能体验的发烧友而言,GeForce GTX Titan无疑是极佳的选择。
除了性能以及性能功耗比等等鲜明的优势之外,GeForce GTX Titan还首次将接近完整的Tesla特性延伸到了桌面级的GeForce游戏显卡产品当中,这进一步拓展了其存在的价值和意义。由于双精度是驱动中的可选开启项,所以在开启之后的单卡GeForce GTX Titan完全可以被视作是不支持ECC特性的Tesla K20X。这种特征让Titan的存在对许多资金有限的基层科研工作者有了全新的含义——在小型计算平台的规模上,GeForce GTX Titan大幅降低了人们体验并获得Tesla级别运算能力帮助的门槛,资金有限的人们现在可以少付出3000美元便能获得最顶级的运算卡所提供的运算特性了。对于那些经费紧张但却心怀抱负的学生/科研工作者来说,GeForce GTX Titan将是更具吸引力的显卡。
当然,这世界上是不存在绝对的完美无瑕的。GeForce GTX Titan的表现的确令人叹为观止,但这并不能让我们忽视其身上存在的弱点和缺陷。
尽管GeForce GTX Titan提供了非常完整的运算特征,甚至几乎可以被看做是一块便宜了数千美元的Tesla K20X,但其所提供的关于双精度浮点运算能力的特性,对于常规游戏玩家而言是没有意义的。在可以预期的(亦即可通过路线图或技术规划推断的)近未来中,包括DP Shader在内的一系列可以利用双精度浮点运算能力的图形技术在一两代产品周期内都不会来到我们的面前,桌面级应用中可以利用到双精度浮点运算能力的场合凤毛麟角,甚至可以说完全没有。尽管双精度浮点运算对许多科研活动至关重要,但普通玩家也会因此而买单这件事也是无法被忽视的。能否平衡普通游戏玩家与运算性能需求者之间的关系,以诸如积极推动更高数据精度应用在图形领域的进展之类活动让玩家的投资获得更大的回报,是摆在NVIDIA以及GeForce GTX Titan面前的一个重要的问题。
除了售价之外,GeForce GTX Titan架构本身的表现也存在一些值得注意的问题,那就是Cache性能的不稳定。我们无法断定Titan测试过程中表现出的Cache问题,比如OIT测试中的表现究竟源自驱动的不完善还是Cache体系本身的设计出现了缺陷,同时在过去一年的时间里,Kepler架构在Open CL环境下也一直无法提供令我们满意的局域存储器性能测试结果。这样的结果对于当前GeForce GTX Titan的游戏图形表现影响还不是很大,但如果放置不管,这些问题最终将可能酝酿出更大的隐患。
以GPU体系而言,引入Unified Cache无论是对运算任务还是对图形任务来说都是意义非凡的,但是引入Unified Cache同时也意味着将Cache体系的诸多麻烦,比如命中率问题或者一致性问题等等也一并带入到了GPU界,这些麻烦对于已经先期踏过统一定址关口,正在积极推进通用计算和统一运算架构,且本身并没有丰富的Cache使用经验的NVIDIA来说会十分棘手。缓冲体系的崩溃将会带来多么糟糕的结果这件事已经有NV3X和Tahiti做前车之鉴了,没人希望NVIDIA在Cache层面重复这样的悲剧。所以无论是驱动问题还是架构本身存在隐患,尽快予以解决都是上策。Kepler架构已经证明了自己在寄存器层面积累的成功,我们希望NVIDIA能够在未来的架构发展中将这种积累以及相应的经验继续拓展到Cache体系当中。
NVIDIA首次在Fermi中引入了Unified Cache,但愿它也能笑到最后
至于AMD将如何面对GeForce GTX Titan带来的冲击这件事,说老实话我们是很没有底的。Tahiti与Kepler架构之间的差距已经伴随着GeForce GTX Titan的发布而毫无保留的被表现了出来,这种差距甚至已经超过了代差所能够承受的极限。以GPU发展的一般规律而言,AMD基本上已经丧失了在短期内追平的可能性。GeForce GTX Titan没有对手,其独特的市场定位以及高昂的售价也让这款产品难以找到能够与之对应的竞品,也许这可以让AMD暂时放心,但GeForce GTX Titan所表现出的双方在逻辑结构设计水平层面的巨大差异,以及包括GPU Boost 2.0在内的诸多值得Tahiti改进架构借鉴的经验,是必须要引起AMD高度重视的。
我们无法揣度GeForce GTX Titan对HD8000系列架构的核心设计所造成的影响,因为诸如寄存器层面的技术差异不是一代改进型架构能够解决的,但我们认为一些更加外围且更加直接的技术革新将会因为GeForce GTX Titan的出现而获得AMD更大的重视,比如说未来的AMD Boost一定会借鉴更多GPU Boost技术中的成功经验,而功耗与性能的平衡也将成为AMD未来重点关注的对象之一。无论做何种改进,只要AMD肯进行有意义的改进,并且能够积极同时正面地去推动这些改进,用户就必定能从这些改进中获得好处并重拾对AMD的信心。
GeForce GTX Titan对性能定义的震撼是巨大的,其全新的定位以及售价同样给人以强烈的冲击。GeForce GTX Titan身上的很多特征都是前所未有的,其对业界造成的冲击和影响到底有多深远,这样的问题恐怕只有时间才能予以回答了。GeForce GTX Titan的命运将会如何?NVIDIA的命运将会如何?AMD的命运将会如何?整个业界的命运又将会如何?就让我们一起拭目以待吧。
31产品参数对比
七彩虹680-GD5 CH版 2048M和七彩虹GTX Titan-6GD5 CH有什么区别
NVIDIA新一代单芯旗舰产品——GeForce GTX Titan正式发布,这款同样基于Kepler架构的产品相比上一代单芯/双芯旗舰会有怎样的性能比较呢?这个看不到数字型号的新旗舰,会有怎样的新特性,会有怎样的定价?让我们通过本文的全面测试,详致了解一下GeForce GTX Titan。
推荐经销商