热点推荐

NVIDIA/ATI命运转折 GPU十年发展回顾


分页浏览|全文浏览    【中关村在线 原创】 作者:濮元恺 | 责编:龚力成     评论
产品:GeForce 9800M GTX nVIDIA 显示芯片 回到顶部阅读

计算机图形学诞生具有重要意义

前言:当今半导体领域,只有一种芯片能以3倍于摩尔定律的速度发展,只有一种芯片能够在PC领域挑战甚至超越同时期生产的CPU产品,只有一种芯片让图形业界的创作者和无数游戏玩家为之疯狂,这就是GPU(Graphic Processing Unit),中文译名:图形处理器

NVIDIA公司在1999年发布GeForce 256图形处理芯片时首先提出GPU的概念,随后大量复杂的应用需求促使整个产业蓬勃发展至今。今天笔者将用最精炼的文字,为各位读者讲述这10年的GPU发展的主要路径,读者可以跟随下面的文字将自己置于当时的市场背景下,体会各种经典产品和先进技术带给我们的震撼。

计算机图形学诞生具有重要意义

    利用计算机实现图形生成,或者说地通俗一些实现图像的绘制,是科学家们长期的梦想。我们无法追溯最初这个想法的提出者和具体细节,但是我们还是查阅到了一个人和一门学科。这个人是著名科学家——伊凡•苏泽兰先生,这门学科则是当今计算机领域最热门的专业——计算机图形学(Computer Graphics,简称CG)。


心怀感恩 永续前进
图注:Ivan Sutherland博士1962年在演示中最初的“画板”程序。

    1962年,麻省理工学院的一位青年博士研究生提交了论文并发言,他就是伊凡•苏泽兰(Ivan Sutherland)。苏泽兰用幻灯向与会者展示了画板程序,苏泽兰和他所展示的程序最终成为计算机图形学的奠基。而今他已72岁高龄,仍然奋斗在图形业界最前沿,现为Sun公司研究员和副总裁。

    计算机图形学,是一种使用数学算法将二维或三维图形转化为计算机显示器的栅格形式的科学。简单地说,计算机图形学的主要研究内容就是研究如何在计算机中表示图形、以及利用计算机进行图形的计算、处理和显示的相关原理与算法。图形学处理需要计算机天然具备大量并行运算能力,并且对精度和运算强度有很高要求,但是这给当时的计算机提出了巨大的难题,由于硬件发展的严重滞后,计算机图形学在提出后的20年内一直艰难前行。

心怀感恩 永续前进
图注:最初的pong街机,将电子娱乐从概念推向实际

    在1972年,计算机图形学的发展直接促成了一个让普通用户感兴趣的游戏产品——Pong街机,这是第一款家庭电视游戏产品,也是首款真正取得成功并影响深远的视频游戏,实际上这就是一个简单的乒乓撞球游戏,但它几乎成为电子娱乐领域的始祖。当Pong成为遍布街头巷尾的街机时,越来越多的厂商也开始关注并设计自己的电子娱乐产品。

    同样对计算机图形学提出需求的,还有一些工业设计领域,如计算机辅助设计(Computer Aided Design),通称CAD。CAD的出现使情况发生根本性的改变,1974年美国波音飞机制造公司第一架音747客机试飞成功,这架客机的设计图纸全部重量竟有几十吨重,如果没有CAD设计技术,这么浩大的制图工程量,用人工来做是无法想象的。

    在20世纪80年代,逐渐出现了专门进行图形计算的硬件,它们是GPU的前生,这极大的加速了计算机图形学的发展进程。八十年代以前主要在军事领域研究发展,其应用目标是各类军用运输工具仿真模拟器的视景生成系统。八十年代早期,斯坦福大学教授Jim Clark产生了用专用集成电路技术实现3D图形绘制处理器的设想,然后与其学生创立了SGI公司,并于1984年开发出了世界上第一个通用图形工作站IRIS 1400。

心怀感恩 永续前进
图注:SGI公司,是技术计算和可视化计算无可争议的领军者

    第二代高端通用图形工作站的功能特征包括三角形的Gouraud明暗处理、Phong光照模型和硬件Z-Buffer算法。图象的真实感显著改善,几何变换及扫描转换性能大幅提高。第三代出现于1992年下半年,代表产品是SGI的Reality Engine。它增加了纹理映射及全屏幕反走样,为通用图形工作站用于户外视景模拟打开了大门。

    简单来说最初的硬件支持的3D图形绘制可以划分成几何处理和光栅化处理两个阶段。几何处理阶段包括了坐标变换、裁剪、光照计算等,光栅化处理则包含了扫描转换、采用Z-Buffer算法的隐藏面移去、纹理映射等。显然,要使系统的性能最佳就必须使这两个处理阶段具有相匹配的处理能力。3D图形生成的计算量非常巨大,即使最快的通用CPU也难以胜任。

濮元恺所写过的技术分析类文章索引(持续更新)

 NVIDIA/ATI命运转折
GPU十年发展回顾

改变翻天覆地
最全Fermi架构解读

显卡只能玩游戏?
10年GPU通用计算回顾

通用计算对决
四代N卡激战CUDA-Z

从裸奔到全身武装
 CPU功能集成之路探秘

AMD统一渲染架构
历程回顾与评测

浅析DirectX11技术
带给图形业界的改变

摩尔定律全靠它
CPU光刻技术分析

我就喜欢
 "N饭"永不投诚语录

别浪费你的电脑
分布式计算在中国

从Folding@home项目
看GPU通用计算发展

 Computex独家泄密
解析AMD下代GPU

回到顶部阅读

GPU概念提出之前经典的图形硬件

GPU概念提出之前经典的图形硬件

    ●图形处理芯片出现,市场呈现群雄逐鹿

    在GPU概念没有提出之前,图形处理芯片是显卡的心脏,可以说,一款显卡使用的图形处理芯片基本决定了这块显卡的性能和档次。当时有能力生产图形芯片的公司主要有ATINVIDIA、3DFX、S3、MATROX、SIS、TRIDENT、STM等几家公司。而经过了显卡市场这几年激烈的竞争之后,不少原先的老牌如S3,3DFX等公司都倒下去了,Matrox、Trident等公司也是日渐衰落,如今只有NVIDIA和ATI可以说是春风得意,把持着民用市场的绝大部分份额和大部分专用市场。

    在2D图形时代,ATI曾与OEM客户建立起了亲密的合作关系,同时ATI优质多媒体卡的声誉也在消费者之间广为流传。但进入90年代之后,电脑游戏的发展要求显卡拥有强劲的3D效能,这直接成就了3DFX和NVIDIA,ATI也没有放弃任何机会,Rage 128等产品成就了ATI在图形芯片市场上的活跃度。


心怀感恩 永续前进
图注:在图形芯片市场创造过辉煌过的部分厂商,你能回忆当时的岁月吗……

    回过头来看这些年公司在GPU概念之前推出的图形芯片,大致上可以分为四代。

    第一代图形芯片的代表S3 Virge系列、ATI的第一款3D芯片3D Rage、NVIDIA的第一代产品NV1和MATROX Mystique系列充斥了整个市场。但是,这四个系列的产品性能都不能令人满意,在配备了高端处理器的电脑中,有时软件加速的效果甚至比硬件加速的效果还要好。其中值得注意的是ATI的3D Rage输在兼容性方面,而NVIDIA的NV1采用的正方形成像技术虽然不错,没有获得微软在Windows 95中就制订的Direct3D多边形立体标准,最后走向失败。

    第二代图形芯片的代表是3DFX Voodoo和NVIDIA RIVA128。从第二代起,图形芯片才进入了高速发展的黄金时期,图形芯片领域的发展速度是电脑界权威的摩尔定律的三倍——每六个月产品更新换代一次,性能提高一倍。

    当默默无闻的3DFX推出划时代的图形加速卡——Voodoo之后,图形芯片的性能不能令人满意的现象才得到彻底改变。但是Voodoo早期的天价,为它和3DFX带来许多麻烦。Voodoo拥有每秒4500万的像素填充率,每秒100万个多边形的生成能力,支持双线过滤,板载4MB显示内存,这一切价值300美元。而且Voodoo还是一块纯3D加速卡,也就是说它必须和普通的2D显示卡配合使用。但是对于使用低像素填充率,没有过滤功能,2D和3D应用都共享可怜的1MB显存的低端显示卡的游戏玩家来说,高端的Voodoo芯片的出现无疑是个福音。

心怀感恩 永续前进
图注:挽救了NVIDIA的RIVA 128显卡

    在竞争对手的打击下,NVIDIA为世嘉游戏机重新设计的NV-2芯片在没有开发完成就被世嘉放弃,加之NV-1并没有得到市场认可,NVIDIA顿时陷入崩溃边缘。但值得注意的是此时NVIDIA启用了极具天才的David Kirk(现为美国工程院院士、NVIDIA首席科学家),开始重新研制NV-3。NV-3的目标是成为当时最先进的图形芯片,并准备在一个芯片中集成优秀的2D和3D性能。在1997年快要结束的时候,NVIDIA终于发布了NV-3,也就是大家所熟悉的RIVA 128,RIVA 128主张128位的内存总线,在全速运行的时候可以达到100Mpixel/Sec,在非GLIDE API游戏性能中超过了当时风靡全的3Dfx Voodoo。零售市场上,Diamond、STB、ASUS、ELSA和Canopus等等都相继推出了基于此芯片的产品,加上当时不少经典的GLIDE游戏转向微软的D3D阵营,这些都促使RIVA 128终于获得了市场的认可。

    此时ATI也经历了一个痛苦的阶段,在同样比较失败的3D Rage之后,ATI真正意义上的第一款3D芯片3D Rage II诞生。此芯片支持双线性、三线性过滤、Z-buffer和一些Direct3D材质混和模式。但是像素过滤只是比S3的Virge略好,在当时来说是只能算一般。1997年2月,ATI发布了3D Rage II+DVD,这是第一块提供了硬件运动补偿的图形芯片,把CPU从软件播放DVD的繁重的工作中解放了出来,使ATI成为DVD加速领域的先行者。同年发布的3D Rage Pro芯片开始,ATI已经采用了当时业界领先的AGP总线。大批的OEM订单使ATI公司在1998年的收入也提高了一倍。

心怀感恩 永续前进
图注:多媒体显卡的开山之作ATI Rage 128

回到顶部阅读

NVIDIA、3DFX、ATI三强争霸

NVIDIA率先崛起,3DFX大势已去,ATI等待良机

    第三代图形芯片的代表是3DFX Voodoo 2、NVIDIA TNT、ATI Rage 128、MATROX G200、S3 Savage3D;应该说,时至今日,使用前三代图形芯片的显卡产品已经绝迹,只能在收藏爱好者的仓库里看到它们的身影。其中TNT的推出向世人证实了强劲的3D性能不仅仅是3dfx的专利,在性能上RIVA TNT已经具备了挑战当时显卡之王Voodoo 2的实力。著名的“雷管”(Detonator)驱动也在RIVA TNT时代诞生,这表明NVIDIA注意到优良的驱动程序对充分发挥显示芯片性能的重要性。ATI开发的Rage 128虽然不是当时顶尖的,不过RAGE 128胜在各项性能指标都非常平均。多媒体方面,RAGE 128不仅在DVD动态插值补偿方面依然占据优势,更有支持VIVO和ALL-IN-WONDER的显卡版本。在当时看来,这已经算是功能非常强大的多媒体显卡,ATI逐渐做出了自己的特色。

    第四代图形芯片的代表是3DFX Voodoo 3、NVIDIA TNT2、MATROX G400、S3 Savage4。经过这两次换代后,优秀的TNT2使得3DFX在图形加速市场上所占的比重下降了,影响也大不如前。到1999年底,采用TNT2系列芯片的显卡几乎抢占了近80%的显卡市场,NVIDIA第一次在市场份额以及性能上超过了对手3DFX。RIVA TNT2采用了0.25um工艺制造,标准版本运行于125MHz频率,支持32MB显存,支持32bit帧缓冲,支持DVI输出接口,峰值速度250Mpixels/Sec,更重要的是它代表了新一代显卡的特色:128位核心、支持AGP4X、支持32M显存。


心怀感恩 永续前进
图注:TNT2显卡使得NVIDIA首次坐上了市场占有率第一的王座

    从TNT2开始NVIDIA对产品进行了市场化细分,在高中低端,面向多种不同的用户,TNT2芯片衍生出TNT2 Vanta、TNT2 M64、TNT2、TNT2 Pro、TNT2 Ultra等不同的型号产品,搭配不同显存的容量,产品线覆盖了大部分的市场。其中TNT2 Ultra是系列最高端产品,也是NVIDIA第一次使用Ultra后缀命名高端产品,TNT2 Ultra只是从NV6核心中挑选出的品质优秀的芯片,并搭配了速度最快的显存,其核心/显存频率高达150/183MHz,后期更是提高到175/200MHz,性能上超过了3DFX的Voodoo 3500以及MATROX的G400 Max。

心怀感恩 永续前进
图注:3DFX的绝唱——疯狂设计的Voodoo5 6000显卡

    TNT2的出现,使得NVIDIA和3DFX之间的霸主之争天平发生了倾斜,Direct3D和OpenGL的广泛使用也使3DFX的Glide摇摇欲坠,3DFX的一意孤行终究得到了市场的抛弃。NVIDIA却凭借自身的努力和TNT系列产品的巨大成功登上了“图形加速芯片之王”的宝座。ATI则靠着ATI Rage 128一直将传统优势和市场份额延续下来。

回到顶部阅读

Geforce 256诞生与GPU概念的提出

Geforce 256诞生与GPU概念的提出

    Geforce 256——代号NV10于1999年8月发布。这是图形芯片领域开天辟地的产品,也是第一款提出GPU概念的产品。Geforce 256所采用的核心技术有硬体T&L、立方环境材质贴图和顶点混合、纹理压缩和凹凸映射贴图、双重纹理四像素256位渲染引擎等,而硬体T&L技术可以说是GPU概念形成的标志。


心怀感恩 永续前进
图注:Geforce 256显卡造就了GPU概念

    1999年,已经凭借RivaTNT2在图形芯片界立足的NVIDIA,主动放弃帮自己打下江山的Riva品牌,新启用的Geforce强调力量并沿用至今,并衍生出驱动品牌Forceware及芯片组品牌nForce。

    Geforce256之所以被称作GPU原因就在于Geforce256划时代的在图形芯片内部集成了T&L(几何光照转换)功能,使得GPU拥有初步的几何处理能力,彻底解决了当时众多游戏瓶颈发生在CPU几何吞吐量不够的瓶颈。Geforce 256显卡的出色表现,NVIDIA强大的技术实力得到全面释放,这块显卡是真正的全面领先型产品,而不是靠16bit色和32bit色的区域优势或者是单纯依赖特定的3D API支持。

    T&L几何光照转换原先由CPU负责,或者由另一个独立处理机处理 (例如一些旧式工作站显视卡)。较强劲的3dfx Voodoo2 和 Rendition Verite显示核心已整合了几何(三角形)建构, 但硬件T&L仍是一大进步,原因是拥有该技术的显示核心从CPU接管了大量工作。硬件T&L单元让Geforce 256几乎成为一个全新的GPU标准,也让GPU更加独立自主。

    在当时,曾经不可一世的3DFX Voodoo难以抵挡TNT2的攻势,最终被GeForce 256所终结。同时ATI选择在一年后也就是2000年推出Radeon(镭)品牌,从此开创了GPU领域的两强争霸。从此开始桌面图形市场已经演变成两家公司的表演。

    ● GeForce256系列产品 技术优势:★★★★★ 市场优势:★★★★

    当时ATI用来对阵GeForce256的正是Radeon256,它提供了对DDR-RAM的支持,节省带宽的Hyper技术,完整地T&L硬件支持,Dot3,环境贴图和凹凸贴图,采用2管线,单管线3个材质贴图单元(TMU)特殊硬件架构。遗憾的是第三个贴图单元直到Radeon256退市的时候也没有任何程序支持它,同时由于驱动的不成熟,Radeon256并没有叫好又叫座。

心怀感恩 永续前进
图注:市场定位准确的Radeon标准版32M DDR显卡

    但Radeon256毕竟打开了AIT公司的Radeon(镭)品牌,Radeon系列显卡除了同样拥有T&L外,具备ATI最先进的硬件几何变形,光照效果,和图象剪切等等功能使ATI Radeon在性能上完全可以与NVIDIA的旗舰产品一决高下。ATI和NVIDIA两大巨头之间的竞争也演化为Radeon和GeForce两大品牌的对决。

    ●Radeon256系列产品 技术优势:★★★ 市场优势:★★

    不可否认在成功的背后,离不开微软推出的图形API——DirectX 7.0的鼎力支持。DirectX 7.0最大的特色就是支持T&L,在T&L问世之前,位置转换和灯光都需要CPU来计算,CPU速度越快,游戏表现越流畅。使用了T&L功能后,这两种效果的计算用显示卡的GPU来计算,这样就可以把CPU从繁忙的劳动中解脱出来。同时从另一个角度提升了GPU在PC系统中的地位。

心怀感恩 永续前进
图注:微软发布了当时最具影响力的图形API——DirectX 7.0

    与NVIDIA GeForce 2系列显示芯片的详细划分一样,ATI也将Radeon根据当时的市场情况划分为多个版本,包括Radeon标准板、Radeon SE(高频版)、Radeon VE(双头显示)以及Radeon LE(取消了Hyper-Z技术)。可以说Radeon是ATI跨入DirectX 7.0时代后最成功的一款显示芯片,同时今后的ATI产品也延用“Radeon”来命名。

    借助GeForce 256巨大的影响力,2000年5月,NVIDIA终于发布了新一代旗舰显卡,因为代号NV15的GPU拥有1.6Giga Texels/sec纹理填充率,所以NVIDIA将这个标志性的参数缩写为GTS,显卡全称为GeForce2 GTS。

心怀感恩 永续前进
图注:曾今的高端卡GeForce2 GTS架构特色

    GeForce2 GTS首次采用了0.18微米工艺制程,由TSMC制造的GeForce2 GTS(0.18微米,564 PBGA 封装)中,晶体管数目已经增加到了2500万,工作频率也首次提高到200Mhz,显存方面搭配了32MB 166Mhz DDR SDRAM内存,GeForce2与上一代比起来最大不同的地方在于:增强的第二代T&L引擎,性能提升幅度达30%,填充速度也增加到1.6GTexel/s,这也是首款填充速度过亿的图形加速器,像素填充速度的增加主要是由原来的每管线单个TMU(纹理单元)增加到两个,GeForce显卡共有4条管线,所以200Mhz x 4 x 2=1.6GTexel/s。

    严格来说,GeForce2 GTS并不是一款全新架构的显卡,仅仅是对上代产品GeForce 256的升级改良版。但这种改良收到奇效,这种改良更多的是针对市场的需求做出应变,由GeForce2 pro、GeForce2 Ultra、GeForce2 TI、GeForce2 MX、GeForce2 GO构成了丰富的产品线。

    其中最为重要的产品就是2000年6月向低端市场推出的NV11核心GeForce2 MX显卡,这款显卡曾经在一段时间内统治了整个低端市场,即使到GeForce 3显卡推出,仍在市场热卖。同时GeForce2 MX也为NVIDIA与ATI争夺市场的时候增加了筹码。而高端产品GeForce 2 Ultra以更强的电气性能和核心显存频率牢固占据了性能宝座,也代表了DirectX 7时代GPU的顶级性能。

    ●GeForce2系列产品 技术优势:★★★★市场优势:★★★★

回到顶部阅读

DirectX 8时代两强争霸、你追我赶

DirectX 8时代两强争霸、你追我赶

    面向图形计算,让GPU逐渐找到了自己的方向,那就是给予用户更真更快地视觉体验,但是GPU架构也遇到一些问题亟待解决。首要问题就是,要实现更加复杂多变的图形效果,不能仅仅依赖三角形生成和固定光影转换,虽然当时游戏画面的提高基本上都是通过大量的多边形、更复杂的贴图来实现的。

    但后期的发展中,顶点和像素运算的需求量猛增。每个顶点都包含许多信息,比顶点上的纹理信息,散光和映射光源下表现的颜色,所以在生成多边形的时候带上这些附加运算,就可以带来更多的效果,但这也更加考验顶点和像素计算能力。研究人员发现,同硬件T&L仅仅实现的固定光影转换相比,VS和PS单元的灵活性更大。


 GPU十年发展历程回顾

    2001年从DirectX 8发布开始,Shader Model(渲染单元模式)在DirectX体系中的地位就日趋重要,其版本和渲染单元的规格也成为了决定显卡性能高低的关键因素。第一个实践DirectX 8可编程特性的是NVIDIA Geforce3 Ti图形卡。这片代号NV15的Geforce3 GPU首次在内部加入了Pixel Shader处理器和Vertex Shader处理器。为了保险起见,Geforce3内部还同时保留了T&L硬连线为老游戏提供最佳的执行效率。

心怀感恩 永续前进
图注:UT2003场景

    Shader概念的提出,意味着程序员可通过它们实现3D场景构建的难度大大降低。通过VS和PS的渲染,可以很容易的宁造出真实的水面动态波纹光影效果。此时DirectX的权威地位终于建成。

    Pixel Shader(顶点着色器)和Vertex Shader(像素着色器)硬件逻辑,真正支持像素和顶点的可编程。虽然当时可编程性很弱,硬件限制太多,顶点部分出现可编程性,像素部分可编程性有限。但这的确是硬件T&L之后PC图形技术的又一重大飞跃。3D娱乐的视觉体验也因此向接近真实迈进了一大步,波光粼粼的水面是那个时期用于演示Shader能力的典型DEMO,相比之下DirectX 7绘制的水面效果就单调得多。

    Shader单元概念提出之后,无论NVIDIA还是ATI,都在做强显卡前端(Setup Engine及其相关部分,如光栅器Rasterizer、设定Setup和顶点装配器Vertex Assembler)的同时,逐渐将竞争重点放在显卡核心部分——Pixel Shader(顶点着色器)和Vertex Shader(像素着色器),无论是Radeon 8500还是Geforce Ti 4200都内置的规格和频率更强的PS和VS单元。同时显卡的后端ROP(光栅化引擎,负责完成像素的输出)也逐渐强大,各种各样的多重采样AA模式和更高的抗锯齿模式逐步得以实现。

    在此基础上,GPU的负担从以前的纹理和像素填充率方面,逐渐开始转向Shader的执行能力。在DirectX 8时代诞生了一系列经典显卡,同时ATI在DirectX 7的不利局面得到逆转。而曾今的3DFX、MATROX、SIS、TRIDENT等厂商,或被收购或再也没有能力登台表演,GPU领域的两强争霸在DirectX 8时代彻底确立。

心怀感恩 永续前进
图注:NVIDIA公司的创始人黄仁勋先生和ATI公司的创始人何国源先生

    1963年,黄仁勋出生于中国台北。1983年,黄仁勋大学毕业后毫不犹豫地搬到硅谷,并应聘AMD公司,成为一名芯片设计工程师,两年后跳槽到偏向于图形处理的芯片商LSI Logic。在职期间苦读6年后成为斯坦福电子工程硕士。1993年1月,NVIDIA正式成立,作为创始人之一的他担任NVIDIA首席执行官。

    1950年,何国源出生在广东省新会地区。1974年,何国源大学毕业回到香港,在那里找到了他平生第一份正式工作。何国源的第一份工作是在“Control Data”电脑公司做部门主管。1983年,何国源决定去加拿大发展之前,年轻的他在王氏电子公司已经做到了总经理。1985年,何国源和另外两名香港移民Benny Lau(产品开发副总裁)和Lee Lau(策略计划副总裁)共同创建的ATI(Array Technology Inc)。公司在多伦多北部的万锦市宣告成立。

    2001年2月,NVIDIA终于发布了具有划时代意义的GeForce 3。Geforce 3采用0.15微米工艺制程,在晶体管数量上多达5700万个,这个数据整整是RIVA 128显卡的8倍,已经超高当时最强的P4处理器4200万个。GeForce 3拥有4个Pixel Shader和1个Vertex Shader(顶点处理单元)。同时,NVIDIA为游戏开发者提供了完整的Geforce架构开发工具,允许游戏开发者编制他们自己的程序来控制像素的效果,给游戏和应用开发者带来了极大的方便。

心怀感恩 永续前进
图注:高端GeForce 3 Ti 500显卡

    ●GeForce 3 Ti系列产品 技术优势:★★★★ 市场优势:★★★★

    微软在2002年对DirectX 8.0进行升级诞生了DirectX 8.1,新标准对VS和PS的渲染加强,增加对大纹理水波纹的处理效果,新的DirectX 8.1使你获得更好的图像显示质量,使多人游戏更具可伸缩性,以及包括更优异的音频效果。ATI则利用这个机会,通过代号R200的Radeon 8500显卡首次超过了NVIDIA的GeForce 3。在当时,做工优秀、画面显示质量出色的Radeon 8500显卡成为业界公认性能最出色的显卡,一举超越了压制NVIDIA的Geforce 3 Ti系列显卡。

心怀感恩 永续前进
图注:同为高端定位的Radeon 8500

    ●Radeon 8500系列产品 技术优势:★★★★★ 市场优势:★★★★

    代号R200的Radeon 8500的基本结构与当时的其他显卡差不多;它拥有四个像素单元,每个像素单元拥有两个纹理单元。它亦支持DirectX 8.1的顶点着色引擎和像素着色引擎,它的两个顶点着色引擎被称为Charisma Engine II,为新的顶点着色程序和旧的DirectX 7硬件T&L都提供出色的效能。Radeon 8500支持像素着色器版本1.4,相对1.x版本的设计,这个修订版本是意义重大的。鉴于PS1.2和1.3只是PS1.1的改进版, 8500拥有第一和唯一的ATI硬件加速细分曲面绘图引擎,名为“Truform”,这个引擎通过十年的艰难发展后,最终成为我们在HD5870显卡中看到的Tessellation引擎。

    但是回头看DirectX 8时代的GPU,我们发现无论是NVIDIA还是ATI,都没有推出一款低端产品,而巨大的低端市场正面临产品断档的危险。

    2001年,在高端产品Radeon 8500之前,ATI发布了Radeon 7000系列显卡,因为这一系列显卡已经是ATI的第七代产品了。Radeon 7000系列总共有两款芯片,高端的R100(7200)和低端的RV100(7000)都使用了0.18微米工艺制造,拥有三千万晶体管,支持DirectX 7。这种以RV代表低端产品的做法被沿用至今。

心怀感恩 永续前进
图注:深受消费者喜爱的Radeon 7500代表了当时最高的性价比

    ●Radeon 7500系列产品 技术优势:★★★ 市场优势:★★★★★

    Radeon 7500是款特别的显卡,核心代号为RV200,因为它是与ATI下一代的8500(R200)一同发布的,但仅支持DirectX 7。客观的讲,作为DirectX7平台下的Radeon7500带给我们的是与GeForce2 TI同等的性能,而且它还具备其他的特点,比如超高的芯片运行频率及显存带宽、Hydra Vision双头显示、优秀的视频流回放与2D显示画面等,更重要的是它有一个吸引人的价格

    总体来说,Radeon 7500等经典显卡为ATI打下了低端和中端市场,市场份额渐渐接近NVIDIA。Radeon 8500在此时也诞生了大量的衍生物,他们包括9000、9100、9200、9250等等,规格型号甚至令人眼花缭乱。

心怀感恩 永续前进
图注:巩固性能王位的GeForce4 Ti 4600高端显卡

    ●GeForce4 Ti系列产品 技术优势:★★★★ 市场优势:★★★☆

    面对竞争对手ATI的步步紧逼,GeForce4 Ti于2002年2月应运而生。GeForce4 Ti基于改良版本的TSMC 0.15微米工艺,采用了最新nfiniteFX II引擎,Vertex Shader增加至2个。在高工作频率下,使得GeForce4 Ti的处理能力有可能高于GeForce3将近三倍。而在全屏反锯齿方面,GeForce4 Ti采用新的Accuview AA技术,改善了取样方式并且优化了渲染的过程,可以进一步保证在高分辨率下的显示速度。显存带宽也一直是制约显卡性能的瓶颈,GeForce4 Ti为了摆脱瓶颈的限制,引入了LightSpeed Memory Architecture II(LMA II)光速显存构架II技术,它的原理就是优化渲染过程和压缩技术的采用。

    GeForce4 Ti的性能领先程度巨大让ATI根本无力翻身,同时它完整支持DirectX 8.1也让NVIDIA在GPU着色器规格上没有任何遗憾。聪明的NVIDIA顺势推出了GeForce4 Ti4600、TI4400、Ti4200以及GeForce4 MX,其中最受用户欢迎的就是GeForce4 Ti4200,这是NVIDIA首次尝试高端产品低成本化(只有频率区分,没有架构改动),结果大获成功,持续热卖至2004年。

心怀感恩 永续前进
图注:在低端显卡市场,GeForce4 MX系列取得了骄人战绩

    ●GeForce4 MX系列产品 技术优势:★★★ 市场优势:★★★★★

    而面向低端用户的GeForce4 MX更是由于对手产品线的空缺,这款显卡采用的核心实际上是GeForce 2 Ti,而显存控制器和抗锯齿功能则属于GeForce 4 Ti系列,虽然只支持DirectX 7,但它迅速取代GeForce 2 MX,创造了当时最好销量,成为最受欢迎的产品。

回到顶部阅读

DirectX 9.0时代开启

Radeon 9700开启DirectX 9.0时代,NVIDIA深陷泥潭

    ●DirectX 9.0带给业界的震撼

    随后到来的DirectX 9.0时代,让Shader单元具备了更强劲的性能。2002年底微软发布的DirectX 9.0中,PS单元的渲染精度已达到浮点精度,传统的硬件T&L单元也被取消。全新的Vertex Shader(顶点着色引擎)编程将比以前复杂得多,新的Vertex Shader标准增加了流程控制和更多的常量,每个程序的着色指令增加到了1024条。

    PS 2.0具备完全可编程的架构,能对纹理效果即时演算、动态纹理贴图,还不占用显存,理论上对材质贴图的分辨率的精度提高无限多;另外PS1.4只能支持28个硬件指令,同时操作6个材质,而PS2.0却可以支持160个硬件指令,同时操作16个材质数量,新的高精度浮点数据规格可以使用多重纹理贴图,可操作的指令数可以任意长,电影级别的显示效果轻而易举的实现。


心怀感恩 永续前进
图注:3D Mark 03第四项游戏测试Mother Nature

    基于Shader Model 2.0的3D Mark 03第四项游戏测试Mother Nature,对Shader单元运算复杂度和材质大小提出非常严苛的要求,当时只有高端显卡才能流畅通过该测试。

    VS 2.0通过增加Vertex程序的灵活性,显著的提高了老版本(DirectX 8)的VS性能,新的控制指令,可以用通用的程序代替以前专用的单独着色程序,效率提高许多倍;增加循环操作指令,减少工作时间,提高处理效率;扩展着色指令个数,从128个提升到256个。

    最重要的一点改进是增加对浮点数据的处理功能,以前GPU只能对整数进行处理,改进后提高渲染精度,使最终处理的色彩格式达到电影级别。Shader Model 2.0时代突破了以前限制PC图形图象质量在数学上的精度障碍,它的每条渲染流水线都升级为128位浮点颜色,让游戏程序设计师们更容易更轻松的创造出更漂亮的效果。

    如果说DirectX 8中的Shader单元还是个简单尝试的话,DirectX 9中的Shader则成为了标准配置。除了版本升级到2.0外,DirectX 9中PS单元的渲染精度已达到浮点精度,硬件T&L单元也成为历史的产物被取消,在较低DirectX版本游戏运行时会使用VS单元模拟执行硬件T&L单元的功能。

回到顶部阅读

两家厂商的不同命运

    ●两家厂商的不同命运

    从DirectX 9开始,PC显卡业界由三名大佬掌权,它们是微软、ATI和NVIVIA。其中,微软担任3D API软件发展商的角色,不断更新DirectX应用程序接口,其它两个显卡厂商则紧紧跟随,推出相应的硬件产品,它们都想在未来的DX 9市场中称霸,但却遇到了不同的待遇。

    实际上现在理性回顾当时的场景,ATI抢先发布了代号R300的Radeon 9700,不过,它发布时的DX9未完善,微软则会在最终版中加入VS(Vertex Shader,顶点描影)2.0、PS(Pixel Shader,像素描影)3.0。NVIDIA为了支持更多特性而延迟了NV30的发布,可惜它始终未能支持完整的VS 3.0/PS 3.0特性。

    总之,ATI和NVIDIA都不可能实现真正的DX 9,这是由两个厂商一手造成的。ATI发布Radeon 9700时,选择了VS 2.0/PS 2.0,NVIDIA选择了VS 2.0/PS 3.0。ATI和NVIDIA的分歧严重影响了DX的发展,甚至连OpenGL 2.0也受到牵连,微软则想取得领导地位,一直采取拖沿策略,以便保持自己在3D API的优势,借以打击OpenGL。


心怀感恩 永续前进
图注:Radeon 9700以最快速度开启了DirectX 9时代,并长期占据了性能宝座

    ●Radeon 9700系列产品 技术优势:★★★★★ 市场优势:★★★★☆

    但是ATI选择的是产品的发布速度,它坚信战场上兵贵神速。所以在NVIDIA沉浸于GeForce4 Ti带来的全盛时,ATI于2002年7月发布了首款支持DirectX 9的GPU——Radeon 9700。首款DX9图形芯片,256Bit的显存位宽,9700凭借8条管线理所当然的坐上了3D之王的宝座。

    由Radeon 9700衍生出的中端产品也吸引了消费者的眼。当年9500显卡上演的改造风波也被传为佳话,9500黄金版(4管线可改8管线,128MB 256Bit显存;普通9500为4管线可改8管,64MB 128Bit显存)的知名度甚至要盖过9700。

    直到年末,准确地说是在2002年11月18日,Comdex 2002上,NVIDIA发布了研发代号NV30的GeForce FX,“FX”代表NVIDIA收购3DFX之后的首款作品。这款产品拥有当时最大的功耗,最夸张的散热器设计,多项半导体行业领先技术,却因为一些细节方面导致了GeForce FX的全盘皆输。

    种种迹象都表明,GeForce FX 5800 Ultra是一款失败的产品,12层PCB以及GDDR2显存带来的高额成本,以及高噪音高功耗的表现使得GeForce FX 5800 Ultra在于ATI Radeon 9700 Pro的竞争中败下阵来,受到自身4x2流水线架构以及性能低下的Shader执行效率限制,导致3D性能上GeForce FX 5800 Ultra也得不到半点好处。为了弥补高端市场上的失策,NVIDIA针对主流市场以及低端市场积极的推出了NV30的精简版本NV31、NV34,即GeForce FX5600以及FX5200,可惜架构仍然继承了NV30的高频低能。

心怀感恩 永续前进
图注:GeForce FX 5800 Ultra

    由于晶体管数达到创纪录的1.25亿个,惊人的500MHz默认频率,致使NVIDIA不得不为GeForce FX 5800 Ultra搭配“FX Flow”的散热系统,它包含一个铜制散热片、热管和换气装置。

    ●GeForce FX5800系列产品 技术优势:★★★ 市场优势:★★★

    Radeon 9700成为了ATI最成功的一代显卡,而NVIDIA随后推出Geforce FX系列则是NV最受争议的一代显卡。无论高中低端,R300架构造就的ATI显卡在竞争中都取得明显的优势。但R300架构也拥有明显的不足。R300芯片本身是32位和24位混合型的,内核像素描影器是FP24,而纹理寻址操作和顶点描影管道是FP 32。R300在像素描影管道中有24位内部浮点精度,而代号NV30的Geforce FX系列支持IEEE-32(S23e8)浮点精度,比DX9更精确。

    但R300的市场把握水平要明显强于NV30,最后带来了ATI的胜利。这一优势持续了两年多,市场份额资料称,2004年ATI占了全球独立图形芯片出货量的一半儿还多。ATI终于成为第一大独立图形芯片厂商,成功超越了NVIDIA。

    Radeon 9700的先进架构造就了它的高效率。在普遍情况下,它能比昔日的王者GeForce4 Ti 4600快大约15-20%。但是,当运行抗锯齿(AA)和各异向性过滤(AF)计算时,它能比Ti 4600快大约40-100%。在当时来说,这种性能提升出乎所有用户意料,R300使到人们广泛接受AA和AF,使之成为必不可少的功能。R300也因为众多优秀之处成为历史上最长寿的显示芯片,R300推出3年后,还能为新游戏够提供合理的性能。总而言之DirectX 9.0时代的最初故事就是这样充满火药味和戏剧性。

回到顶部阅读

NVIDIA亡羊补牢 ATI依然坚挺

    ●FX 5900亡羊补牢,Radeon 9800依然坚挺

    经历了GeForce FX 5800的惨痛教训之后,NVIDIA开始着手做两件事。首先是对NV30架构进行改进代号NV35,以图挽回市场份额,重新夺取性能宝座;另一方面则加速NV40芯片设计,这将是NVIDIA在未来上演的重头戏。

    半年后,也就是2003年5月份,NVIDIA发布了NV35核心的GeForce FX 5900,与GeForce FX 5800Ultra相比,GeForce FX 5900采用了更加成熟的0.13微米工艺,晶体管数量虽然增加了500万个晶体管,不过借助成熟的0.13微米工艺,芯片良率以及发热量都有了改善。


心怀感恩 永续前进
图注:改进后的GeForce FX 5900拥有众多优势,也为NVIDIA摘到了高耗能的帽子

    ●GeForce FX5900系列产品 技术优势:★★★☆ 市场优势:★★★☆

    图像技术方面这款产品也拥有众多亮点,新的NV35采用了备受业界好评的CineFX2.0引擎(增加了UltraShadow光影技术以及Intellisample HTC技术)。其中Intellisample HTC(高分辨率压缩技术),能有效改善全屏抗锯齿以及各向异性过滤的效果。

    新的NV35采用了CineFX2.0引擎,和第1代CineFX相比,NVIDIA对Pixel Shader做出了一定的改进,在保留FX12 combiner的同时增加了两个可进行浮点运算的miniALU,虽然miniALU的功能有限,但是还是使得NV35的浮点运算能力提高了一倍。除此之外,最大的改变就是从128bit显存位宽升级到256bit显存位宽,搭配的850MHz DDR-I显存可以提供的带宽高达27.2GB/s,远高于GeForce FX 5800Ultra使用当时不成熟的DDR-II所获取的16GB/s。

    不久后,NVIDIA又发布了NV36——GeForce FX 5700以及低频版的GeForce FX 5900XT显卡,在全部继承了NV35的基础上大幅缩减了产品的成本。尤其是GeForce FX 5900XT显卡,凭借准确的定位和较高的性价比,市场好评不断。

心怀感恩 永续前进
图注:代表ATI最高端产品的Radeon 9800XT显卡,使用R360核心,工艺依然不变

    ●Radeon 9800系列产品 技术优势:★★★★ 市场优势:★★★☆

    ATI采用了同样的方法,并且没有重新设计架构,只是用更小的代价稍作改进推出了代号R350的Radeon 9800。虽然9800在架构上并没有太多的改进,制造工艺依然维持0.15微米(之后高频的9800XT还是0.15微米),但频率的提高让它的性能比9700更上一层楼,SmartShader2.1和SmoothVision 2.1可能就是为数不多的改进了。在此基础之上的巅峰之作9800XT显卡更是把频率提升到了极限。

    2004年4月,ATI在控制高端市场的基础上,为我们带来了一款意想不到的中端经典显卡——Radeon 9550,这款芯片的成功至今让ATI自己都无法复制。Radeon 9550依然基于RV350制造,在所支持特效方面也完全与该系列最高端的Radeon 9600XT相同。

心怀感恩 永续前进
图注:横扫中端市场的Radeon 9550显卡给游戏玩家提供了当时最高的性价比

    ●Radeon 9550系列产品 技术优势:★★★ 市场优势:★★★★★

    4条管线和Radeon 9800级别的DX9规格保证了Radeon 9550强大的实力,它与Radeon 9600XT的差别仅仅在于频率,这使得各种非公版、超频版9550立刻席卷中低端市场,掀起了一股超频之风,当然成本下降带来的合理的定价,是Radeon 9550成为一代经典最主要的因素。9550发布之时ATI并没有对其所搭配显存做太多限制,同时RV350核心出色的超频能力更赋予了Radeon 9550强大的生命力。灵活的规格和优秀的性价比使它成为ATI低端显卡中销量最高的型号。

回到顶部阅读

DirectX 9.0c开创GPU黄金期

后DirectX 9.0时代开创PC游戏黄金期

    ●Shader Model 3.0将DirectX 9推向高峰

    与过去的DirectX 9.0b和Shader Model 2.0相比较,DirectX 9.0c最大的改进,便是引入了对Shader Model 3.0的全面支持。Shader Model 3.0除了继续扩展指令长度之外,还提升了指令执行能力,它开始支持动态分支操作,像素程序开始支持分支操作(包括循环、if/else等),支持函数调用。因此DirectX 9.0c和Shader Model 3.0标准的推出,可以说是DirectX发展历程中的重要转折点。

    Shader Model 3.0除了取消指令数限制和加入位移贴图等新特性之外,更多的特性都是在解决游戏的执行效率和品质上下功夫,Shader Model 3.0诞生之后,人们对待游戏的态度也开始从过去单纯地追求速度,转变到游戏画质和运行速度两者兼顾。因此Shader Model 3.0对游戏产业的影响可谓深远。

    Shader Model 3.0对比Shader Model 2.0的改进


心怀感恩 永续前进

心怀感恩 永续前进

    在3D游戏工作时,其实Pixel Shader、TMU以及ROP部分都非常重要。让我们回想一下当年《FIFA98》等老一代3D游戏,当时三角形生成能力是最为看重的,基本没有应用到纹理贴图与像素着色,真正的工作部分是被成为顶点生成器的单元,而且也可以由CPU来模拟执行。但是发展到DirectX 6与DirectX 7时期,大量3D游戏开始追求更加丰富真实的表面效果,此时贴图技术则迅速普及,如何提供强大的纹理填充率成为关键。至于DirectX 8之后的时代,像素处理则异军突起并且展现出令人惊艳的画质。相对而言,ROP的概念比较难理解,这实际上是像素结果输出处理器负责像素的最终输出,执行像素读/写操作、Z-buffer检查、色彩混合、抗锯齿操作等。

    进入DirectX 9时代以后,Pixel Shader技术开始应用得十分普遍,此时显卡能否提供更多的像素渲染管线成为关键因素。当然,造成GPU开始追求更多像素渲染管线的因素绝不仅仅是3D游戏普及化应用Pixel Shader,Pixel Shader本身版本的提升也是一个重要原因。单流水线内置一条像素渲染管线在DirectX8游戏横行的时代是比较合理的,因为DirectX8的Pixel Shader1.3允许的着色器程序比较短,此时单流水线内的多个像素渲染管线无法发挥并行工作的优势。然而DirectX 9时代的Pixel Shader 2.0/3.0则全然不同,更长的着色器程序指令让多个像素渲染管线有了用武之地。

回到顶部阅读

Geforce6和RadeonX纷来沓至

    ●Geforce6系列和Radeon X系列众多显卡纷来沓至

    NVIDIA回顾整个GeForce FX一代显卡的表现时深感遗憾,对于这个一直梦想做GPU业界Intel的厂商来说,市场和技术的双重失利对它打击太大。虽然后期产品GeForce FX 5900有尚佳的表现,但在与ATI Radeon 9800的竞争中也只能说旗鼓相当,没有占丝毫上风。低端市场面对ATI众多产品和优秀的性价比,NVIDIA也感到无力回天。此时只能押宝下一代产品的NVIDIA显得没有退路。

    2004年4月,在投入史上最大的一笔研发经费后(10亿美元以及500多位研发人员),NVIDIA终于发布了新一代NV40——GeForce 6800Ultra。可以说,GeForce 6800Ultra是一款不计成本,誓要夺回性能王座的产品。同时它吸取了上一代产品的教训,重新设计的架构和完整支持DirectX9.0c标准,让这款显卡以全新的形象展现在用户面前。甚至有分析家评论GeForce 6800和GeForce FX简直不是一家公司设计的产品。


心怀感恩 永续前进
图注:架构彻底革新之后的GeForce 6800Ultra最终获得成功

    ●GeForce 6800系列产品 技术优势:★★★★★ 市场优势:★★★★

    当NV40代替NV3x架构新鲜出炉的时候,人们把关注的焦点更多的放在了采用单贴图来加强Vertex 和 Pixel Shader(顶点着色和象素着色)能力这一改动上面。实现这一点之后只需要将GPU处理纹理的能力加倍(也就是16×1的架构)便可以有效的将Pixel Shader pipelines(象素着色管线)的数目提高到原来的4倍。在NV40中,最大象素和纹理填充率在现实使用中同样可以使硬件的功能发挥得更均衡。当处理双重贴图问题的时候,NV40也可以运行在一个8x2的模式下,这时一半的管线被专用于处理每一个纹理。在这种双重贴图的模式下,NV40的纹理填充率和单纹理模式下是一样的,只是象素填充率减半而已。

心怀感恩 永续前进
图注:拥有16个像素着色器和6个顶点着色器的GeForce 6800架构

    在NV3x和NV40架构中,都可以同时处理每个象素的z和色彩值。另外,不只是对一个象素进行着色,在色彩单元中还可以进行一个z或者模板操作(stencil operation)。这使得NV3x可以在每个时钟周期内执行8个z或者模板操作,而NV40则可以在每个时钟周期内执行32个z或者模板缓冲操作。因为对没有新的象素进行绘图,NVIDIA分别称之为"8x0" 和 "32x0"。这一模式在首先进行z-pass运算,或者使用模板阴影的时候非常有用(在Doom3中使用到)。

    最重要的是NV40还引入了第三代的CineFX 3.0引擎,完全符合Direct 9.0C的Vertex Shader3.0和Pixel Shader3.0规范。而ATI的新产品却固步自封,坚守Direct 9.0b规范。GeForce 6800 Ultra的推出令NVIDIA迅速夺回了失去已久显卡性能的王冠,也将世人对NVIDIA实力的质疑一扫而空。NVIDIA士气大振,随后就发布了基于NV40核心的一些列产品GeForce 6800GT 、GeForce 6800和GeForce 6800LE来面对不同的市场。主流市场方面,由于Direct 9游戏的突飞猛进,中端GPU市场又出现青黄不接,2004年8月,广受用户好评的NV43核心——GeForce 6600系列显卡发布。

心怀感恩 永续前进
图注:中端市场上让无数用户向往的GeForce 6600系列显卡大量上市

    ●GeForce 6600系列产品 技术优势:★★★☆ 市场优势:★★★★★

    GeForce 6600系列显卡恰当地使用了TSMC 0.11微米工艺,显存位宽为中端显卡最适合的128bit,NV43的频率可以轻松达到500MHz,并且给用户预留了超频空间。同时NV43还是首款原生支持PCI-E的显卡,并且带来了NVIDIA与3DFX合作后的最新技术——SLI,这项技术已经在GPU领域失传多年,没人想到NVIDIA会在这一代产品上身上将它复活。

    NVIDIA为了GeForce 6的成功几乎用尽全部研发力量,而另一方ATI则轻松很多,它推出了架构上并没有太大变化的Radeon X800系列,像素管线翻倍提升至16条,基于对图形领域和游戏厂商开发能力的判断,ATI认为DirectX9.0b将会持续很长时间,对手也不会支持新的图形API,所以代号R400的Radeon X800和上一代GPU核心一样没有支持最新的Shader Model 3.0规范,但是这次ATI赌输了。

心怀感恩 永续前进
图注:ATI在高端市场推出的Radeon X800XT显卡

    ●Radeon X800系列产品 技术优势:★★★ 市场优势:★★★☆

    首先令ATI始料未及的是GeForce 6系列完全按照DirectX 9.0c SM3.0的标准设计,而代号R420的X800系列仅支持DirectX 9.0b SM2.0b,虽然当时并没有多少游戏能够支持SM3.0和HDR,但这已经让X800系列失去了上代9700的王者风范。其次基于R300的芯片架构在很多测试中已经显得老迈,无法和全新设计的GeForce 6800Ultra相抗衡。

心怀感恩 永续前进
图注:代号R420的X800系列架构图

    我们从图中可以清晰看到6个顶点着色器、16个像素着色器和256位显存位宽

    同时6800和X800的时代正值AGP、PCI-E接口改朝换代时期,NVIDIA合理的通过使用接芯片兼顾了AGP/PCI-E平台,而ATI坚持“有路何必搭桥”的策略使得研发成本增加不少,这也导致X800一代ATI的显示芯片规格特别纷繁芜杂。综合来说,X800XT与6800Ultra的3D性能差距不是太明显,但是SLI双卡互联技术让ATI失去了高端市场,因为追求极致3D性能的用户并不会在意价格,虽然ATI用最快速度开发出了CrossFire技术,但它毕竟成了追逐者而不是领导者。

心怀感恩 永续前进
图注:延续Radeon 9500经典的中低端产品Radeon X550

    ●Radeon X550系列产品 技术优势:★★★ 市场优势:★★★★☆

    ATI抓紧时间推出了基于X800架构的中端产品X700,虽然性能上和6600系列不相上下,但是终因没有对手的技术亮点多,而关注度下降。但是后期的X800Pro和AGP接口的X800GTO在发布一年之后由于良好的性价比而受到AGP升级用户的青睐。在低端市场ATI也打出了一些亮点,Radeon 9550在2004年的夏天创造了AGP显卡市场的奇迹,借助于9550的神话,ATI在PCI-E市场推出了Radeon X550(9550的PCI-E版)。采用0.11微米制程的X550并不是经过全新设计的产品,它与X600系列(RV380)、X300系列(RV370)在架构上是完全相同的。功能及特性上也完全不变,都是拥有4条像素渲染管线和2个顶点处理单元的产品。它的成功主要在于低价和快速占领低端装机和品牌机市场。

回到顶部阅读

Geforce 7对阵ATI两代核心设计

    ●Geforce 7系列对阵ATI两代核心设计

    让我们从另外的一个角度去看NV3X--他只是NV的一块探路石,虽然实用性能不佳,但是为下一代产品的技术开发积累了大量的经验,我们可以看到,NV30中的很多技术都被完整地集成到了NV40中,也就是说NVIDIA在NV30上的长期投资开始产生回报了——NV40在功能上明显超过了ATI的R420,而开发难度也没有大大增加,就是因为一些关键技术早在NV30这代产品中就已经被提前开发。要知道NV40的发布,只是在NV35发布后的短短5个月。

    2005年06月21日,NVIDIA新一代GPU核心,代号G70的Geforce 7800GTX发布了,你无法想象NVIDIA是如何在仅仅一年后设计并发布了这款新的GPU,因为这时ATI Radeon X800显卡正处于热卖中。Geforce 7800GTX让本来就处于DirectX 9.0b SM2.0的标准的ATI更加无力回天,毕竟自己的GPU已经落后对手两代,ATI只能选择专心开发R520核心,等待已经越来越渺茫的翻身机会……

    G70在正式定型之前的开发代号被称为NV47,因为它实际上就是在NV40的基础上改进升级而来的,当G70正式面世的时候,官方的技术文档以及核心架构的展示证明了它发布之前所使用的核心代号和推断的正确性。


心怀感恩 永续前进
图注:迅速推出的Geforce 7800GTX当仁不让地夺取了高性能桂冠

    ●Geforce 7800系列产品 技术优势:★★★★★ 市场优势:★★★

    G70在架构上基本没有太大的创新(尽管NVIDIA将其美名曰“全新的架构”),是一款和GeForce 6(NV4x)系列基于同一个架构设计的强化版,核心的制程由0.13μm进化至0.11μm,核心技术依旧支持Shader API Programmable Shader 3.0并在算法上加以强化,除Pixel Shader管线增加到24个,顶点着色单元增加到8个之外,此外7800 GTX还新增加/加强了透明材质智能采样抗锯齿、次表面散射、Relief Mapping、64Bit HDR运算、法线贴图压缩、光能传递贴图算法等一系列即将在下一代游戏中广泛出现的技术。下表列出的是NV40和G70的基本性能参数对比。

心怀感恩 永续前进
图注:NV40和G70的基本性能参数对比

    经历了NV30的失败与NV40的小试牛刀,7800 GTX踏上了ATI推崇的延长新架构开发周期的道路。从G70的核心架构来看,G70整个架构就是对NV40的一个补完与升级,并着重对未来游戏中常用的次表面散射、高动态范围光照、法线贴图压缩等前沿技术增加到核心的硬件支持上。不难发现,NVIDIA此举就等于ATI在9700-9800-X800-X850的进化过程一样,在同一个具有相当前瞻性的架构上进行不断的深化和升级补完,保持一个DirectX大版本号采用一个统一架构的部署方式以适应应用程序的发展以及舒缓高昂的开发费用。

    一直以来,SM 3.0技术被NVIDIA作为独有卖点而在Geforce 6/7系列显卡上大作宣传,该技术的缺失也使得R4XX系列显卡在和竞争对手的产品竞争中处于非常不利的地位。 虽然ATI的R500在游戏机市场占得先机,但桌面领域的R520却经历了数次跳票之后才在2005年10月来到人们的面前,结束了ATI显卡不支持DirectX 9.0c的尴尬历史。

心怀感恩 永续前进
图注:ATI终于发布了期待已久的X1800XT显卡

    ●Radeon X1800系列产品 技术优势:★★★★ 市场优势:★★★

    和每一代显卡产品一样,ATI Radeon X1000显卡也根据管线数目,显存位宽/容量将产品划分为高、中、低三个档次,依次命名为X1800/X1600/X1300。每个系列又根据核心/显存频率的不同而再细分出若干个产品型号,如Pro、XL、XT等。Radeon X1000的问世使得不少玩家在GeForce 6/7之外,又多了一个选择。

    基于R520的X1800XT是全首批采用0.09微米制程的显示核心。采用新工艺的好处是不言而喻的,除了使显卡的核心频率能达到前所未有的高度之外也降低了芯片的生产成本。这也让只有16管线的X1800 XT具备了和24管线的7800GTX一较高下的实力。

    如果你认为ATI的新架构仅有一款R520,那就大错特错了,因为早就在代号为R520的RADEON X1800发布的时候,代号为R580的RADEON X1900就完成流片、取样等一系列的后期研发,几乎是进入生产阶段了。在当时ATI提供给第三方厂商的一些机密文件中也表明,ATI对R580充满了信心,字里行间所暗示的信息当然就是希望这些显卡厂商不要因为Radeon X1800延误而对ATI的强大研发能力失去信心。

    2006年1月24日,距离Radeon X1800发布4个月还不到的时间,ATI正式发布新一代的高端产品——Radeon X1900系列。作为06年推出的新高端产品,RADEON X1900不仅拥有高时钟频率的特点,而且还在架构上作了大刀阔斧的改进,性能获得显著提升。在玩家眼中最为出色的3:1黄金架构正是在R580时代诞生。

心怀感恩 永续前进
图注:代号R580的RADEON X1900系列的每条传统的像素管线拥有3个像素渲染单元

    传统的管线概念(Pipeline)中,像素渲染单元(Pixel Shader)跟Pipeline数目相同,NVIDIA的G70图形就是这样一个概念;但是ATI在全新的R580图形芯片中,稍微修正了像素渲染单元跟Pipeline的关系。Radeon X1900需要重点强调的地方在于,R580图形芯片拥有16条传统的像素管线(Pixel Pipeline),但是却拥有48个像素渲染单元和16个纹理单元,算术处理能力是以前旗舰级GPU的3倍,在晶体管数量只增加20%的情况下,渲染能力理论上增加了200%,像素渲染单元跟纹理单元的比例是3:1。

心怀感恩 永续前进
图注:代表DirectX 9的顶级显卡——Radeon X1900XTX

    ●Radeon X1900系列产品 技术优势:★★★★★ 市场优势:★★★☆

    这一改进使得Radeon X1900XTX具备了48个像素着色器的流水线设计,FP32精度像素运算能力达到374.4GFLOPS,如果再加上顶点着色器的话,Radeon X1900XTX的FP32计算能力总共会是426.4 GFLOPS。相比之下,NVIDIA的GeForce 7800 GTX 512MB(550MHz内核)只能提供211.2 GFLOPS的FP32像素运算能力和47.2 GFLOPS的FP32顶点运算能力。

    在R580架构之后,ATI将3:1黄金架构延续在中低端显卡上,分别诞生了如下几款值得我们回忆的产品,它们从上市之初开始压制NVIDIA的同档次产品直到停产退市,都保持着非常高的性价比,这是用户最为赞赏和称道的优势:

    ●X1300XT,X1650Pro系列:12个像素单元,4个纹理单元,128Bit显存
    ●X1650XT系列:24个像素单元,8个纹理单元,128Bit显存 
    ●X1950Pro系列:36个像素单元,12个纹理单元,256Bit显存 
    ●X1950GT系列:36个像素单元,12个纹理单元,256Bit显存

回到顶部阅读

统一终止分立,架构之争日趋激烈

统一终止分立,架构之争日趋激烈

    ●统一渲染架构的诞生

    Shader Model 在诞生之初就为我们提供了Pixel Shader(顶点着色器)和Vertex Shader(像素着色器)两种具体的硬件逻辑,它们是互相分置彼此不干涉的。但是在长期的发展过程中,NVIDIAATI的工程师都认为,要达到最佳的性能和电力使用效率,还是必须使用统一着色器架构,否则在很多情况下Pixel Shader计算压力很轻造成大量Pixel Shader单元闲置,Vertex Shader资源有限但遇到大量三角形时会忙不过来。也就是说不再区分Pixel Shader和Vertex Shader,最终设计出来的产品可以在任何API编程模型中都不存在任何顶点/像素着色器固定比率或者数量限制。


心怀感恩 永续前进

    每一帧渲染中Vertex Shader和Pixel Shader负载压力几乎没有相关性,总是在出现资源闲置和资源紧缺,所以有必要使用统一着色器架构。

    在统一着色器架构的GPU中,Vertex Shader和Pixel Shader概念都将废除同时代之以ALU。ALU是个完整的图形处理体系,它既能够执行对顶点操作的指令(代替VS),又能够执行对象素操作的指令(代替PS)。GPU内部的ALU单元甚至能够根据需要随意切换调用,从而极大的提升游戏的表现。

    微软XBOX 360所采用的Xenos图形处理器,第一次引入了统一着色器架构,这个着色器架构包含了3个独立的着色器矩阵,每个着色器矩阵内有16个5D向量SIMD单元,这些SIMD单元既可以执行Vertex Shader也可以执行Pixel Shader,可以称之为符合DirectX9标准的统一着色器架构。随后NVIDIA推出的GeForce 8800 GTX使用了128个标量流处理器(Stream Processor)。在通用计算方面,GeForce 8800 GTX的统一架构比Xbox 360的C1更先进、更强大,这表现在标量设计、整个US和Shader簇内的MIMD化执行。

心怀感恩 永续前进
图注:AMD历代着色器演进

    在GeForce 8800 GTX之后,AMD经过数月的延迟后推出了代号R600的RADEON HD 2900XT核心,这款产品和NVIDIA的新品一样使用了统一渲染架构,不同之处在于2900XT的64个SIMD着色器内包含了5路超标量(superscalar)的运算单元(ALU),我们习惯性称其拥有320个流处理器。组织形式方面,SIMD单元采用超标量+VLIW(甚长指令)设计,虽然从数量上看规模庞大(共拥有320个ALU,8800 GTX为128个),但是执行效率在实际运算中会发生不可忽视地衰减。为方便讨论,在后文分析中,我们将更多地把着色器Shader称为流处理器Stream Processor。

回到顶部阅读

G80横空出世,R600临危受命

    ●GeForce 8横空出世,Radeon HD 2000临危受命

    理论上说DirectX 10并没有要求统一Vertex Shader和Pixel Shader,它只是增加了纹理规格、寄存器数目等规格,同时引入Geometry Shader(可批量进行几何处理)加强曲面处理能力。在GeForce 8800 GTX发布之前,NVIDIA也在媒体表示可能考虑在DirectX 10时代继续使用分立的着色器,但最终产品还是将着色器统一化。

    实际上在2003年,ATI的Radeon HD 2000也进入开发期,而在发布这款产品之前,ATI发布了一款特殊的GPU,它针对微软XBOX 360游戏机设计,代号为Xenos。Xenos是微软与ATI的合作结晶,于2005年发布在XBOX360游戏主机中。这款GPU最大的特色是采用了统一着色器单元架构,顶点、像素着色器程序都在同样的单元上执行,由线程调度器作动态的资源分配,还引入了顶点纹理拾取(VTF单元)等ATI同期R5XX产品所不具备的特性。


心怀感恩 永续前进
图片:第一款采用统一渲染架构的GPU是Xenos芯片

    代号G80的GeForce 8800 GTX相对于上一代产品,几乎经过了重新设计,各方面的改进都非常大。而R600家族的体系架构在一定程度上可以看作是延续自Xenos。但是ATI在2006年7月24被AMD收购以及它之前的研发精力不足,直接影响了R600家族产品的开发受到很大影响。最后导致没有统一架构设计经验的NVIDIA在2006年11月8日成功发布了G80核心的GeForce 8800 GTX显卡,巨大的技术革新和性能提升,获得了用户的一致认同。

心怀感恩 永续前进
图片:至今耳熟能详的G80架构GeForce 8800 GTX显卡

    ●GeForce 8800系列产品 技术优势:★★★★★ 市场优势:★★★★

    G80架构使用了多指令流多数据流MIMD结构标量流处理器,一共128个流处理器替代了原来分立的Vertex Shader和Pixel Shader,拥有当时最强的性能,当然G80拥有6.81亿个晶体管,是G71的2.5倍之多,显存方面384Bit显存位宽也充分保证了数据吞吐能力。在性能上GeForce 8800GTX显卡把3D图形处理器的性能又引领到一个前所未有的高度,这给对手承重的打击,ATI竟在半年之内拿不出一款足以抗衡G80核心的产品。NVIDIA凭借G80的革命性架构毫无悬念的夺取了3D性能的制高点。

    直到2007年6月3日,AIT终结了长达7个月的等待时间,Radeon HD 2000家族终于发布。虽然业内第一片DX10 GPU的头衔被G80抢了去,但ATI这次也没有被NVIDIA牵着鼻子走。除了对DX10和统一着色架构的支持外,R600还加入了一些特有的功能。例如,独立于几何着色器(Geometry Shader)的专用镶嵌单元(tessellation),加入属于Direct X 10.1范畴的可编程AA功能等。

心怀感恩 永续前进
图片:失去性能皇冠的Radeon HD 2900 XT显卡

    ●Radeon HD 2900 系列产品 技术优势:★★★ 市场优势:★★☆

    虽然我们尽力提及这款GPU的重要性和价值,但它毕竟还是输了,因为流处理器架构过于依赖以前的SIMD结构着色器模式,所以代号R600的Radeon HD 2900 XT只能和对手的次高端产品Geforce 8800 GTS相抗衡。为了弥补性能下降,ATI提高了这款GPU的运行频率到740MHz,配以512位显存控制器,可惜的是同样使用80nm工艺生产,2900XT的最大功耗达到了215W。

回到顶部阅读

G92继续领航,RV670开始转变

    ●G92继续领航,Radeon HD 3000开始转变

    在2007年圣诞节之际,NVIDIA的改进版G80核心诞生了。新核心被命名为G92,它引入了更多的纹理定址单元、完整的H264硬件解码加速以及一些纹理处理方面的增强,晶体管数量从G80的680M提升到了754M,但由于新制程的应用,G92无论是面积、发热还是功耗都表现优秀。G92比G80增加了大约74M晶体管,这增加的晶体管包括了G80显卡上分离的NVIO(G80专用的输出/输入芯片)、额外的32(8800GT上共开启了56)个纹理定址单元、增强的视频处理引擎(来自G84) 、PCI Express 2.0、HDMI的支持。


 GPU十年发展历程回顾
图注:单槽散热的高端显卡Geforce 8800 GT上市仅1500元左右

    ●G92核心Geforce 8800系列产品 技术优势:★★★★★ 市场优势:★★★★

    G92核心的第一枪是经典的Geforce 8800 GT。NVIDIA技术市场经理这样评价自家的最新DirectX 10显卡Geforce 8800 GT:“这是继当年的Geforce 4 Ti4200之后又一款性价比卓越的200美元级别3D加速卡。”这款意在取代当时旗舰G80的产品采用了65纳米工艺,成本、耗电更低,性能方面依然保持甚至超过当前基于G80的GeForce 8800GTS的水准。

 GPU十年发展历程回顾

    G92最重要的改进就是它使用了成熟的65纳米工艺,将芯片面积大幅度缩小。后期55nm的G92b更是提高了芯片切割的良品率。

   此时ATI也做出了可喜的改变,新发布的代号RV670的Radeon HD 3000让我们看到了ATI的愿景和希望。2007年12月,Radeon HD 3870和Radeon HD 3850发布了。RV670的卖点主要是R600相当的性能但是只需要一半功耗、UVD、优化流式数据运算、灵活的多GPU交火平台、完整的PCIE 2.0方案。

    RV670使用了比NVIDIA更为先进的55nm制造工艺,导致RV670的面积要比R600小54%,而G92比G80小大约36%,良品率明显高于NVIDIA的高端产品,成本和售价自然更为理想。

 GPU十年发展历程回顾
图注:定位准确的HD3870显卡并成为很多玩家的选择

    ●Radeon HD 3000系列产品 技术优势:★★★☆ 市场优势:★★★☆

    不可忽视的是RV670具备Direct 3D 10.1的硬件支持,其中的强制4AA、FP32纹理过滤都是目前D3D10硬件都已经具备的特性,而Gather4其实就是RV530就引入的Fetch4。真正是D3D10.1新引入的特性主要是cube map array、程序员控制AA取样模板、INT16 Blending、MS Buffer读/写。毕竟一个新标准的引入让RV670增加了一些技术看点。

回到顶部阅读

HD 4870成功抵抗GTX 280

    ●GeForce GTX 280再次出征,Radeon HD4870成功抵抗

    在G92核心的潜力已经被挖掘尽后,NVIDIA在2008年6月份推出了全新的GT200核心。代号GT200的GeForce GTX 280是NVIDIA基于第二代统一着色器及计算架构的第一款产品,架构归属于为G100,在性能上相对上一代的产品(G80)来说快大约50%到100%。NVIDIA的旗舰GeForce GTX 280集成14亿晶体管电路,拥有240颗流处理器,配备了1GB GDDR3显存,采用了512-bit位宽,显存带宽高达141.7GB/s,成熟的65nm技术让GT200虽然庞大,但是功耗和发热都处于可控范围。


 GPU十年发展历程回顾
图注:NVIDIA的高端旗舰GeForce GTX 280显卡

    ●GeForce GTX 200系列产品 技术优势:★★★★★ 市场优势:★★★☆

    但是GT200核心遇到了一些市场定位问题,在性能方面GT200几乎没有任何悬念的击败了上一代高端卡GeForce 9800GTX+,但是过分强化通用计算性能让GT200在图形运算方面无法战胜自家的单核双芯产品GeForce 9800GX2。相反由于更多的即晶体管数量以及512bit的显存位宽,GTX280显卡在成本以及功耗上的表现令人乍舌,NVIDIA的新一代旗舰面对市场叫好不叫座的尴尬……

    实际上GT200在架构方面有很多先进之处,比如说它首次提出“Gaming Beyond和Computing Beyond”将GPU通用计算的地位逐渐提升,让普通用户也开始关注。SIMT和shared memory也让通用计算的编程门槛降低,双精度能力则拓展了GPU通用计算的适用范围,但是图形方面GTX280并没有革命性的改革,产品线方面,NVIDIA最终没有把硕大的芯片做小,而只是在后期改进工艺后推出了GTX260+、GTX275、 GTX285和双芯GTX295产品,没有一款基于GT200架构的GPU能够下探到500元到800元人民币的中低端市场。

    代号RV770的Radeon HD 4870、HD 4850和GT200一样属于第三波次的DirectX 10产品,不过和GT200几乎完全性能先决的策略不同的是,RV770走的是攻占中端市场,避开了NVIDIA旗舰级GT200架构的锋芒,为广大的普通用户创造了极具价值GPU选择方案。

 GPU十年发展历程回顾

    ATI在技术落后的大背景下,推出了市场定位精准的RV770芯片,其代表作Radeon HD 4870显卡获得了ATI进入DirectX10时代以来最广泛的认同。

    ●Radeon HD 4800系列产品 技术优势:★★★★ 市场优势:★★★★★

    RV770拥有10个SIMD Core,每个SIMD Core内的VLIW单元数量为16个,因此从SIMD内核数量看RV770是RV670的2.5倍,而SIMD内核中的运算资源并没有变化,VLIW单元数量从64个增加到160个。因为每个VLIW单元是“1大4小”结构,即一个全功能SP单元和4个仅能执行乘加运算而无法执行连乘运算的部分功能SP。所以整体上RV770拥有800个流处理器。

    RV770运算资源的大幅度扩充带来Shader单元的性能提升,但是让NVIDIA更没有想到的是ATI潜心研究改进了R600以来GPU的后端设计,主要是RBE(Render Back-End)单元,也就是NVIDIA所称的ROP单元。RBE单元主要用来实现多重采样和抗锯齿以提高画质或者降低高画质下GPU的性能衰减。

    除了RBE单元的改进,ATI还做了一项工作,那就是彻底摒弃了一直处于争议的R600 Ringbus环形内存控制器总线,使用AMD擅长的Crossbar总线。Ringbus最大的优势在于可以用最少的晶体管来实现最大的带宽,但是Ringbus的代价是极大地整体延迟和粗糙的数据流动管理。业界公认的最快的互联方式只有Crossbar,NVIDIA虽然承受着高集成度带来的苦恼,但一直坚持使用Crossbar。

    这3方面的改进让Radeon HD 4870成为一款在性能和功耗上表现优秀的GPU,同时不触碰NVIDIA最高端产品的思路让ATI获得了中高端的大量市场份额。加之以往积累下的细分市场经验,Radeon HD 4000系列在中低端也诞生了普通用户能够接受的产品,在多个市场层面形成了对市场的控制和对NVIDIA的冲击。这时的NVIDIA虽然在最高端无忧,但是在主流市场上只能用G92的衍生核心来保护逐渐被ATI抢走的份额。

回到顶部阅读

HD5870快速发布,费米将如何表现

    ●Radeon HD5870快速发布,迟到的费米能有如何表现

    刚刚过去的2009年09月23日,ATI为我们带来了基于DirectX 11的Radeon HD5870显卡。它采用第二代40nm工艺制造、搭载第四代GDDR5显存、拥有1600个流处理器、Eyeinfinty多屏显示技术、超低待机功耗等。最为关键的是Radeon HD5870给了用于一把打开DirectX 11这扇大门的钥匙,同时取得了对NVIDIA上一代顶级单卡Geforce GTX285的全面领先。无论是技术、规格还是性能,ATI用数据说话证明了自己再一次登上GPU王座。


 GPU十年发展历程回顾
图注:带领ATI回到性能王座的Radeon HD5870显卡

    ●Radeon HD 5800系列产品 技术优势:★★★★☆ 市场优势:★★★★

    相比三个前辈,代号RV870的Radeon HD5870在架构上的变化不大。但得益于R600使用的SIMD结构VLIW组织方式流处理器体系的繁殖能力,它的规模再次扩大了2.5倍。量变引起质变,我们只要将R600和RV870进行简单的对比,就不难发现两者之间的巨大落差。RV870的晶体管数量创记录的达到了21亿个,流处理器也从R600时代的320个肆无忌惮的扩充到了1600个。同时纹理单元(TMU)、渲染后端(ROP)的规模也有同步扩张。加上UTDP和带宽节约技术的改进,这显然是一个问世就直奔性能王座而去产品。

    很显然在DX10初代HD2000惨遭失利后,痛定思痛的ATI近几代产品的进步非常大,HD3000率先启用新工艺并支持DX10.1标准,HD4000放弃Ringbus环形总线并首次使用尚未定型的GDDR5显存,HD5000则大踏步进入DX11时代并拿下性能宝座。

    从商业策略而言,RV870继续延承了RV670、RV770的小核心策略,使得其性能/成本比十分突出,使得竞争对手在性能/成本比上很难超越。并且RV870发布也选择了一个十分合适的档期,刚好在NVIDIA GT200和Fermi青黄不接的时候。结果证明R600架构早已不是当年阿斗,在经历了失败镇痛之后它找到了正确的方向,绽放出了夺目的光芒。ATI通过不断的放大芯片规模,加强周边设计,让R600架构起死回生。

 GPU十年发展历程回顾
图注:RV870延续了R600以来的流处理器设计和所有的先进技术

    ATI在确认了HD5870的优势之后,不断细化市场,诞生了以下几个定位卓越市场控制力优秀的产品:HD5970,单卡双芯设计,代表了目前单卡GPU顶级性能;HD5850,高性能级别GPU产品,流处理器数量精简到1440个,让用户可以用更低的价格买到高端GPU;HD5770,拥有和GTX260+相仿的性能,但是999元的售价非常切合主流用户的消费心理;HD5670,超越NVIDIA的GT240,和9800GT平起平坐,价格上具有一定优势;HD5550,在500价位上提供了DirectX11、Eyefinity和Stream等技术支持,320个流处理器让它压制了对手GT220的进攻,超低价格和新技术是主要卖点。

    在Radeon HD5870成功超越NVIDIA上一代顶级单卡之后,GPU大战已经变换了一种模式,用户更多地是在等待。因为从产品更替速度上看,HD5870应该面对的对手不应该是上一代的GT200架构GPU,而应该是本月27日发布的NVIDIA全新架构的GF100费米GPU。

 GPU十年发展历程回顾
图注:除了这张核心照片,我们在费米发布前什么都不能公布

    代号GF100的费米架构GPU在图形方面有以下几个特点值得期待:

    ●由于庞大的运算资源、控制资源和缓存资源的加入,费米在设计之初,就没有考虑过小芯片战略,因为这是不可能做到的。所以即将登场的,是一块集成度高达30亿个晶体管的单管芯封装芯片,这是半导体工业的奇迹

    ●大规模Tessellation细分曲面单元引入费米,带来几何性能大幅提升。在这之前,3D显卡的几何性能的提升过程是非常缓慢的,从GeForce FX 5800到GeForce GTX 285,显卡的像素渲染能力提升了超过150倍,但是几何性能仅仅提升了不到3倍。DirectX 11要求的硬件Tessellation单元改变了这样的状况,费米更是将细分曲面单元做到了你不可思议的规模。

    ●代号RV770的HD4870是AMD非常成功的一款产品,它用最小的晶体管消耗,打击了对手NVIDIA的痛处——GPU后端设计。所以我们看到在开启高倍AA等效果时,GPU的性能衰减能够得到控制。而这次费米架构重点增强了后端,而且力度不小。

    ●过去的GPU在处理游戏中的图形运算时,几乎不能做别的操作。唯一可以做的就是在支持PhysX物理效果的游戏中提供一定的物理运算支持。游戏中的AI(人工智能)、景深、光线追踪等等效果,都是依赖CPU运行的。GPU无法对其进行加速。费米架构引入的游戏计算架构(Compute Architecture for Graphic),打破了这一传统。随着通用计算的盛行,专业领域和民用领域都前途无量,NVIDIA CUDA并行计算架构就会在GF100费米架构中继续发扬光大,而且用途更加广泛,单就游戏而言也是多方面的。

回到顶部阅读

回顾GPU历史 感受经典产品

回顾历史,感受经典

    在删减了大量关于产品架构的分析之后,这篇文章看上去紧凑了很多,线索也愈加明晰。鉴于文章篇幅有限,我们在回顾每个时代的产品时,没有办法做更详细的说明,不过我们采用了打分的方式为您展现了GPU发展10年来每一代产品的技术价值和市场价值。

    在文章末尾,我们再次评比出这10年来最为经典的GPU产品,它们不一定处于最高端,但是它们完美地结合技术和市场优势,向消费者传达了属于那个时代最真实的回忆。

    GPU十年发展中,设计平衡且最受关注的产品:

    ●RivaTNT2:这是大多数资历较深的GPU玩家梦想开始的地方。

    ●Geforce2 MX:它的定位随着时间的前进而逐步后退,却适应了不同层次玩家的需求。

    ●Radeon 8500:ATI需要用它证明自己的实力,高端用户也毫不犹豫地做出选择。

    ●Radeon 7500:虽然只支持DirectX 7,但是让消费者用最低价格体验到多项新技术。

    ●GeForce4 Ti 4200:和高端的产品仅是频率之差,有什么理由不选择价格实惠的Ti4200。

    ●Radeon 9500黄金版:以深厚的技术功底为基础,加一点运气,稍加改动GPU附近的电阻位置,这张卡立刻价值翻倍。

    ●Radeon 9550:当你看到市场上铺天盖地的各种版本Radeon 9550时,消费者才真正体会到做“上帝”的感觉。

    ●GeForce FX 5700:如果你很喜欢这个时代的N卡,还是推荐购买中高端的GeForce FX 5700,它毕竟是在NV35核心上精简而来。

    ●GeForce 6600:在我印象中,曾今一段时间的网吧几乎要被这块GPU吞没了……

    ●Radeon X800GTO:当时的AGP用户升级首选,同时可以通过改造驱动打开4条PS管线。

    ●Geforce 7300GT:当之无愧的低端之王,大量板型和大量品牌都在用这颗GPU。

    ●Radeon X1650XT系列:1000元买到3:1黄金架构,还可享受当时N卡不能实现的HDR+AA,你会觉得有一种成就感。

    ●GeForce 8500GT:虽然它被精简地太厉害,但是初级用户点名就要买它,品牌机厂商也最喜欢它,毕竟不是所有的用户都是专业的GPU玩家……

    ●Radeon HD 3850:新工艺制造的R670核心并且附送DirectX10.1支持,有总比没有强,再说价格也合适。

    ●GeForce 9600GSO:源自高端的G92核心却只卖中端价格,一上市就先砸了自家兄弟9600GT,定位失误让NVIDIA后悔不已,却让消费者捡了大便宜。

    ●GeForce GTX260+:GT200架构的高贵血统,让它很难大幅度降价,不过定价和性能吻合度很高,算是一款性价比出众的显卡

    ●Radeon HD4830:更低的频率让PCB成本得以下降,更多的玩家可以享受到RV770核心带来的体验。

    ●Radeon HD5770:无论是玩DirectX 11还是玩Eyeinfinty三屏显示,HD 5770都可以花最少的钱满足你的要求,并不是所有人都需要HD 5870这样的显卡

    本文侧重分析GPU十年来的图形技术和相关产品,同时我们为这篇文章准备了姊妹篇——《GPU通用计算发展历程与现状》稍后放出,偏重GPU通用计算方向,欢迎有一定知识储备的用户和GPU玩家参考。

———————————————————————————

本文参考文献:

    历史上10款显卡见证NVIDIA起伏15年
    王者归来 NVIDIA历代旗舰级显卡回顾
    风风雨雨21载 ATI经典显示芯片回顾
    从平民到皇帝 NVIDIA产品14年发展回顾
    GPU通用计算发展历程与现状
    16毫米攻防战 RADEON HD 4850测试报告

频道热词:华硕主板  Intel  AMD  
视觉焦点
NVIDIA GeForce 9800M GTX
    显卡评测热点
    排行 文章标题