回到本文最初的那个问题,两块显卡在同样平台、同样条件下运行游戏,一个平均速度是150帧/秒,另一个是160帧/秒,这两块显卡有区别么?实际上对于多数人来说,这是没区别的,因为人眼最大分辨速度大约50~100ms,也就是说,当图像连续速度超过30帧/秒的时候,人眼就会认为画面是连续的,所以包括电视画面在内大多数视频的连续播放速度都是30帧/秒。此外,对于CRT显示器来说,其刷新速度最多100 Hz,也就是说每秒最多显示100张画面,而对于LCD显示器来说,这个速度降为60 MHz。那么是不是对于显卡来说,30帧/秒的速度就足够了呢?需要注意的是,这里笔者提到的是连续播放速度,而不是平均速度。对于实际3D游戏来说,由于不同画面渲染工作量差别极大,不可能像播放媒体流那样速度均一,所以对显卡的品均运行速度来说30帧/秒并不代表最佳性能。
其实,对于不同类型的游戏,平均帧速度的要求并不是完全相同的。例如对于CS-S这类激烈的第一人称3D对战游戏,根据笔者多年的经验,45帧/秒的速度已经基本能够保证流畅运行,而当速度达到60帧/秒的时候,我们的感觉已经是非常流畅了。笔者可以负责地告诉您,无论您是多么专业的玩家,无论您的水平有多高,您永远不会发现120帧/秒和110帧/秒之间所谓“庞大”的速度差别,即使您认为您能够分出它们之间的差别,这也将是纯粹的心理作用。但是尽管所有人都明白这个道理,一些别有用心的媒体或是厂商,总是如此炒作,经常会看到这样的比较:“A卡的测试成绩是98.4帧/秒,比测试成绩为91.5帧/秒的B卡快出7.5%之多。”但是这样的比较在实际游戏中是没有任何意义的,因为在实际游戏中,两者之间的差距我们无法用肉眼感觉到,也就是说,这两款显卡的“性能”是完全相同的!
也许您会说,的确这个差距我们无法认知其存在,但是这两块显卡如果运行在更苛刻的条件下,性能差距就会被我我们感知啊。对的,是这样的!但是这里出现了概念偷换。别忘了,在这里,测试条件已经被改变了,也就是说原来九十多帧/秒的测试条件是不合理的,那么为什么测试者不选择一个更加合理并能够反映出显卡性能差距的测试条件呢?!您还会强调,一般来说性能差异会随着测试条件改变而成比例的改变。但别忘了,这句话中“一般来说”这四个字是无法省略掉的。也就是说,有(至少理论上有)这种可能,一块显卡在分辨率1024*768@32bit时的测试成绩会达到100帧/秒,但当测试条件提升至分辨率为1280*1024@32bit时,测试成绩仅为2帧/秒(当然这是笔者有意的夸张)。所以,如果您认为测试的平均帧数或其加权品均作为显卡是及性能的反映是合理的话,那么至少这个测试成绩的差别是您能够观察到的。
平均帧速度也有其重要性,因为对于目前显卡来说,平均帧速度较大的差距还是能够基本体现出性能差异的,例如运行某游戏,平均速度45帧/秒的显卡一定要比平均速度15帧/秒的显卡快。但是,笔者要强调的是,这种差异一定要产生在合理范围内,我们可以认为平均45帧/秒和平均15帧/秒速度相差很大,但是我们(至少是笔者)可以认为平均450帧/秒和平均150帧/秒在速度上是完全相同的,因为它超过了感知的极限。