笔者看过很多标准化测试报告,一般来说3DMark 03、3DMark 05给出的测试成绩得分精确到1/1000,而各种平均帧速度测试给出的结果至少精确到1帧/秒或者0.1帧/秒,有些甚至精确到0.01帧/秒。我想问的是,这样的精度差异我们能够分辨出么?或者说,依靠人类的分辨率,什么样的误差是在允许范围内?
结合笔者多年显卡使用、评测经验,笔者认为至少在5%之内显卡性能的区别人类是无法通过肉眼观察所能区别出来的。也就是说,显卡测试的精度只要能够达到5%以内就完全符合实际需求。换而言之,对于类似3DMark之类的标准化评测软件来说,尽管其精度可以达到1/1000甚至更高,但采用百分制完全足以满足精度需求。也就是说,3DMark能够测试出得分为3950和4000分显卡之间的速度差异,但这两块显卡对于用户来说性能是完全没有区别的!您不同意笔者的观点,没关系,回顾一下上一页我们讨论过的问题,显卡的速度并不取决于平均帧速度,而是主要取决于最低帧速度。
下面我们一同观察一下这两组测试成绩:
没错,尽管这两块显卡性能完全一样,但在两幅图中,给读者的感觉确是完全不同的。在图1中,两块显卡给人的感觉的确是性能非常接近,但在图2中,读者的第一感是否觉得“某品牌高档显卡”的性能完全超过了对比显卡?这样的错觉是如何造成的呢?仔细观察后问题就很明显了。这里数据并没有任何错误,实际上,图2是通过选用不同的坐标轴和原点将微小的数值差距放大后的结果。也就是说,图2中,原点的选择并不是图1中的零点,而是将3900这个数值点作为原点,从而将坐标轴放大了33倍,实际上图2中坐标轴真正的零点并不是它的原点,而是在图2坐标轴左侧,大约33倍坐标轴长度上的某点。
笔者不得不承认,这样做的确非常精明,既没有篡改数据又没有编造事实,不过是通过改变坐标轴而将不存在的性能差距展示得非常明显。但是除了给读者更多的心理暗示外,这样做对于纯粹的评测来说,有什么意义么?笔者还要强调一下,得分为3950和4000分显卡之间性能是完全没有区别的。