● GRID——NVIDIA的"云"
跟Shield一样,GRID的基本结构也不算不复杂,我们不仅熟悉而且甚至可以说是经常见到。GRID的基本结构就是一个由刀片服务器构成的机架,从单纯意义来讲它甚至可以说毫无新意可言。但当我们触及到GRID的细节之后,GRID就显得不那么“普通”了。
GRID的核心构筑在全新的硬件虚拟化技术——NVIDIA VGX Hypervisor 之上,与传统的刀片服务器不同,GRID的单运算节点由非CPU部分所组成。在每个节点也就是我们通俗理解的每个GRID的“刀片”内,NVIDIA都配置了用于直接处理任务的Tesla K10加速卡,或者我们可以干脆认为每一个节点内都被塞入了开放全部特性的GeForce GTX 690。之所以说是“开放了全部特性的GTX690”,是因为每个Tesla K10都可以以虚拟化硬件的形式同时处理8个并行的渲染任务请求,这让每一个节点都拥有了能够同时面对复数用户节点任务需求的能力。
无论更小的VGX还是Tesla K10,由它们构成的GRID都具有统一的特点,那就是以NVIDIA VGX Hypervisor 来完成GPU节点的硬件共享,以此直接面向游戏渲染任务请求提供处理能力,这同时也是GRID区别于普通服务器的最大不同。
GRID的操作过程其实十分传统,节点(无论是智能手机还是平板,甚至可以是一台连上GRID的PC)在产生游戏图形渲染需求之后,只需要将任务通过无线或者有线网络上传到GRID中,直接交给其中的Tesla K10或者VGX进行渲染,在完成后在将结果通过网络传回节点本地,本地所需要的处理仅仅是将结果解码然后完成输出即可。除了游戏渲染任务,GRID还能以同样的步骤应对其他各种渲染类任务的节点请求。
与现有的本地处理模式,即产生渲染需求之后本地CPU将任务交给本地GPU进行渲染然后输出的方式相比,GRID将渲染工作从本地搬到了云端,这一变化不仅让任务处理过程变得更具性能功耗比,同时还大幅解放了本地设备的运算能力和能源消耗情况。在GRID覆盖的范围内,本地节点设备只需要保有能够尽快完成解码和输出操作的运算能力即可,其能源消耗也仅限于解码运算以及呈现过程等方面。
根据NVIDIA公布的数据,常见的家用机完成一帧画面的渲染需要100ms左右的周期,输出延迟则在66ms左右,而由CPU编码图像的云计算解决方案则需要在此基础上加入30ms的编码延迟,75ms的网络传输延迟以及15ms的本地解码延迟,因此完成一帧画面总共需要286ms。与前两者相比,GRID方案中的Tesla K10可以将渲染时间缩短至50ms,而其内置的编码硬件也可以让编码时间缩短至10ms,另外,合作伙伴Gaikai的专利技术还可以让使得网络传输延迟降至30ms,由于直接面向渲染任务,节点本地获得的结果完成度更高,解码只需5ms,显示仍然为66ms,整个渲染及输出总延迟已与家用机平台基本相当了。
基本上,我们完全可以把GRID看作是一个被集约化的显卡集团。用户节点的任务并没有发生变化,处理任务所需要的总运算量亦没有发生变化,它们只是把任务的处理过程从传统的CPU-GPU-屏幕变成了本地节点-GRID-屏幕。显而易见的是,达成这样结果,用户不仅无需再架设强大的本地硬件,节点本地所需要消耗的能耗以及对性能的需求比本地处理要低太多太多了。
GRID的深层次意义同Shield一样,都是富有开创性同时能够对业界产生充分震动的。GRID不仅可以开创一种全新的云计算应用模式,即直接从云端完成的实时游戏图形渲染的“云游戏”模式,让Shield等个人移动节点设备获得更好的施展空间,甚至还可以改变传统PC平台中显卡的命运——GRID并不是一个局限于无线移动节点的上层应用环境,有线网络和PC节点同样可以连接到GRID上并完成任务的非本地处理工作,无论游戏还是图形渲染工业,GRID都将改变这些原本同显卡息息相关的领域的面貌。
NVIDIA能否驾驭包括GRID在内的庞大新生态?
GRID代表了NVIDIA的巨大野心,它的背后是一个衔接了掌机/移动智能平台、传统PC硬件、通用计算体系以及软件体系的庞大网络,NVIDIA现在可以通过自身的GPU产品线、通用计算产品线以及SoC芯片来打造一套完全属于自己而且可以在体系内部形成彼此促进关系的生态系统。除此之外,GRID还将触角伸向了传统芯片供应商很少触及的网络底层,如果仅维持在局域有限网络接入,而非更广域的无线互联网/广域有线网络接入,GRID的命运将同“没有PC的Shield”一样。所以可以想见,NVIDIA在不久的将来应该会开始向网络运营商层面的渗透,将GRID作为更广域的云计算结局方案进行推广。这种介入并不一定能确定获得成功,但肯定会给NVIDIA的未来带来更多的机会和更多样化的可能性。
推荐经销商