● NVIDIA云端的骨架
跟Project Shield一样,GRID的基本结构并不复杂,我们不仅熟悉而且甚至可以说是经常见到。GRID的基本结构就是一个由刀片服务器构成的机架,从单纯意义来讲它甚至可以说毫无新意可言。但当我们触及到GRID的细节之后,GRID就显得不那么“普通”了。
NVIDIA VGX Hypervisor
GRID的核心构筑在全新的硬件虚拟化技术——NVIDIA VGX Hypervisor 之上,与传统的刀片服务器不同,GRID的单运算节点由非CPU部分所组成。在每个节点也就是我们通俗理解的每个GRID的“刀片”内,NVIDIA都配置了用于直接处理任务的Tesla K10加速卡,或者我们可以干脆认为每一个节点内都被塞入了开放全部特性的GeForce GTX 690。之所以说是“开放了全部特性的GTX690”,是因为每个Tesla K10都可以以虚拟化硬件的形式同时处理8个并行的渲染任务请求,这让每一个节点都拥有了能够同时面对复数用户节点任务需求的能力。
除了Tesla K10以外,NVIDIA还为GRID准备了另一种概念性的节点解决方案,与2颗GK104芯片的Tesla K10不同,该方案由4颗更小规模的Kepler芯片组成单卡,每颗芯片仅包含1组SMX单元,这种规模让VGX成了更适合轻负载密集任务总数场合的解决方案。
无论更小的VGX还是Tesla K10,由它们构成的GRID都具有统一的特点,那就是以NVIDIA VGX Hypervisor 来完成GPU节点的硬件共享,以此直接面向游戏渲染任务请求提供处理能力,这同时也是GRID区别于普通服务器的最大不同。
GRID的操作过程其实十分传统,节点(无论是智能手机还是平板,甚至可以是一台连上GRID的PC)在产生游戏图形渲染需求之后,只需要将任务通过无线或者有线网络上传到GRID中,直接交给其中的Tesla K10或者VGX进行渲染,在完成后在将结果通过网络传回节点本地,本地所需要的处理仅仅是将结果解码然后完成输出即可。除了游戏渲染任务,GRID还能以同样的步骤应对其他各种渲染类任务的节点请求。
与现有的本地处理模式,即产生渲染需求之后本地CPU将任务交给本地GPU进行渲染然后输出的方式相比,GRID将渲染工作从本地搬到了云端,这一变化不仅让任务处理过程变得更具性能功耗比,同时还大幅解放了本地设备的运算能力和能源消耗情况。在GRID覆盖的范围内,本地节点设备只需要保有能够尽快完成解码和输出操作的运算能力即可,其能源消耗也仅限于解码运算以及呈现过程等方面。
根据NVIDIA公布的数据,常见的家用机完成一帧画面的渲染需要100ms左右的周期,输出延迟则在66ms左右,而由CPU编码图像的云计算解决方案则需要在此基础上加入30ms的编码延迟,75ms的网络传输延迟以及15ms的本地解码延迟,因此完成一帧画面总共需要286ms。与前两者相比,GRID方案中的Tesla K10可以将渲染时间缩短至50ms,而其内置的编码硬件也可以让编码时间缩短至10ms,另外,合作伙伴Gaikai的专利技术还可以让使得网络传输延迟降至30ms,由于直接面向渲染任务,节点本地获得的结果完成度更高,解码只需5ms,显示仍然为66ms,整个渲染及输出总延迟已与家用机平台基本相当了。
基本上,我们完全可以把GRID看作是一个被集约化的显卡集团。用户节点的任务并没有发生变化,处理任务所需要的总运算量亦没有发生变化,它们只是把任务的处理过程从传统的CPU-GPU-屏幕变成了本地节点-GRID-屏幕。显而易见的是,达成这样结果,用户不仅无需再架设强大的本地硬件,节点本地所需要消耗的能耗以及对性能的需求比本地处理要低太多太多了。
推荐经销商