热点:
    ZOL首页 > 显卡 > 评测 > 正文
    首席编辑
    重温A/N战火 2013年显卡业界技术回顾
      [  中关村在线 原创  ]   作者:
    收藏文章 阅读全文 暂无评论

      ● 面向异构未来——HSA

      HSA(Heterogeneous System Architecture,异构计算架构)并不是一个全新的技术性架构,它最早出现于AMD的融合架构——Fusion当中。在2013年11月13日召开的APU13大会上,AMD宣布了这一面向通用计算架构的最新变化。

      新的HSA架构的主要革新之一在于实现了hUMA(heterogeneous Uniform Memory Access,即异构统一内存寻址),它允许CPU和GPU共用一套MC单元,在同样的寻址规则下共享并互访同一片内存空间,这一过程无需让CPU和GPU之间通过复制数据做“二次”处理,也不需要经由CPU以内存调用命令再次分派给GPU,所以hUMA体系下运算单元的内存访问将会更加高效、顺畅。

    2013技术回顾
    hUMA+hQ

      除此之外,AMD还在HSA中引入了全新的异构任务队列机制hQ(heterogeneous Queueing),它允许不同数据归于统一的任务队列中进行并行计算。GPU的原生设计特点让其可以同时从硬件层面检测10~50个任务队列,为如此巨大的并行能力提供统一的标准任务信息包以及队列的机会,将明显有助于并行计算体系快速获取工作指令并开始高效的处理。

    2013技术回顾
    AMD倾向于更大GPU的融合解决方案

      简单来说,HSA体系的最终目的就是将GPU与CPU连接在了一起,并且让GPU能够直接使用CPU的MC、存储空间以及任务队列来完成运算任务。这么做除了可以节约晶体管降低发热之外,还可以让CPU和GPU直接完成运算数据的交换和共享,为两者的进一步融为一体并完成计算任务打下基础。

    融聚的未来在哪里 APU构架方向发展分析
    树状结构的CS指令在HSA架构中将会更好处理

      如果HSA按正确的路线前进,未来的CPU和GPU在经过代码优化之后将可以分别处理同一个任务的不同部分。而GPU和CPU使用了统一的操作场合之后,运算所需要的横向数据共享将会让今天HSA的工作变得更有意义。我们甚至可以在未来将HSA内部的GPU看作是CPU的一个“浮点运算指令集”,所有针对并行浮点指令进行优化的程序都将像使用其他指令集优化的程序一样,从HSA体系的异构并行计算当中获得极大地浮点性能提升。

    重温A/N战火 2013年显卡业界技术回顾
    第一个HSA架构产品——Kaveri APU

      对于现在而言,HSA的意义还没有看上去那么明显,能够从其中获益的产品还仅限于APU这样的高集成度桌面解决方案,但它的两项重要革新,亦即hUMA和hQ,为未来真正意义上的异构并行计算奠定了最坚实的基础。HSA是属于未来的革新,它不仅为2013年的显卡业界技术革新划上了一个圆满的句号,更为AMD的未来打开了一扇充满希望的大门。

    vga.zol.com.cn true //vga.zol.com.cn/417/4172860.html report 1957   ● 面向异构未来——HSA   HSA(Heterogeneous System Architecture,异构计算架构)并不是一个全新的技术性架构,它最早出现于AMD的融合架构——Fusion当中。在2013年11月13日召开的APU13大会上,AMD宣布了这一面向通用计算架构的最新变化。   新的HSA架构...
    提示:支持键盘“← →”键翻页阅读全文
    本文导航
    不喜欢(0) 点个赞(0)

    推荐经销商

    投诉欺诈商家: 010-83417888-9185
    • 北京
    • 上海

    显卡文章推荐