摩尔定律已死?GPU会取代CPU的位置吗?

  • 时间:
  • 浏览:1

北京举办的NVIDIA GTC China会议中,无论是AI智能运算,还是服务器数据中心、智能城市,甚至还有去年很火热怎么让前一天全都 人前一天支撑不下去的虚拟现实,看起来在全都 内心中依然是属于图形行业代表的NVIDIA前一天变得那么丰满,不过在那些新闻的转过身,似乎还有更大胆的预言:摩尔定律已死,GPU最终会取代CPU。

(1)计算密集型的系统进程。所谓计算密集型(Compute-intensive)的系统进程,后来我其大主次运行时间花在了寄存器运算上,寄存器的传输速度和防止器的传输速度相当,从寄存器读写数据几乎那么延时。可不还可以 做一下对比,读内存的延迟大慨是几百个时钟周期;读硬盘的传输速度就不说了,即便是SSD, 也着实 是太慢了。 

那些类型的系统进程适合在GPU上运行? 

从上图可不还可以 看出:Cache, local memory: CPU > GPU Threads(系统进程数): GPU > CPURegisters: GPU > CPU 多寄存器可不还可以 支持非常多的Thread,thread可不还可以 用到register,thread数目大,register也可不还可以 得跟着很大才行。SIMD Unit(单指令多数据流,以同步辦法 ,在同一时间内执行同四根指令): GPU > CPU。 CPU 基于低延时的设计:

CPU和GPU这人 大不相同,是前一天其设计目标的不同,它们分别针对了这人 不同的应用场景。CPU可不还可以 很强的通用性来防止各种不同的数据类型,一齐又要逻辑判断又会引入几瓶的分支跳转和生断的防止。那些都使得CPU的内部人员行态异常简化。而GPU面对的则是类型深度图统一的、相互无依赖的大规模数据和那么被打断的纯净的计算环境。  于是CPU和GPU就呈现出非常不同的架构

(2)易于并行的系统进程。GPU着实 是这人 SIMD(Single Instruction Multiple Data)架构, 他有成百上千个核,每俩个多 核在同一时间最好能做同样的事情。

尽管这人 趋势前一天持续了超过半个世纪,摩尔定律仍应该被认为是观测或推测,而全是 俩个多 物理或自然法。预计定律将持续到大慨2015年或2020年 。然而,2010年国际半导体技术发展路线图的更新增长前一天放缓在2013年年底,前一天的时间里晶体管数量密度预计只会每三年翻一番。

摩尔定律是由英特尔(Intel)创始人之一戈登·摩尔(Gordon Moore)提出来的。其内容为:当价格不变时,集成电路上可容纳的元器件的数目,约每隔18-2俩个多 月便会增加一倍,性能也将提升一倍。换言之,每一美元所能买到的电脑性能,将每隔18-2俩个多 月翻一倍以上。这人 定律揭示了信息技术进步的传输速度。

GPU是基于大的吞吐量设计。GPU的特点是有全都 的ALU和很少的cache. 缓存的目的全是 保存顶端可不还可以 访问的数据的,这点和CPU不同,后来我为thread提高服务的。前一天有全都 系统进程可不还可以 访问同俩个多 相同的数据,缓存会合并那些访问,怎么让再去访问dram(前一天可不还可以 访问的数据保趋于稳定dram中而全是 cache顶端),获取数据后cache会转发这人 数据给对应的系统进程,这人 前一天是数据转发的角色。怎么让前一天可不还可以 访问dram,自然会带来延时的问题图片。GPU的控制单元(左边黄色区域块)可不还可以 把多个的访问合并成少的访问。GPU的着实 有dram延时,却有非常多的ALU和非常多的thread. 为啦平衡内存延时的问题图片,当我们歌词 当我们歌词 可不还可以 中充分利用多的ALU的行态达到俩个多 非常大的吞吐量的效果。尽前一天多的分配多的Threads.通常来看GPU ALU会有非常重的pipeline后来我前一天那么 。全都 与CPU擅长逻辑控制,串行的运算。和通用类型数据运算不同,GPU擅长的是大规模并发计算,这也正是密码破解等所可不还可以 的。全都 GPU除了图像防止,也越多的参与到计算当中来。