第75章 Alpha(2/2)
br /
从这里就可以看出,在性能和成本之间,dec公司没有做好两者间的平衡,太过于追求高性能,从而忽视了普通用户的经济承受能力,这也是最终失败的根本原因之一。
虽然失败了,但作为当初桌面cpu的绝对王者,却深深的影响了后来cpu的设计潮流,比如说是世界第一款支持多媒体协议的处理器,后来的公司发布的、赛扬以及后来的酷睿系列,都加入了支持多媒体的技术协议,甚至就连和都支持多媒体协议技术,如果哪款处理器不对多媒体协议进行支持,那么这款处理器在市场上就根本卖不出去。
也是第一款符合80/20法则的cpu,所谓的80/20法则(二八法则)是由意大利经济家帕累托提出的,也就是大家所熟悉的帕累托定律。
即,80%的结果,来自20%的原因;20%的努力,常产生80%的结果,或者是80%的财富且被20%的人所掌握。
而这一法则在cpu当中同样适用,众所周知,微处理器的基本逻辑是运行指令的电路,计算机的任何一个程序都是由或多或少的基本指令组成,而指令本身又是由若干个微操作构成,例如对两个二进制数进行加减运算,或者将结果送进寄存器中等等。
这些基本指令被称为微处理器的微代码,指令数量越多、完成微操作所需的逻辑电路就越多,芯片的结构就越复杂。
cisc的英文全称是,意为“复杂指令系统计算机”。它的特点是指令数量庞大臃肿,每个指令不管执行频度高低都处于同一个优先级,程序员的编程工作相对容易。但它的致命弊端是执行效率低下,处理器的晶体管被大量低效的指令所占据,资源利用率颇为低下。
早在上个世纪60年代,计算机科学家就发现,计算机中80%的任务只是动用了大约20%的指令,而剩下20%的任务才有机会使用到其他80%的指令。
risc处理器就是在这样的背景下诞生的,由于指令高度简约,risc处理器的晶体管规模普遍都很小而性能强大,深受超级计算机厂商所青睐。
它的应用范围也远比x86来得广泛,大到各种超级计算机、工作站、高阶服务器,小到各类嵌入式设备、家用游戏机、消费电子产品、工业控制计算机,都可以看到risc的身影。只不过这些领域同普通消费者较为脱离,故而少为人知。
无论在执行效率、芯片功耗还是制造成本上,选择risc都比沿用x86更加英明。
我们不妨作一番实际的比较:以公司的为标准,,它的晶体管总数在1亿7800万个以上,最高功耗达到130w,但它的运算能力不超过,每秒浮点运算)。
而与他同期推出的risc处理器是ibm推出的cell,它的晶体管总数为2.34亿个,在采用90纳米工艺制造时芯片面积为221平方毫米,但它的运算力高达,整整是的128倍。
inte在在年中推出双核心的,性能最多能有80%的提升,而芯片规模将达到与cell相同的水平。由此可见,二者完全不是一个层面上的对手,x86指令系统的低效性在这里一览无遗。
pc钟情于x86的原因在于软件兼容,尤其是微软只为ows系统,这也被认为是pc采用risc架构的最大障碍。
而且打破了这个常规,它的理论基础也是着名的80/20法则,与传统的不同,另辟蹊径,提出了一个全新的发展思路,将20%的常用指令定义为“热代码()”,剩余的80%指令使用频率没那么高,被定义为“冷代码()”。
对应的cpu也在逻辑上被划分为两个部分:一是热核(),只针对调用到热代码的程序;另一部分则是冷核(),负责执行20%的次常用任务。
由于热核部分要执行80%的任务,设计者便可以将它设计得较为强大,占据更多的晶体管资源。而冷核部分任务相对简单,没有必要在它身上花费同样的功夫。
而这也就是cpu历史上赫赫有名的双核的慨念,我们现在所使用的双核和多核处理器,就是由最早提出来的。
事实上,x86处理器一直都从risc产品中获取灵感,包括ev6总线、整合内存控制器、超线程技术、双核心等等新技术新概念都是首先在risc产品中得到成功应用,之后才被引入到x86处理器当中。实践证明,这种做法往往对x86处理器的性能提升有着决定性的影响,而从risc汲取营养也就成为x86业界的习惯做法。
创造了一种崭新的双核概念,过去我们谈论的双核心指的是在一枚芯片内集成两个对等的cpu内核,通过并行运算获得性能增益,我们可以将它看作是横向维度的对等设计。
而则是一种纵向维度的双核理念,热核与冷核地位并不对等,且无法独立运作,只能说是一个cpu内核中的两部分分立逻辑。它所起到的是提高cpu的硬件资源利用率,以高执行效率达到高效能的目的,这种做法显然比目前业界鼓吹的“双核心”更具革命意义。
后来的酷睿系列基本上沿袭了的设计思路,由此可见,对后来的cpu发展带来了多么广泛的影响。