注册 登录  
 加关注
   显示下一条  |  关闭
温馨提示!由于新浪微博认证机制调整,您的新浪微博帐号绑定已过期,请重新绑定!立即重新绑定新浪微博》  |  关闭

春风十里不如你

人间至味是清欢

 
 
 

日志

 
 

CPU主要技术指标:频率及高速缓存等等  

2014-08-07 16:59:20|  分类: 电脑 |  标签: |举报 |字号 订阅

  下载LOFTER 我的照片书  |
 

    1.频率

    (1)主频

    主频是CPU内核运行时的时钟频率,即CPU的时钟频率(CPU Clock Speed)。通常,主频越高,CPU的速度就越快。

    (2)外频

    外频又称外部时钟频率,这个指标和计算机系统总线的速度一致。外频越高,CPU的运算速度越快。外频是制约系统性能的重要指标,100MHz外频之下的Celeron 800MHz比66MHz外频之下的Celeron 800MHz运行速度快。目前CPU的外频主要有133MHz、200MHz、266MHz和 333MHz。

    (3)前端总线频率FSB(EfontSideBus)

    前端总线是CPU和北桥芯片之间的通道,负责CP[J与北桥芯片之间的数据传输,其频率高低直接影响CPU访问内存的速度。如果主板不支持CPIJ所需要的前端总线频率,系统就无法工作。也就是说,需要主板和CPU都支持某个前端总线频率,系统才能工作。

    (4)倍频

    计算机在实际运行过程中的速度不但由CPU的频率决定,而且还受到主板和内存速度的影响,并受到制造工艺和芯片组特性等的限制。由于内存和主板等硬件的速度大大低于CPU 的运行速度,因此为了能够与内存、主板等保持一致,CPU只好降低自己的速度,这就出现了外频。倍频指CPU的时钟频率和系统总线频率(外频)间相差的倍数,倍频越高,时钟频率就越高。在286时代,还没有倍频的概念,CPU的时钟频率和系统总线一样。随着计算机技术的发展,内存、主板和硬盘等硬件设备逐渐跟不上CPIJ速度的发展,而CPU的速度理论上可以通过倍频无限提升,CPU时钟频率=外频×倍频。

    (5)超频

    在倍频一定的情况下,要提高CPU的运行速度只能通过提高外频来实现;在外频一定的情况下,提高倍频也可以实现目的。所谓“超频”,就是通过提高外频或倍频实现的。 Intel的Core 2 Duo架构十分适合超频,发热量比较低,也比较省电,建议选择45nm架构来超频。此外,主频较低的CPU比较适合超频,比如,同样是Core 2 Duo E7000系列,E7200与 E7400是完全相同的内部结构,只是工作频率上的差别,超频所能达到的极限也非常接近,所以超频到同样的频率,原始主频低的CPU产品超频幅度要更大一些。

    超频CPU,超倍频是最佳方案。但有的厂家为防止超频,将CPU的倍频锁定了,如Intel 大部分的CPU都是锁了倍频的。那么对于这种CPU,只能通过提升外频来进行超频。而提高系统外频,其他设备的外频也会提高,这样超频能力就会受到更多因素的影响。而不锁倍频的CPU,可以直接通过提高倍频的方式去超频,不会对其他部分造成太大影响,超频要相对容易一些。

    2.高速缓存

    高速缓存是一种速度比内存更快的存储设备,其功能是减少CPIJ因等待低速设备所导致的延迟,进而改善系统性能。它一般集成于CPU芯片内部,用于暂时存储CPU运算时的部分指令和数据。高速缓存分为L1 Cache(一级高速缓存)、L2 Cache(二级高速缓存)和L3 Cache(三级高速缓存)。

    高速缓存的工作原理是当CPU要读取一个数据时,首先从高速缓存中查找,如果找到就立即读取并送给CPU处理;如果没有找到,就用相对慢的速度从内存中读取并送给CPU处理,同时把这个数据所在的数据块调入高速缓存中,可以使得以后对整块数据的读取都从高速缓存中进行,不必再调用内存。正是这样的读取机制使CP[J读取高速缓存的命中率非常高(大多数CPU可达 90%左右),也就是说CPU下一次要读取的数据90%都在高速缓存中,只有大约10%需要从内存读取。这大大节省了CPU直接读取内存的时间,也使CPU读取数据时基本无需等待。

    最早先的CPU高速缓存是一个整体,而且容量很低,Intel公司从Pentium时代开始把高速缓存进行了分类。当时集成在CPU内核中的高速缓存已不满足CPU的需求,而制造工艺上的限制又不能大幅度提高高速缓存的容量。因此出现了集成在与CPU同一块电路板上或主板上的高速缓存,此时就把CPU内核集成的高速缓存称为一级高速缓存,而外部的称为二级高速缓存。二级高速缓存的容量和工作速度对提高计算机速度起关键作用。从理论上讲,在一颗拥有二级高速缓存的CPU中,读取一级高速缓存的命中率为80%。也就是说CPU一级高速缓存中找到的有用数据占数据总量的800%,剩下的20%从二级高速缓存中读取。由于不能准确预测将要执行的数据,读取二级高速缓存的命中率也在80%左右(从二级高速缓存读到有用的数据占总数据的16%)。那么还有的数据就不得不从内存调用,但这已经是一个相当小的比例了。目前较高端的CPU中,还会带有三级高速缓存,它是为读取二级高速缓存后未命中的数据设计的—种高速缓存,在拥有三级高速缓存的CPU中,只有约5%的数据需要从内存中调用,这进一步提高了CPU的效率。

 3.CPU的指令集

    在CPU新技术发展中,最引人瞩目的就是指令集的不断推陈出新。为增强计算机在多媒体、 3D图像等方面的应用能力而产生了MMX、3DNow!、SSE、SSE2、SSE3、SSE4等新指令集。

    (1)MMX技术

    MMX(Multi Media eXtension)指令集是Intel公司开发的多媒体扩充指令集,共有57条指令,该技术一次能处理多个数据。通常用于动画再生、图像加工和声音合成等处理。在多媒体处理中,对于连续的数据必须进行多次反复的相同处理。利用传统的指令集,无论是多小的数据,一次也只能处理一个数据,因此耗费时间较长。为了解决这一问题,在MlVlX中采取SIMD(单指令多数据技术),可对一条命令多个数据进行同时处理,它可以一次处理64bit 任意分割的数据。其次,是数据可按最大值取齐。

    MMX的另一个特征是在计算结果超过实际处理能力的时候也能进行正常处理。若用传统的x86指令,计算结果一旦超出了CPU处理数据的限度,数据就要被截掉,而化成较小的数。而 MMX利用所谓“饱和”(Saturation)功能,圆满地解决了这个问题。计算结果一旦超过了数据大小的限度,就能在可处理范围内自动变换成最大值。

    (2)3DNow!技术

    3DNow!指令集是AMD公司在K6一II、K6-Ⅲ和K7处理器中采用的技术,也是为了处理多媒体而开发的。3DNow!技术实际上是指一组机器码级的扩展指令集(共21条指令)。这些指令仍然以SIMD(单指令多数据技术)的方式实现一些浮点运算、整数运算和数据预取等功能。而这些运算类型(尤其是浮点运算)是从成百上千种运算类型中精算出来的,并在3D处理中最常用的。 3DNow!侧重的是浮点运算,因而主要针对三维建模、坐标变换和效果渲染等三维应用场合。 3DNow!指令不仅以SIMD方式运行,而且可以在两个暂存器的执行通道内以一个时钟周期同时执行两个3DNow!指令的方式运行,即每个时钟周期可执行4个浮点运算,这就是AMD K6.1I 能大幅度提高3D处理性能的原因。

    (3)SSE指令

    SSE(Streaming SIMD Extensions)指令集指Intel公司在Pentium III处理器中添加的70条新的指令,又称为“MMX 2指令集”。它可以增强CPU的三维和浮点运算能力,并让原来支持MMX 的软件运行得更快。SSE指令可以兼容以前所有的MMX指令,新指令还包括浮点数据类型的 SIMD,CPU会并行处理指令,因而在软件重复做某项工作时可以发挥很大优势。 与之相比,MMX所提供的SIMD仅对整数类型有效。众所周知,三维应用与浮点运算的关系很密切,强化了浮点运算即是加快了三维处理能力,在进行变换3D坐标(特别是同时变换几个)工作时,SIMD会在一秒钟内做出更多的操作,所以利用SIMD浮点指令将得到更高的性能,它能进一步加强对场景渲染,实时影子效果和倒映之类的效果。对于用户来说,这意味着3D物体更生动,表面更光滑,“虚拟现实”更“现实”。

    SSE指令可以说是将Intel公司的MMX和AMD公司的3DNow!技术相结合的产物,由于 3DNow!使用的是浮点寄存方式,因而无法较好地同步进行正常的浮点运算。而SSE使用分离的指令寄存器,从而CPU可以全速运行,保证了与浮点运算的并行性。更大的区别是两者所使用的寄存器可以保存的二进制数据的位数差异颇大,3DNow!是64位,而SSE是128位。 3DNow!和SSE虽然彼此并不兼容,但它们却很相似。究其实质,都试图通过SIMD技术来提高CPU的浮点运算能力;它们都支持在一个时钟周期内同时对多个浮点数据进行处理;都有支持如MPEG解码之类专用的多媒体指令。

    (4)SSE 2指令

    SSE 2指令集集成在Imel公司的Pentium 4中,以加快3D、浮点以及多媒体程序代码的运算性能,该指令集内包括144条指令。 (5)SSE 3指令 SSE 3指令是Intel公司在Prescott处理器中添加的13条新命令,后来正式命名为“SSE 3 指令”。

    (6)SSE 4指令

    SSE 4指令增加了50条新的性能指令,这些指令有助于程序编译,媒体、字符、文本处理和程序指向加速。实际上,Core构架中的Core 2 Duo处理器就在SSE 3指令中增加了32条附加流媒体指令。但是这些指令被命名为Supplimental Streaming SIMD,并不属于SSE 4指令。

    (7)SSE 5指令

    SSE5是ANK)为了打破Intel垄断在处理器指令集的独霸地位所提出的,SSE5初期规划将加入超过100条新指令,其中最引人注目的就是三算子指令(3-Operand Instructions)及熔合乘法累积(Fused Multiply Accumulate)。其中,三算子指令让处理器可将一个数学或逻辑函式库,套用到算子或输入资料。借由增加算子的数量,一个x86指令能处理二至三笔资料,SSE5允许将多个简单指令汇整成一个指令,达到更有效率的指令处理模式。提升为三运算指令的运算能力,是少数RISC架构的水平。熔合乘法累积让允许建立新的指令,有效率地执行各种复杂的运算。熔合乘法累积可结合乘法与加法运算,透过单一指令执行多笔重复计算。透过简化程式码,让系统能迅速执行绘图着色、快速相片着色、音场音效,以及复杂向量演算等效能密集的应用作业。

4.CPU的工作电压

    CPU的工作电压是指CPIJ正常工作所需的电压,提高工作电压,可以加强CPU内部信号,增加CPU的稳定性能,但会导致CPU的发热问题,CP[J发热将改变CPU的化学介质,降低CPU 的寿命。早期CPU工作电压为5v,随着CPU制造工艺的提高,近年来各种CPU的工作电压有逐步下降的趋势,目前台式机用CPU核电压通常为2V以内,最常见的是1.3~1.5V的。CPU内核工作电压越低则表示CPU制造工艺越先进,也表示CPU运行时耗电越少。

    CPU内核电压的高低主要取决于CPU的制造工艺,也就是平常所说的,45nm和32nm等。制造芯片时的“hid”值越小表明CPU的制造工艺越先进,CPU运行时所需要的内核电压越低, CPU相对消耗的能源就越小。例如,早期的PentiumⅡ采用350nm制造工艺,所以其内核工作电压达到2.8V,而后来PentiumⅢ改用250nm制造工艺,所以内核工作电压也相继降为2.0V。采用130nm制造工艺的Pemium 4处理器,其内核工作电压为1.5V。采用65nm或45nm制造工艺的Core 2 Duo处理器的内核工作电压为0.85~1.35V。而Core i系列处理器的核心各个核心可以运作于不同的频率和电压下,处理器会自行关闭用不上的核心,这样电流可以完全不通过此核心,使得处理器更加省电。

    5.地址总线宽度、数据总线宽度

     (1)地址总线宽度

    地址总线宽度决定了CPU可以访问的物理地址空间,对于486以上的微机系统,地址总线的宽度为32位,最多可以直接访问4 096MB的物理空间。目前,主流CPU的地址总线宽度为64 位,可以访问8GB的物理地址空间。

    (2)数据总线宽度

    数据总线宽度决定了CPU与二级高速缓存、内存以及输入/输出设备之间的一次数据传输的宽度,386、486为32位,Pemium以上的CPtJ数据总线宽度为2×32位=64位,一般称为准64 位。目前,主流CPU的数据总线宽度为64位。

    6.生产工艺

    通常可以在CPU性能列表上看到生产工艺一项,其中有45nm或32nm等,这些数值表示了集成电路中导线的宽度。生产工艺的数据越小,表明CPU的生产技术越先进,CPU的功耗和发热也就越小,集成的晶体管也就越多,CPU的时钟频率也就能做得越高。 早期的486和Pentium等CPU的制造工艺水平比较低,为350nm或600nm。后来的Celeron、 CeleronⅡ、PentiumⅡ和PentiumⅢ则为250m或180nm,Pentium 4为130nm,Pentium D为90nm,Core 2 Duo为65nm或45nm,Core i系列为45nm或32nm。

    7.CPU的封装

    一般来说,处理器主要由两部分构成:硅质核心和将其核心与其他处理器部件连接的封装。所谓封装是指安装半导体集成电路芯片用的外壳,通过芯片上的接点用导线连接到封装外壳的引脚上,这些引脚又通过印制电路板上的插槽与其他器件相连接。它起着安装、固定、密封、保护芯片及增强电热性能等方面的作用,而且是沟通芯片内部与外部电路的桥梁,其复杂程度很大程度上决定了处理器的结构特性。 QFP封装即方型扁平式封装技术(Plastic Quad F1at Pockage),该技术实现的CPU芯片引脚之间距离很小,引脚很细,一般大规模或超大规模集成电路采用这种封装形式,其引脚数一般都在100以上。该技术封装CPU时操作方便,可靠性高;而且其封装外形尺寸较小,寄生参数减小,适合高频应用;该技术主要适合用SMT表面安装技术在 PCB上安装布线。

    PLGA是PlasticLandGridArray的缩写,简称LGA,即塑料焊盘栅格阵列封装。它用金属触点式封装取代了以往的针状引脚,因此采用LGA封装的处理器在安装方式上也与以往的产品不同,它并不能利用引脚固定CPU,而是需要一个安装扣架,让CPU可以正确地压在Socket露出来的弹性触须上。Imel公司的LGA 775和LGA 1366等酷睿系列CPU 就是这种封装形式。 mPGA即微型PGA封装,是一种先进的封装形式。目前只有AMD公司的Athlon 64系列CPU产品采用,而且多是高端产品。

    8.超线程技术

    超线程(Hyper-Tbreading)技术是Intel公司的创新技术。在一颗实体处理器中放人两个逻辑处理单元,让多线程软件可在系统平台上平行处理多项任务,并提升处理器执行资源的使用率。使用这项技术,处理器的资源利用率平均可提升40%,大大增加了处理器的可用性。

    对支持多处理器功能的应用程序而言,超线程处理器被视为两个分离的逻辑处理器。应用程序无须修正就可使用这两个逻辑处理器。同时,每个逻辑处理器都可独立响应中断。第一个逻辑处理器可追踪一个软件线程,而第二个逻辑处理器则可同时追踪另一软件线程。另外,为了避免CPU处理资源冲突,负责处理第二个线程的那个逻辑处理器,其使用的是仅是运行第一个线程时被暂时闲置的处理单元。因此不会产生一个线程执行的同时,另一个线程闲置的状况。这种方式将会大大提升每个实体处理器中的执行资源使用率。

    使用这项技术后,每个实体处理器可成为两个逻辑处理器,让多线程的应用程序能在每个实体处理器上平行处理线程层级的工作,提升了系统效能。2009年,Intel公司的新一代顶级处理器 Core i7也支持超线程技术,超线程技术令Core i7可以由四核模拟出八核。 虽然采用超线程技术能够同时执行两个线程,但它并不像两个真正的两颗处理器那样,每个处理器都具有独立的资源。当两个线程都同时需要某一个资源时,其中一个要暂时停止,并让出资源,直到这些资源闲置后才能继续。因此超线程的性能并不等于两颗处理器的性能。

    需要注意的是,含有超线程技术的处理器需要软件支持,才能比较理想的发挥该项技术的优势。目前微软的操作系统中支持此功能的软件包括:Windows XP专业版、Windows Vista、Windows 7、Windows server 2003、Windows Seiwer 2008。一般来说,只要能够支持多处理器的软件均可支持超线程技术,但是实际上这样的软件并不多,而且偏向于图形、视频处理等专业软件方面,游戏软件极少有支持的。因为超线程技术是对多任务处理有优势,因此当运行单线程应用软件时,超线程技术将会降低系统性能,尤其在多线程操作系统运行单线程软件时将容易出现此问题。在打开超线程支持后,如果一个单处理器以双处理器模式工作,那么处理器内部缓存就会被划分成几区域,互相共享内部资源。对于不支持多处理器工作的软件在这种模式下运行时出错的概率要比单处理器上高很多。

 9.64bit技术

    64bit技术,即64位技术,是相对于32bit而言的,64bit就是说处理器一次可以运行64bit数据。64bit处理器主要有两大优点:一是可以进行更大范围的整数运算;二是可以支持更大的内存。此外,要实现真正意义上的64bit计算,光有64bit的处理器还不行,还需有64bit的操作系统以及64bit的应用软件才行。目前,Intel公司和AMD公司都发布了多个系列多种规格的64bit处理器,适合个人使用的操作系统方面,Windows XP/Vista/7都发布了64bit版本。目前,主流cPu使用的64bit技术主要有AMD公司的AMD 64bit技术和Intel公司的EM64T 技术及IA.64技术。

    市场上现有的64bit解决方案都是面向高端领域,且是不与32bit架构兼容的昂贵的方案。这种方案通常会要求包括冷却设备、电源、机箱等在内的全新的基础架构,还需要独立软件开发商重新编译应用在64bit计算平台下的软件,在这种方式下如果需要进行32bit X86应用时,要么不能兼容,要么就必须在模拟方式下运行,而模拟方式又不能提供全面的计算性能,这就造成了性能的下降;此外,最终用户和技术支持人员还需要专门学习64bit操作系统的应用,人们可能会因为无法忍受多余而繁琐的工作以及高额的支出而放弃;对独立软件开发商来说,为了建立独立的体系,还必须在研发方面投入大量的人力和财力。

    10.双核心技术

    双核心处理器是在一个处理器上拥有两个功能相同的处理器核心,就是将两个物理处理器核心整合到一个内核中。事实上,双核心架构并不是新技术,它早就已经应用在服务器上了,只是现在才逐渐走向普通用户。 双核心处理器技术的引入是提高处理器性能的有效方法。因为处理器实际性能是处理器在每个时钟周期内所能处理器指令数的总量,因此增加一个内核,处理器每个时钟周期内可执行的单元数将增加一倍。必须强调的是,如果想让系统达到最大性能,必须充分利用两个内核中的所有可执行单元,即让所有执行单元都有活可干。双核心处理器标志着计算机技术的一次重大飞跃。双核心处理器,较之当前的单核心处理器,能带来更多的性能和生产力优势,因而已经成为一种广泛普及的计算机模式。随着市场需求进一步提升,出现了三核心、四核心、六核心和八核心这种多核心处理器,它们合理地提高了系统的性能。多核心处理器还将在推动Pc安全性和虚拟技术方面起到关键作用。现有的操作系统都能够受益于多核心处理器技术。必须注意的是,双核心技术不同于我们之前介绍的超线程技术。

    例如,开启了超线程技术的Pentium 4与Pentium D在操作系统中都同样被识别为两颗处理器,但是,二者在本质上是完全不同的。我们可以简单地把双核心技术理解为两个“物理”处理器,是一种“硬”的方式;而超线程技术只是两个“逻辑”处理器,是一种“软”的方式。

    从原理上来说,超线程技术物理上只使用一个处理器,但是它可以让单核心处理器拥有处理多线程的能力,从而使操作系统等软件将其识别为两个逻辑处理器。这两个逻辑处理器像传统处理器一样,都有独立的IA-32架构,它们可以分别进入暂停、中断状态,或直接执行特殊线程。虽然支持超线程的Pentium 4能同时执行两个线程,但不同于真正的双核心处理器,超线程中的两个逻辑处理器并没有独立的执行单元、整数单元、寄存器甚至缓存等资源。它们在运行过程中仍需要共用执行单元、缓存和系统总线接口。在执行多线程时两个逻辑处理器均是交替工作,如果两个线程都同时需要某一个资源时,其中一个要暂停并要让出资源,要待那些资源闲置时才能继续。因此,超线程技术所带来的性能提升远不能等同于两个相同时钟频率处理器带来的性能提升。可以说,超线程技术仅是对单个处理器运算资源的优化利用。而双核心技术则是通过“硬” 的物理核心实现多线程工作,即每个核心都拥有独立的指令集、执行单元,与超线程中所采用的模拟共享机制完全不一样。在操作系统看来,它是实实在在的两个处理器,可以同时执行多项任务,能让处理器资源真正实现并行处理模式,其效率和性能提升要比超线程技术高得多。

    11.内存控制器

    内存控制器是集成在CPU内部的,控制内存与CPU之间数据交换的一项重要技术。内存控制器决定了计算机系统所能使用的最大内存容量、内存BANK数、内存类型和速度、内存颗粒数据深度和数据宽度等重要参数,也就是说,内存控制器决定了计算机系统的内存性能,从而也对计算机系统的整体.J生能产生较大影响。 传统计算机系统的内存控制器位于主板芯片组的北桥芯片内部,CPU要和内存进行数据交换,需要经过“CPU一北桥一内存一北桥一CPU”5个步骤,在此模式下数据经由多级传输,延迟比较大,从而影响计算机系统的整体性能。AMD公司首先在其K8系列CPU内部整合了内存控制器,CPU和内存之间的数据交换简化为“CPU一内存一CPU”3个步骤,这种模式具有更小的数据延迟,有助于提高计算机系统的整体性能。

    CPU内部集成内存控制器可以使内存控制器同频于CPU的工作频率,而北桥的内存控制器一般就要大大低于CPU工作频率,这样系统延时就更少了。CPU内部集成内存控制器后,内存数据不再经过北桥,这就有效的降低了北桥的工作压力。与此AMD公司相反,Intel公司坚持把内存控制器放在北桥芯片里,同时对处理器本身的调整更多地依赖于缓存容量的增减。虽然Intel公司曾经列举了多项理由,表示不集成内存控制器好处多多,但随着形势的发展变化。Intel公司终于在酷睿i5、酷睿i7系列CPU中引入了整合内存控制器的方案。

    但是在CPU内部整合内存控制器也有缺点,就是只能使用特定类型的内存,并且对内存的容量和速度也有限制。例如,AMD公司早期的K8系列CPU只支持DDR内存,而不能支持更高速的DDR2内存。因此,SocketAM2接口以前的CPU都不能使用DDR2内存。

12.虚拟化技术

    虚拟化(Virtualization)是一个广义的术语,在计算机方面通常是指计算机元件在虚拟的基础上而不是在真实的基础上运行。虚拟化技术可以扩大硬件的容量,简化软件的重新配置过程。CPU的虚拟化技术可以将单个CPU模拟为多个CPU,允许一个平台同时运行多个操作系统,并且应用程序可以在相互独立的空间内运行而互不影响,从而显著提高计算机的工作效率。 虚拟化技术与多任务以及超线程技术完全不同。多任务是指在一个操作系统中多个程序同时并行运行,而在虚拟化技术中,则可以同时运行多个操作系统,而且每一个操作系统中都有多个程序运行,每一个操作系统都运行在一个虚拟的CPU或者是虚拟主机上;而超线程技术只是单 CPU模拟双CPU来平衡程序运行性能,这两个模拟出来的CPU是不能分离的,只能协同工作,而虚拟化技术是一种硬件方案,支持虚拟技术的CPU用带有特别优化的指令集来控制虚拟过程,通过这些指令集,很容易提高系统性能,比软件的虚拟实现方式提高性能的程度更大。

    13.HT总线技术

    HyDe(Transport简称HT,是AMD公司于2001年7月正式推出的针对K8平台专门设计的高速串行总线。在基础原理上,HT与目前的PCI Express非常相似,都是采用点对点的全双工传输线路,引入抗干扰能力强的LVDS信号技术,命令信号、地址信号和数据信号共享一个数据路径,支持.DDR双沿触发技术等,但两者在用途上截然不同,PCI Express作为计算机的系统总线,而 HT则被设计为两个处理器核心间的连接,此外,连接对象还可以是处理器与处理器、处理器与芯片组、芯片组的南北桥等,属于计算机系统的内部总线范畴。HT技术从规格上讲已经经历了 HTl.0、HT2.0、HT3.0、HT3.1四代。

    14.QPI总线技术

    Intel的QuickPath Interconnect技术缩写为QPI,译为快速通道互联。QPI总线技术是在处理器中集成内存控制器的体系架构,主要用于处理器之间和系统组件之间的互联通信(诸如I/O)。它抛弃了沿用多年的的FSB,CPU可直接通过内存控制器访问内存资源,而不是以前繁杂的“FSB 一北桥一内存控制器”模式。并且,与AMD在主流的多核处理器上采用的4HT3(4根传输线路,两根用于数据发送,两个用于数据接收)连接方式不同,英特尔采用了4+1 QPI互联方式(4针对处理器,1针对I/O设计),这样多处理器的每个处理器都能直接与物理内存相连,每个处理器之间也能彼此互联来充分利用不同的内存,可以让多处理器的等待时问变短(访问延迟可以下降50%以上)。

    QPI总线技术的优点有很多。在Intel高端处理器系统中,QPI高速互联方式使得CPU与CPU之间的峰值带宽可达96GB/s,峰值内存带宽可达34GB/s。这主要因为QPI采用了与PCI-E类似的点对点设计,包括一对线路,分别负责数据发送和接收,每一条通路可传送20bit数据。这就意味着即便是最早的QPI标准,其传输速度也能达到6.4GT/s,总计带宽可达到25.6GB/s(为 FSB 1 600MHz的12.8GB/s的两倍)。这种多条系统总线连接模式,Intel称之为multi-FSB。系统总线被分成多条连接,并且频率不再是单一固定的,也无须如以前那样还要再经过FSB进行连接。根据系统各个子系统对数据吞吐量的需求,每条系统总线连接的速度也可不同,这种特性无疑要比AMD目前的HT总线更具弹性。

    QPI总线可实现多核处理器内部的直接互联,而无须像以前那样还要再经过FSB进行连接。在多处理器作业下,每颗处理器可以互相传送资料,并不需要经过芯片组,从而大幅提升整体系统性能。随着Nehalem架构的处理器集成内存控制器、PCI-E 2.0接口乃至GPU,QPI架构的优势会进一步发挥出来。OPI采用串联方式作为信号的传送,在高频率下仍能保持稳定性。

 15.DMI总线技术

    目前,绝大部分处理器都将内存控制器做到了CPU内部,让CPU通过QPI总线直接和内存通讯,不再通过北桥芯片,有效加快了计算机的处理速度。后来Intel发现,CPU通过北桥与显卡连接也会影响性能,于是将PCI-E控制器也整合进了CPU内部,这样一来,相当于整个北桥芯片都集成到了CPU内部,主板上只剩下南桥,这时CPU直接与南桥相连的总线叫就叫做DMI。

    QPI总线高达25.6GB/s的带宽已经远远超越了FSB的频率限制。但DMI总线却只有2GB/s 的带宽。这是因为QPI总线用于CPU其内部通信,数据量非常大。而南桥芯片与CPU间不需要交换太多数据,因此连接总线采用DMI已足够了。所以,看似带宽降低的DMI总线实质上是彻底释放了北桥压力,换来的是更高的性能。

    经过FSB—QPI-DMI总线的发展,CPU内部集成了内存控制器和PCI—E控制器,实现了直接和内存及显卡进行数据传输,而南桥则整合了几乎所有的I/O功能,因此DMI总线有多高频率意义已经不大了,因为磁盘之类的设备其速率无法跟上,再高的DMI总线也没有用。

    16.Imel睿频加速技术

    Intel在’Nehalem架构的处理器中开始采用一种能够自动提高CPU时钟频率的“正规超频” 技术,Intel将这项技术命名为“Intel Turbo Boost Technology”,中文名称为Intel睿频加速技术。睿频加速技术是Intel Core i7/i5处理器的独有特性,这项技术可以理解为自动超频。当开启睿频加速之后,CPU会根据当前的任务量自动调整CPU主频,从而重任务时发挥最大的性能,轻任务时发挥最大节能优势。

    Intel官方对此项技术的解释是,当启动一个运行程序后,处理器会自动加速到合适的频率,而原来的运行速度会提升10%~20%以保证程序流畅运行;应对复杂应用时,处理器可自动提高运行主频以提速,轻松进行对性能要求更高的多任务处理;当进行工作任务切换时,如果只有内存和硬盘在进行主要的工作,处理器会立刻处于节电状态。这样既保证了能源的有效利用,又使程序速度大幅提升。通过智能化地加快处理器速度,从而根据应用需求最大限度地提升性能,为高负载任务提升运行主频高达20%以获得最佳性能,即最大限度地有效提升性能以符合高工作负载的应用需求,通过给人工智能、物理模拟和渲染需求分配多条线程处理,可以给用户带来更流畅、更逼真的游戏体验。

    通俗的讲,睿频加速技术就是通过分析当前CP[J的负载情况,智能地完全关闭一些用不上的核心,把能源留给使用中的核心,并使它们运行在更高的频率,进一步提升性能;相反,需要多个核心时,动态开启相应的核心,智能调整频率。这样,在不影响CPU的热功耗设计情况下,能把核心工作频率调得更高。举个简单的例子,如果某个游戏或软件只用到一个核心,睿频加速技术就会自动关闭其他三个核心,把运行游戏或软件的那个核心的频率提高,也就是自动超频,在不浪费能源的情况下获得更好的性能。反观Core 2时代,即使运行只用到一个核心,其他核心仍会全速运行,不仅性能无法得到提升,也造成了能源的浪费。http://h13553828710a.blog.163.com/

  评论这张
 
阅读(231)| 评论(0)
推荐 转载

历史上的今天

在LOFTER的更多文章

评论

<#--最新日志,群博日志--> <#--推荐日志--> <#--引用记录--> <#--博主推荐--> <#--随机阅读--> <#--首页推荐--> <#--历史上的今天--> <#--被推荐日志--> <#--上一篇,下一篇--> <#-- 热度 --> <#-- 网易新闻广告 --> <#--右边模块结构--> <#--评论模块结构--> <#--引用模块结构--> <#--博主发起的投票-->
 
 
 
 
 
 
 
 
 
 
 
 
 
 

页脚

网易公司版权所有 ©1997-2018