手机跑大模型提速4-5倍!微软亚研院开源新技术 有CPU就行

有CPU就能跑大模型,性能甚至超过NPU/GPU!

没错,为了优化模型端侧部署,微软亚洲研究院提出了一种新技术——T-MAC。

这项技术主打性价比,不仅能让端侧模型跑得更快,而且资源消耗量更少。

手机跑大模型提速4-5倍!微软亚研院开源新技术 有CPU就行

咋做到的??

在CPU上高效部署低比特大语言模型

一般来说,要想在手机、PC、树莓派等端侧设备上使用大语言模型,我们需要解决存储和计算问题。

常见的方法是模型量化,即将模型的参数量化到较低的比特数,比如4比特、3比特甚至更低,这样模型所需的存储空间和计算资源就会减少。

不过这也意味着,在执行推理时,需要进行混合精度的矩阵乘法运算(mpGEMM),即用低精度的权重和高精度的激活向量进行计算。

然而,现有的系统和硬件并不原生支持这种混合精度的矩阵乘法,因此它们通常需要将低精度的权重转换回高精度,这个过程叫做反量化(dequantization)。

但这种方法不仅效率低,而且当比特数进一步降低时,并不能带来性能上的提升。

对此,新技术T-MAC采用基于查找表(LUT)的计算范式,无需反量化,直接支持混合精度矩阵乘。

这样,T-MAC不仅提高了推理性能,还使得模型更加统一和可扩展,尤其适合在资源受限的端侧设备部署。

此外,T-MAC不依赖于专用的硬件加速器NPU或GPU,能够仅利用CPU部署模型。甚至在某些情况下,它的推理速度可以超过专用加速器。

手机跑大模型提速4-5倍!微软亚研院开源新技术 有CPU就行

T-MAC的关键创新在于采用基于查找表(LUT)的计算范式,而非传统的乘累加(MAC)计算范式。

T-MAC利用查找表直接支持低比特计算,从而消除了其他系统中必须的反量化操作,并且显著减少了乘法和加法操作的数量。

经过实验,T-MAC展现出了卓越的性能:

在配备了最新高通Snapdragon X Elite芯片组的Surface AI PC 上,3B BitNet-b1.58模型的生成速率可达每秒48个token,2bit 7B llama模型的生成速率可达每秒30个token,4bit 7B llama模型的生成速率可达每秒20个token。

这甚至超越了NPU的性能!

当部署llama-2-7B-4bit模型时,尽管使用NPU可以生成每秒10.4个token,但CPU在T-MAC的助力下,仅使用两核便能达到每秒12.6个token,最高甚至可以飙升至每秒22个token。

手机跑大模型提速4-5倍!微软亚研院开源新技术 有CPU就行

这些都远超人类的平均阅读速度,相比于原始的llama.cpp框架提升了4~5倍。

手机跑大模型提速4-5倍!微软亚研院开源新技术 有CPU就行
△BitNet on T-MAC (基于LUT) vs llama.cpp (基于反量化)

即使在较低端的设备如Raspberry Pi 5上,T-MAC针对3B BitNet-b1.58也能达到每秒11个token的生成速率。

同时,T-MAC也具有显著的功耗优势:

达到相同的生成速率,T-MAC所需的核心数仅为原始llama.cpp的1/4至1/6,降低能耗的同时也为其它应用留下计算资源。

值得注意的是,T-MAC的计算性能会随着比特数的降低而线性提高,这一现象在基于反量化去实现的GPU和NPU中是难以观察到的。

这进一步使得T-MAC能够在2比特下实现单核每秒10个token,四核每秒28个token,大大超越了NPU的性能。

采用新的计算范式

好了,说完了效果,咱们接着展开T-MAC的技术细节。

矩阵乘不需乘,只需查表 (LUT)

对于低比特参数 (weights),T-MAC将每一个比特单独进行分组(例如,一组4个比特),这些比特与激活向量相乘,预先计算所有可能的部分和,然后使用LUT进行存储。

之后,T-MAC采用移位和累加操作来支持从1到4的可扩展位数。

通过这种方法,T-MAC抛弃了CPU上效率不高的FMA(乘加)指令,转而使用功耗更低、效率也更高的TBL/PSHUF(查表)指令。

手机跑大模型提速4-5倍!微软亚研院开源新技术 有CPU就行
△混合精度GEMV基于现有反量化的实现范式 vs T-MAC基于查找表的新范式以比特为核心的计算,取代以数据类型为核心的计算

传统的基于反量化的计算,实际上是以数据类型为核心的计算,这种方式需要对每一种不同的数据类型单独定制。

每种激活和权重的位宽组合,如W4A16(权重int4激活float16) 和W2A8,都需要特定的权重布局和计算内核。

例如,W3的布局需要将2位和另外1位分开打包,并利用不同的交错或混洗方法进行内存对齐或快速解码。

然后,相应的计算内核需要将这种特定布局解包到硬件支持的数据类型进行执行。

而T-MAC通过从比特的视角观察低比特矩阵乘计算,只需为单独的一个比特设计最优的数据结构,然后通过堆叠的方式扩展到更高的2/3/4比特。

同时,对于不同精度的激活向量(float16/float32/int8),仅有构建表的过程需要发生变化,在查表的时候不再需要考虑不同的数据结构。

手机跑大模型提速4-5倍!微软亚研院开源新技术 有CPU就行
△以比特为核心的查表计算混合精度GEMV

同时,传统基于反量化的方法,从4-比特降低到3/2/1-比特时,尽管内存占用更少,但是计算量并未减小,而且由于反量化的开销不减反增,性能反而可能会更差。

但T-MAC的计算量随着比特数降低能够线性减少,从而在更低比特带来更好加速,为最新的工作BitNet, EfficientQAT等发布的2-比特模型提供了高效率的部署方案。

比如下图展示了:

(1)使用不同端侧设备CPU的单核,T-MAC在4到1比特的混合精度GEMV算子相较llama.cpp加速3-11倍。

(2)T-MAC的GEMM耗时能随着比特数减少线性减少,而基于反量化的llama.cpp无法做到(1比特llama.cpp的算子性能由其2比特实现推算得到)。

手机跑大模型提速4-5倍!微软亚研院开源新技术 有CPU就行

高度优化的算子实现

概括而言,基于比特为核心的计算具有许多优势,但将其实现在CPU上仍具有不小的挑战:

与激活和权重的连续数据访问相比,表的访问是随机的。

表在快速片上内存中的驻留对于最终的推理性能尤为重要,然而,片上内存是有限的,查找表(LUT)方法相比传统的mpGEMV增大了片上内存的使用。

这是因为查找表需要保存激活向量与所有可能的位模式相乘的结果,这比激活本身要多得多。

手机跑大模型提速4-5倍!微软亚研院开源新技术 有CPU就行

△T-MAC与llama.cpp在计算数据流上的不同

为此,微软亚洲研究院的研究员们深入探究了基于查表的计算数据流,为这种计算范式设计了高效的数据结构和计算流程,其中包括:

1、将LUT存入片上内存,以利用CPU上的查表向量指令 (TBL/PSHUF) 提升随机访存性能。

2、改变矩阵axis计算顺序,以尽可能提升放入片上内存的有限LUT的数据重用率。

3、为查表单独设计最优矩阵分块 (Tiling) 方式,结合autotvm搜索最优分块参数

4、参数weights的布局优化:

;a、weights重排,以尽可能连续访问并提升缓存命中率

; ;b、weights交错,以提升解码效率

5、对Intel/ARM CPU做针对性优化,包括

; ;a、寄存器重排以快速建立查找表

; ;b、通过取平均数指令做快速8-比特累加

研究员们在一个基础实现上,一步步应用各种优化,最终相对于SOTA低比特算子获得显著加速。

例如,在实现各种优化后,T-MAC 4-比特算子最终相对于llama.cpp获得显著加速:

手机跑大模型提速4-5倍!微软亚研院开源新技术 有CPU就行

最后,T-MAC现已开源,相关论文已在arXiv公开,感兴趣可以进一步了解。

开源地址(含代码):https://github.com/microsoft/T-MAC

论文:https://www.arxiv.org/pdf/2407.00088

以上就是关于【手机跑大模型提速4-5倍!微软亚研院开源新技术 有CPU就行】的相关消息了,希望对大家有所帮助!

Like (0)
广众网的头像广众网
Previous 2024年8月10日 下午3:56
Next 2024年8月10日 下午4:02

相关推荐

  • 姜萍母校:恳请广大公众对未成年人给予更多包容和爱护

    11月3日消息,今日,姜萍数学竞赛系老师提供帮助一事引发广发关注。 对此,姜萍母校江苏省涟水中等专业学校发布情况通报称,恳请广大公众对未成年人给予更多包容和爱护。 以下为情况通报全文: 据调查了解,在2024阿里巴巴全球数学竞赛预选赛中,我校教师王某某对指导的学生提供帮助,违反了预选赛关于禁止与他人讨论的规则。 经研究,我校给予王某某诚勉谈话处理,取消本年度…

    2024年11月3日
    800
  • Intel首批通过AISBench大模型性能测试!5代至强可达每秒2493 token

    9月5日消息,近日,第五代英特尔至强处理器,以优秀的表现通过了中国电子技术标准化研究院组织的人工智能服务器系统性能测试(AISBench)。 借此,英特尔也成为首批通过AISBench大语言模型(LLM)推理性能测试的企业。 在AISBench 2.0测试工具的评估下,第五代英特尔至强处理器在ChatGLM V2-6B(60亿参数)和Llama2-13B(1…

    2024年9月5日
    2900
  • 张雪峰:公司出钱 让优秀员工回家乡资助毕业生

    8月24日消息,网红老师张雪峰又捐款了。 张雪峰今日宣布,今年的捐赠计划将拓展至优秀员工的家长。公司将资助这些员工回到家乡,代表公司对当地的毕业生进行资助。 张雪峰也公开了向银川二中和宾县三中优秀毕业生颁发奖学金的仪式照片。 据了解,这并非张雪峰首次进行捐赠。仅在2024年,他已进行了多次捐赠。 今年1月,张雪峰宣布向两所大学——哈尔…

    2024年8月25日
    3300
  • iPhone 16屏幕已开始量产:三星、LG同时供货

    8月9日消息,目前,苹果公司即将推出的iPhone 16系列手机的屏幕面板已开始大规模生产。 据悉,苹果已向三星订购了8000万块面板,LG则作为二级供应商,苹果向LG订购了4300万块面板,并且韩国供应商已确认三星和LG目前正在按照订单量正常进行面板生产。 鉴于苹果今年对iPhone 16的出货量预计约为9000万部,这意味着苹果已订购了约30%以上的面板…

    2024年8月9日
    6400
  • 电动汽车的能耗 咋就这么低了

    智能汽车大战还没结束,热度就能耗抢了去。 原因无它,最近提车回家的很多车主都在干一件事:比能耗。 (小鹏MANA M03)国庆高速跑了两千多公里,平均电耗都在12左右,其中有一段甘肃天水到宝鸡段连霍高速干到了9.1,真的是很猛。 (乐道L60)综合能耗11.1kWh/100km、近100km能耗12.0kWh,太可怕了。 (极越07)从余杭开回家30km能耗…

    2024年10月21日
    1100

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

联系我们

400-800-8888

在线咨询: QQ交谈

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息

关注微信