全球看点:LLM推理提速2.8倍,CMU清华姚班校友提出「投机式推理」引擎SpecInfer,小模型撬动大模型高效推理

2023-05-31 14:19:25   来源:商业新知网

随着 ChatGPT 的出现,大规模语言模型(LLM)研究及其应用得到学术界和工业界的广泛关注。一方面,开源的 LLM 模型不断涌现,比如 OPT、BLOOM、LLaMA 等,这些预训练模型的推出极大地促进了 LLM 的相关研究,使得 LLM 可以被应用于解决愈发复杂的实际问题。利用这些开源模型,快速构建一套基于 LLM 的应用服务已经变得愈发容易,但 LLM 面临着高昂的计算和存储需求,其成本也令人望而却步。


(资料图片仅供参考)

另一方面,以羊驼家族(如 Alpaca、Vicuna、Guanaco)为代表的,经过微调或蒸馏的小型化 LLM 也成为了当下的研究焦点之一,在多项测评中都展现出了优异的表现;此外,以 Quantization、LoRA、Offloading 为代表的多项系统优化技术使得以更低的资源需求部署这些 LLM 成为可能。但天下没有免费的午餐,有关证据表明 [1],这些小型化的 LLM 以及面向低资源场景的系统优化技术往往都会带来模型质量的下降,影响最终应用的效果。

因此,如何在保证模型输出质量的前提下,让 LLM 推理变得高效和廉价,已经成为了 MLSys 领域非常重要的研究问题。近日,来自卡耐基梅隆大学(CMU)的 Catalyst Group 团队发布了一款「投机式推理」引擎 SpecInfer,可以借助轻量化的小模型来帮助大模型,在完全不影响生成内容准确度的情况下,实现两到三倍的推理加速。

论文链接:https://arxiv.org/abs/2305.09781

项目地址:https://github.com/flexflow/FlexFlow/tree/inference

论文作者之一、CMU 助理教授 Zhihao Jia 表示:「生成式大规模语言模型不仅推理效率低下而且部署成本很高;它们小型化的版本具有速度和价格上的优势,但是也会影响生成内容的质量;而 SpecInfer 可以实现这两方面的双赢。」

同样来自 CMU Catalyst Group 的助理教授 Tianqi Chen 也表示:「SpecInfer 可以适用于云上的 LLM 部署等场景,让 LLM 推理更加可扩展。」

研究现状

目前 LLM 推理主要依赖于自回归式(auto-regressive)的解码(decoding)方式,每步解码只能够产生一个输出 token,并且需要将历史输出内容拼接后重新作为 LLM 的输入,才能进行下一步的解码。考虑到这种数据依赖,现有 LLM 推理系统如 FasterTransformer 会采用一种增量式解码(incremental decoding)技术,将已经解码的 token 对应的 key/value 进行缓存,避免重新计算。但是,这类系统仍然面临两个关键的缺陷:1)由于逐 token 计算的解码范式,算子并行度有限,GPU 硬件资源难以被充分利用;2)当序列过长时,KV-cache 空间消耗过大,有限的 GPU 显存无法承载。因此,当面对超大规模的 LLM 推理时(如 GPT-4 32K tokens),现有系统往往面临资源利用低效,推理延迟过高的问题。

Incremental Decoding 示意图

为了解决上述问题,研究者提出了一种「投机式」推理引擎 SpecInfer,其核心思想是通过计算代价远低于 LLM 的 “小模型” SSM(Small Speculative Model)替代 LLM 进行投机式地推理(Speculative Inference),每次会试探性地推理多步,将多个 SSM 的推理结果汇聚成一个 Speculated Token Tree,交由 LLM 进行验证,通过高效的树形解码算子实现并行化推理,验证通过的路径将会作为模型的推理结果序列,进行输出。

总体上来说,SpecInfer 利用了 SSM 的内在知识帮助 LLM 以更低廉的计算成本完成了主要的推理过程,而 LLM 则在一定程度上破除了逐 token 解码的计算依赖,通过并行计算确保最终输出的结果完全符合原始的推理语义。

SpecInfer 工作流程

系统设计

SpecInfer 系统架构

可学习推测器(Learning-based Speculator)

Speculator 的主要作用是利用 SSM 快速产生对 LLM 未来输出的推测结果,SSM 可以是(微调后)小版本的 LLM(如 LLaMA 7B),也可以是量化或蒸馏的小规模 LLM,还可以是可供检索的知识库(如参考文本)亦或是用户的自定义函数。总之,SSM 的输出结果越接近 LLM,验证时才会更容易通过,整体的推理效率才会更高。

为此,SpecInfer 引入集成学习的思想,将多个 SSM 的结果融合,提高输出的差异化程度。为了尽可能提高匹配率,Speculator 提出了 Collective Boost-Tuning 方法,即在一个公开的通用数据集(如 OpenWebText)上,从一个较弱的 SSM 开始进行微调,将匹配程度较低的序列不断从数据中过滤,交由新的 SSM 来学习,持续多次,提高整体的推测质量;此外,Speculator 还引入了一个可学习的调度器(scheduler)来决定选用哪些 SSM 以获得更长的匹配序列长度。

Token 树验证器(Token Tree Verifier)

SSM 的推理速度优势是 SpecInfer 能够加速推理的前提,但另一个不可或缺的因素就是 LLM 对并行化推理的支持。在 SpecInfer 中,LLM 并不直接作为推理引擎产生输出 token,但是它需要对 Speculator 中 SSM 产生的 token 进行验证,确保输出内容符合 LLM 的推理语义。

在 SpecInfer 中,SSM 产生的输出序列会被组织成 token tree 的树形结构,避免冗余的存储开销。为了能够在 token tree 上进行并行化的验证,SpecInfer 提出了一种树形注意力(Tree Attention)计算方法,通过构造的 mask 矩阵和基于深度优先的 KV-cache 更新机制,Verifier 可以在不增加额外存储的同时,尽可能并行化树中每一条路径的解码过程。相比于朴素的逐序列或逐 Token 的解码方式,树形解码可以同时在内存开销和计算效率上达到最优。

Tree-based Decoding 示意图

大规模 LLM 和小规模 SSM 协同工作

Speculative Inference 执行 Timeline 对比

大规模的 LLM 在参数量上通常可以达到小规模 SSM 的几十倍甚至上百倍,而 SSM 相比于 LLM,在推理速度上,基于通常的系统实现,也有数倍到数十倍的性能优势,SpecInfer 结合了 SSM 极低的推理延迟以及 LLM 的并行验证能力,大幅降低了较为耗时的 LLM 推理次数,最终可以在保证推理结果质量的情况下显著提升模型推理速度。

系统实现

SpecInfer 基于 FlexFlow 系统实现,支持用户自定义模型结构,导入模型参数,兼容主流深度学习框架的 operator 或 layer 抽象,现已支持常规的 GPT、LLaMA 等多种主流基础模型。值得注意的是,FlexFlow 是一款面向分布式场景的深度学习系统,由来自 CMU、Stanford、MIT、NVIDIA 等机构的研究人员共同维护,是机器学习系统领域最早提出 “自动并行” 的工作之一 (MLSys’19, ICML’18) [2,3],也是最早将计算图优化以及自动并行优化集成进行联合优化的工作 (Unity, OSDI’22) [4]。

借助于 FlexFlow 的自动并行能力,SpecInfer 可以自动完成大规模 LLM 的最优分布式部署。与此同时,SpecInfer 还可以支持 Offloading 操作,以较低的成本扩展模型的规模。SpecInfer 通过独特的「投机式推理」机制,可以大幅降低 LLM 所需的推理步数,从而减小分布式场景的网络通信开销,缓解 Offloading 场景下的 PCIe 传输带宽瓶颈。

实验结果

端到端推理延迟

端到端实验:使用 LLaMA-7B 作为 LLM,LLaMA-160M 作为 SSM,在五个对话数据集上进行了测试,相比于依赖于增量式解码的 LLM,SpecInfer 可以使推理延迟降低 1.9-2.8 倍。

单次推理平均步长(LLM:OPT-13B + SSMs:OPT-125M)

单次推理平均步长(LLM:LLaMA-7B + SSMs:LLaMA-160M)

匹配长度测试:分别使用 OPT 和 LLaMA 系列模型,测试 SpecInfer 中 LLM 的平均验证通过序列长度,可以看出,随着 SSM 数量的提升,在各个对话数据集上,LLM 的验证通过长度均会得到提升,以 5 个 SSM 为例,OPT 和 LLaMA 在 5 个数据集上平均可达 3.68 和 2.67,相比于仅使用单一 SSM,分别提升 26.4% 和 24.8%。

更多更详细的实验结果可以参考论文原文: https://arxiv.org/abs/2305.09781

总结

SpecInfer 是首个基于「推测式解码」的分布式 LLM 推理引擎,通过集成多个小模型,以及基于 token tree 的原创系统实现优化,可以帮助现有的主流 LLM 减少内存访问需求,实现两到三倍的无损推理加速,大幅降低推理成本。

作者介绍

SpecInfer 项目的指导老师是 Zhihao Jia,他目前在卡耐基梅隆大学计算机学院担任助理教授。他的研究兴趣主要包括面向机器学习、量子计算以及大规模数据分析的系统研究。此前他曾毕业于清华大学的姚班,博士毕业于 Stanford 大学,师从 Alex Aiken 和 Matei Zaharia,曾获 Stanford Arthur Samuel Best Doctoral Thesis Award,NSF CAREER Asward 以及来自 Amazon, Google, Meta, Oracle, 以及 Qualcomm 的多项研究奖项,个人主页:https://www.cs.cmu.edu/~zhihaoj2/。

孵化 SpecInfer 项目的主要是 CMU 的 Catalyst Group 实验室,该实验室由 Zhihao Jia 与 Tianqi Chen(陈天奇)在 CMU 共同主持,致力于集成来自于机器学习算法、系统、硬件等多方面的优化技术,构造自动化的机器学习系统。此前,该实验室还推出了 MLC-LLM [5] 等开源项目,推进 LLM 大模型相关系统的研究和应用。实验室主页:https://catalyst.cs.cmu.edu。

论文的共同一作分别是 Xupeng Miao(博士后研究员),Gabriele Oliaro(博一)以及 Zhihao Zhang(博一),均来自于 CMU Catalyst Group 团队。其中,Xupeng Miao 博士毕业于北京大学,主要研究方向包括机器学习系统、数据管理和分布式计算,曾获 VLDB2022 最佳可扩展数据科学论文奖、2022 年 ACM 中国优博奖、2022 年世界人工智能大会(WAIC)云帆奖等荣誉,个人主页:https://hsword.github.io。

关键词:

精彩阅读

全球看点:LLM推理提速2.8倍,CMU清华姚班校友提出「投机式推理」引擎SpecInfer,小模型撬动大模型高效推理

热点

随着ChatGPT的出现,大规模语言模型(LLM)研究及其应用得到学术界和工业界的广泛关注。

世界热点!信也科技迎来印尼业务CEO,金融出海又要火?

热点

近日,蚂蚁集团国际业务CRO顾鸣已正式回归信也科技,出任信也科技印尼业务CEO,直接向集团CEO李铁铮汇报。

华为天才少年-稚晖君:刚拿了百度、经纬、高榕的投资,估值超10亿美元

热点

通常来说,“天才少年”的招聘流程非常严格,一般需要经历7轮左右流程,最终还要通过华为总裁的面试。

高达3.6万亿token!PaLM 2训练数据翻5倍,全新Bard对比ChatGPT有8个优势

热点

PaLM2模型训练数据是上一代的5倍,达到3 6万亿。

天天快资讯丨“AI孙燕姿”爆火之后,音乐何去何从?

热点

“AI孙燕姿”强势出圈,成为新晋顶流。在这背后的是发展了半个多世纪的、不可阻挡的AI音乐潮流。

为Apple MR而生,xrOS有何期待? 天天滚动

热点

该操作系统将被命名为xrOS,并且Apple已使用空壳公司在各个国家注册该商标。

探索人工智能的革命性技术 天天讯息

热点

AI时代已经开始,你准备好了吗?如何在这个充满机遇和挑战的人工智能时代中抓住商业机会?

AIGC风头正盛,英伟达宣布为游戏提供AI定制服务丨游戏干线

热点

“我们已经迎来了生成式AI的引爆点。从此,全世界的每个角落,都会有算力需求。”

商贸零售罗晓婷|AI+教育:优质教育资源的规模化、公平化、个性化|当前动态

热点

AIGC进一步深化教育的本质在于数字化教育内容的智能生成+推送。

财富

618“首战”:淘宝直播“内容化”,小红书力扶章小蕙加入战局? 最资讯

资讯

618“首战”:淘宝直播“内容化”,小红书力扶章小蕙加入战局?,平台间的攻城略地继续上演。

0成本做增长,匿名社交的风又吹到了韩国_天天看热讯

资讯

0成本做增长,匿名社交的风又吹到了韩国,近期火热的匿名社交App们给了这些思路。

天涯死在“乌托邦”里

资讯

天涯死在“乌托邦”里,最后的挣扎还是葬歌?

环球播报:融资丨凌科药业完成2亿人民币C1轮融资

资讯

融资丨凌科药业完成2亿人民币C1轮融资,本轮融资将主要用于加速推进凌科药业核心产品的临床开发。

每日时讯!永辉超市症结之解

资讯

永辉超市症结之解,线上线下都做得好的企业,未来才能生存。

快播:谁会是新能源车险市场的“鲶鱼”?

资讯

谁会是新能源车险市场的“鲶鱼”?,沿着旧地图,找不到新大陆

ofo出走的创始人,散落在天涯-天天聚看点

资讯

ofo出走的创始人,散落在天涯,ofo故人难寻

「问题少年」逆袭成万亿美元掌门人!60岁黄仁勋或成LLM爆发背后最大赢家-天天快资讯

资讯

「问题少年」逆袭成万亿美元掌门人!60岁黄仁勋或成LLM爆发背后最大赢家,英伟达总市值正式突破万亿美元,成

陆正耀“绑上”加盟商去“复仇” 世界要闻

资讯

陆正耀“绑上”加盟商去“复仇”,最了解陆正耀的目标的人,除了钱治亚,可能就是郭谨一。

全球观点:AI诈骗效率高、成本低,“三个魔法”有效防范潜在威胁

资讯

AI诈骗效率高、成本低,“三个魔法”有效防范潜在威胁,魔法打败魔法:社交平台的关键角色

世界热点!信也科技迎来印尼业务CEO,金融出海又要火?

近日,蚂蚁集团国际业务CRO顾鸣已正式回归信也科技,出任信也科技印尼业务CEO,直接向集团CEO李铁铮汇报。

华为天才少年-稚晖君:刚拿了百度、经纬、高榕的投资,估值超10亿美元

通常来说,“天才少年”的招聘流程非常严格,一般需要经历7轮左右流程,最终还要通过华为总裁的面试。

高达3.6万亿token!PaLM 2训练数据翻5倍,全新Bard对比ChatGPT有8个优势

PaLM2模型训练数据是上一代的5倍,达到3 6万亿。

天天快资讯丨“AI孙燕姿”爆火之后,音乐何去何从?

“AI孙燕姿”强势出圈,成为新晋顶流。在这背后的是发展了半个多世纪的、不可阻挡的AI音乐潮流。

为Apple MR而生,xrOS有何期待? 天天滚动

该操作系统将被命名为xrOS,并且Apple已使用空壳公司在各个国家注册该商标。

弗莱肯亲承加盟布伦特福德:去英超联赛是我的儿时梦想

弗赖堡门将弗莱肯承认,他将加盟布伦特福德。天空体育在本月早些时候透露,弗莱肯接近加盟布伦特福德,转会

教育部:加快推动京津优质中小学基础教育资源同河北共享 微速讯

记者5月30日从教育部获悉,教育部日前开展相关调研并召开京津冀基础教育协同发展座谈会,提出要加快推动京

深圳将不再全面禁止路边摊,如何规范发展催旺城市烟火气?

新修订的《深圳经济特区市容和环境卫生管理条例》拟于9月1日实施,“深圳的路边摊不再全面禁止”话题登上热

雷军应果断停止造车

雷军应果断停止造车,近日,小米集团公布了一季度业绩。财报显示,小米集团一季度总收入为人民币595亿元,经

6000建设者奋战宜来高速宜昌段 且看“天路”越武陵_天天快资讯

跨“V”形河谷,挑战170米高墩;夜以继日,掘进8公里超长隧道……这是5月27日湖北日报全媒记者在宜(都)来

每日热门:奥维通信:公司目前暂未开展海外业务

每经AI快讯,有投资者在投资者互动平台提问:1奥维的产品有出口到世界动乱的小国家吗?比如缅甸、苏丹、塞