GPU时代终结?世界最大芯片加持推理狂飙20倍英伟达H100也被干趴
编辑:桃子 好困
【新智元导读】LLM若以每秒1000+token高速推理,当前最先进的GPU根本无法实现!Cerebras Inference一出世,推理速度赶超英伟达GPU,背靠自研的世界最大芯片加持。而且,还将推理价格打了下来。
LLM若想高速推理,现如今,连GPU都无法满足了?
曾造出世界最大芯片公司Cerebras,刚刚发布了全球最快的AI推理架构——Cerebras Inference。
运行Llama3.1 8B时,它能以1800 token/s的速率吐出文字。
不论是总结文档,还是代码生成等任务,响应几乎一闪而过,快到让你不敢相信自己的眼睛。

如下图右所示,以往,微调版Llama3.1 8B推理速度为90 token/s,清晰可见每行文字。
而现在,直接从90 token/s跃升到1800 token/s,相当于从拨号上网迈入了带宽时代。
左边Cerebras Inference下模型的推理速度,只能用「瞬间」、「疯狂」两字形容。
这是什么概念?
比起英伟达GPU,Cerebras Inference的推理速度快20倍,还要比专用Groq芯片还要快2.4倍。

另外,对于70B参数的Llama3.1,可达到450 token/s及时响应。
值得一提的是,Cerebras并没有因为提高LLM的速度,而损失其精度。
测试中,使用的Llama3.1模型皆是采用了Meta原始16位权重,以便确保响应高精度。

最关键的是,价格还实惠。
根据官方API定价,Llama 3.1 8B每百万token仅需10美分,Llama 3 70B每百万token仅需60美分。
如此之高的性价比,更是打破了业界纪录——
不仅远超之前的保持者Groq,而且和其他平台相比,甚至是隔「坐标轴」相望了。

Artificial Analysis
正是因为Cerebras Inference背后,是由自研的第三代芯片Wafer Scale Engine助力,才得以1/5价格快速推理Llama3.1。

看到自家模型推理如此神速,LeCun、Pytorch之父纷纷动手转发起来。


还有网友看后表示,我想要!

推理很慢,英伟达GPU也不中用?
为什么LLM的响应,就像拨号上网加载网页一样,一个字一个字慢慢地吐出?
关键原因所在,大模型自身的顺序特性,以及需要大量的GPU内存和带宽。
由于GPU的内存带宽限制,如今推理速度为每秒几十个token,而不是数千个。
更进一步说,大模型每个生成的单词,都必须通过整个模型进行处理,即所有参数必须从内存投入到计算中。

而每生成一个单词,就需要一次处理,以此循环往复。
也就是,生成100个单词需要100次处理,因为「下一词」的预测,皆需要依赖前一个单词,而且这个过程无法并行。
那么,想要每秒生成100个单词,就需要所有模型参数,每秒投入计算100次。
由此,这对GPU内存带宽提出了高要求。

以社区流行的Llama3.1-70B模型为例。
模型有700亿参数,每个参数是16位,需要2字节的存储,那整个模型便需要140GB的内存。
想要模型输出一个token,那700亿参数必须从内存,移动到计算核心,以执行前向推理计算。
由于GPU只有约200MB的片上内存,模型无法存储在芯片。
因此,每次生成的token输出时,需将整个占用140GB内存的模型,完整传输到计算中。

再细算下来,为了实现10 token/s,则需要10*140=1.4 TB/s的内存带宽。
那么,一个H100有3.3 TB/s的内存带宽,足以支持这种缓慢的推理。
而若要实现即时推理,需要达到1000 token/s或140 TB/s,这远远超过任何GPU服务器/系统内存带宽。
或许,你想到了一种「暴力」解决方案,将多个GPU串联搭建DGX系统。
这完全是大错特错,更多的处理器只会增加系统的吞吐量(给出更长响应),并不会加速单个查询的响应时间。
自研世界最大芯片,打破推理想象
那么,Cerebras如何打破这一困局呢?
一直以来,这家公司就致力于打造世界上最大芯片,希望将整个模型存储在一个晶片上,以此来解决内存带宽瓶颈。
凭借独特的晶圆设计,WSE-3单个芯片上便集成了44GB SRAM,具备21 PB/s的内存带宽。
单个芯片拥有如此大内存,便消除了对外部内存的需求,以及将外部内存连接到计算的慢速通道。

总的来说,WSE-3的总内存带宽为21PB/s,是H100的7000倍。
它是唯一一款同时具有PB级计算和PB级内存带宽的AI芯片,使其成为高速推理的近乎理想设计。

Cerebras推理不仅速度超快,而且吞吐量巨大。
与小型AI芯片相比,芯片上内存多了约200倍,支持从1-100的批大小,使其在大规模部署时,具有极高的成本效益。

正是有了如此强大的芯片,Cerebras Inference的快速推理得以实现。
它的出现,是为了实现数十亿到万亿参数模型的推理。
如果模型参数超过单个晶圆的内存容量时,研究人员将在「层边界」将其拆分,并映射到多个CS-3系统上。
20B模型适合单个CS-3,而70B模型则至少需要4个这样的系统。
官方表示,未来几周,将会测试更大参数版本的模型,比如Llama3-405B、Mistral Large。

16位精度,不做取舍
推理速率高,并非在模型权重上,做了取舍。
业界中,一些公司试图将模型权重精度,从16位减少到8位,来克服内存带宽的瓶颈。
这样方法,通常会造成模型精度损失,也就是响应结果的准确性、可靠性不如以前。
Cerebras Inference之所以强就强在了,速率和原始权重,皆要顾及。

正如开篇所述,他们采用了原始16位权重运行了Llama3.1 8B和70B。
通过评估,16位模型准确率比8位模型,高出多达5%。尤其是在,多轮对话、数学和推理任务中表现更好。
最优性价比,百万token免费送
目前,Cerebras Inference可通过聊天平台,以及API访问,任何一个人可随时体验。

体验传送门:https://cerebras.ai/blog/introducing-cerebras-inference-ai-at-instant-speed
基于熟悉的OpenAI Chat Completions格式,开发者只需更换API密钥即可集成强大的推理功能。

Cerebras Inference API提供最佳的性能、速度、精度和成本组合。
它是唯一能即时运行Llama3.1-70B的方案,可实现450 token/s,同样使用的是原始16位模型权重。
在此,Cerebras送上大福利,每天为开发者们提供100万个免费token。对于大规模部署,其定价只是H100云的一小部分。

首次推出时,Cerebras提供了Llama3.1 8B和70B模型,而且有能力每天为开发者和企业,提供数千亿token。
接下来几周,他们将增加对更大模型的支持,如Llama3 405B、Mistral Large 2。

有开发者问道,你们提供的rpm(每分钟请求次数)和tpm(每分钟处理token数)是多少?

Cerebras提供了一张针对Llama 3.1 8B和70B模型完整的请求/token处理数的图。

快速推理,不只为速度
最后,让我们来聊聊,为什么快速推理非常重要?
通常,LLM会即刻输出自己的全部想法,而不考虑最佳答案。而诸如scaffolding(脚手架)这类的新技术,则如同一个深思熟虑的智能体,会在作出决定前探索不同的可能解决方案。
这种「先思考后发言」的方式在代码生成等严苛任务中,可以带来超过10倍的性能提升,从根本上提升了AI模型的智能,且无需额外训练。
但这些技术在运行时,需要多达100倍的token。
因此可见,如果我们能大幅缩短处理时间,那么就可以实现更为复杂的AI工作流程,进而实时增强LLM的智能。
速度爆表,但上下文只有8K
虽然在价格和延迟上,Cerebras都不是最低的。
但极致的速度,确实为Cerebras带来了极致的速度-价格和速度-延迟比。
不过,值得注意的是,在Cerebras上跑的Llama 3.1,上下文只有8k……
相比之下,其他平台都是128K。
具体数据如下:
Llama 3.1 70B



Llama 3.1 8B



参考资料:
https://cerebras.ai/blog/introducing-cerebras-inference-ai-at-instant-speed
https://x.com/CerebrasSystems/status/1828464491677524311
https://artificialanalysis.ai/models/llama-3-1-instruct-70b/providers
大家都在看
-
多功能智能环保铺排船“首秀”,助力世界最大跨度悬索桥建设 7月14日,由中交上航局上海交建公司承建的张靖皋长江大桥民主沙右缘守护工程二期工程项目顺利通过交工验收。据了解,本工程是正在建设中的张靖皋长江大桥工程的重要配套项目,位于张家港与如皋之间的江心滩地——民 ... 世界最大07-18
-
世界最大清洁能源走廊交出亮眼“期中答卷” 今年上半年,由乌东德、白鹤滩、溪洛渡、向家坝、三峡、葛洲坝六座电站构成的世界最大清洁能源走廊精益运行,大国重器综合效益充分发挥,交出了一份亮眼的“期中答卷”。▲ 乌东德水电站 摄影:陈旋助农耕,全力抗旱 ... 世界最大07-18
-
世界最大!在宜昌枝江封顶! 成功封顶!”伴随最后一方混凝土升空浇筑枝江长江大桥南岸主塔顺利封顶这一重要节点标志着大桥建设即将进入上部结构施工阶段明年上半年大桥即将通车“千年孤岛”百里洲即将告别轮渡过江的历史枝江长江大桥是湖北省重 ... 世界最大07-18
-
世界最大直径高铁盾构机“领航号”掘进突破7000米 7月17日,由我国自主研制的世界最大直径高铁盾构机——崇太长江隧道“领航号”盾构机独头掘进突破7000米,距离长江江底89米最深处仅剩1.6千米,距离长江南岸4.3千米。项目团队采用目前世界最大直径高铁盾构机“领航 ... 世界最大07-18
-
世界上最大的十个岛屿 1\. 格陵兰岛,丹麦2,130,800平方千米(822,706平方英里)。格陵兰岛拥有世界上第二大冰盖,人口约为5.6万人。2\. 新几内亚岛,印度尼西亚 & 巴布亚新几内亚785,753平方千米(303,381平方英里),人口为750万。新几 ... 世界最大07-16
-
世界面积最大的国家——俄罗斯 在我们的印象中,可能都知道俄罗斯是世界上陆地面积最大的国家。具体是多少,应该没几个人认真了解过,下面让我们来看一组数字。地球陆地总面积(不含南极洲)1 4894 0000 平方公里,地球海洋总面积约 3 6100 0000 ... 世界最大07-14
-
美女砸20万丰唇成“世界最大嘴唇”悲惨翻车!牙疼难耐 励志打造出“世界上最大嘴唇”的保加利亚女子安德烈娅·伊万诺娃(Andrea Ivanova),最近翻车了。起因是,安德烈娅咬到榛果巧克力时牙齿受损,疼得不行,却在就诊时因嘴唇问题,被牙医拒绝治疗。明明牙超级疼,牙医 ... 世界最大07-13
-
世界上最大的“国中国”,国土四面被南非包围,为何没有被吞并? 翻开非洲地图,就会发现一个奇异的现象。南非雄踞非洲南部,它的版图腹地,却存在着一个完整的国家,它就是莱索托。莱索托国土四周被南非严密包围。虽然它是世界上面积最大的国中国。然而在南非这个非洲少见的强国面 ... 世界最大07-12
-
行进中国丨探访全球最大“华龙一号”核电基地 漳州核电项目建设如火如荼。人民网 李昌乾摄建设中的漳州核电项目。人民网 李昌乾摄连日来,位于福建省漳州市云霄县的漳州核电项目正加紧施工。漳州核电是“华龙一号”批量化建设的始发地,也是目前世界上最大的“华 ... 世界最大07-12
-
打破国外垄断!全球最大,下线! 科技日报记者 张毅力7月9日,全球最大辗环机(22米)全系列轴承在河南省洛阳市下线。下线仪式现场。洛阳轴承集团有限公司供图此次在洛阳轴承集团有限公司下线交付的全系列轴承,共有14个型号,其中调心滚子轴承外径 ... 世界最大07-11
相关文章
- 世界上最大的“国中国”,国土四面被南非包围,为何没有被吞并?
- 行进中国丨探访全球最大“华龙一号”核电基地
- 打破国外垄断!全球最大,下线!
- 全球最大连锁影院放大招:周二周三半价观影
- 全球最大,成功首航!
- 世界最大跨径三塔不对称斜拉桥建设取得新进展
- 世界最大航空发射场,拜科努尔今年70岁
- 中国地图上缺了啥?世界最大‘湖泊戴’竟与我们擦肩而过!
- 世界最大!“山河号”,横穿黄河!
- 世界最大直径,完成这一重要节点!
- 美媒:中国正在建设世界最大国家公园体系
- 全球最大汽车滚装船在烟台港启航欧洲
- 以色列首都CBD被炸!世界最大钻石交易所遭破坏
- 世界最大跨度斜拉桥常泰长江大桥迎通车前“体检”
- 比狗大的兔子?盘点世界上八种体型最大的动物
- 地球上最大的生命体,存活8万年占地9平方公里,至今仍在生长
- 当年执意独立,成为世界最大"国中国",如今穷得邻国都不愿吞并?
- 面积堪比国家大!世界上最大的省是在哪里?
- 全球十大超模大码身材!阿什莉·格拉汉姆:谁说美只有一种标准?
- 世界上最大的生物正在死亡,重6000吨,它能活下来吗?
热门阅读
-
泷泽萝拉作品,光看一眼就让人欲罢不能 07-14
-
高岗事件真相令人震惊 究竟有何隐秘内幕 07-14
-
北京大裤衩 也就是中央电视台总部大楼 10-24
-
江户四十八手 看一看可以年轻十岁 11-01
-
柳州莫菁视频流出,最终判定是男友所为触及法律底线 11-14
-
揭秘翁帆怀孕真相 杨振宁和翁帆的孩子 11-15
-
世界上最大的火车站,在中国(100个足球场大) 05-26