晶圆级AI芯片厂商Cerebras Systems旗下芯片执行DeepSeek - R1模型的速度优势,以及DeepSeek - R1模型的性能特点、开源影响和它所面临的来自欧美的政治发难等情况。
《财富》杂志官网在近日有报道称,Cerebras Systems这个主要着眼于人工智能(AI)推理任务应用的晶圆级AI芯片厂商发布了一则重磅消息。其旗下的晶圆级AI芯片(极有可能是WSE - 3)在执行DeepSeek - R1这个拥有700亿个参数的中型模型时,所展现出来的速度简直令人惊叹,它比当下速度最快的GPU还要快上57倍。
Cerebras Systems的CEO Andrew Feldman在接受采访的时候表示,企业客户对于中国AI大模型厂商DeepSeek最新推出的R1推理模型表现出了极为高涨的热情。他透露,在DeepSeek - R1发布仅仅十天之后,“我们就迎来了需求的暴增。”
从官方资料中我们可以看到,WSE - 3的制作依然采用的是一整张12英寸的晶圆,基于台积电5nm制程工艺。它的芯片面积达到了46225平方毫米,晶体管数量多达4万亿个,拥有90万个AI核心,还有44GB的片上SRAM,整体的内存带宽为21PB/s,结构带宽更是高达214PB/s。这使得WSE - 3的峰值性能达到了125 FP16 PetaFLOPS,和上一代的WSE - 2相比,性能提升了整整1倍。
△Cerebras WSE - 3芯片
DeepSeek - R1推理模型相当厉害,它仅仅用了极低的训练成本,就获取了能够与OpenAI等竞争对手最先进的推理模型相媲美的性能。这一成果对于现有的技术路线来说具有很大的颠覆性。而且,DeepSeek还非常大度地将这个模型进行了开源。这一开源举动意义非凡,全球的科技厂商都能够借助这个模型快速构建自己的AI应用。相关的AI芯片厂商也能够迅速针对这个模型进行适配和优化,从而充分发挥AI芯片的性能,就算是英伟达AI GPU之外的AI芯片也能够从中受益。
为了展示Cerebras的AI服务器执行DeepSeek - R1的速度有多快,Andrew Feldman现场进行了演示。他指示模型用Python语言撰写国际象棋游戏,结果仅仅花费了1.5秒就完成了任务。相比之下,OpenAI最新发布的o1 - mini推理模型使用传统GPU来完成相同的任务却需要22秒。不过需要注意的是,由于OpenAI模型属于封闭系统,无法直接在Cerebras硬件上进行测试,所以很难做到完全对等的比较。
△Cerebras基于WSE - 3的CS - 3超级计算机,可用于执行参数高达24万亿的人工智能模型
Andrew Feldman还着重强调,在数学与程序任务方面,DeepSeek - R1的表现要比OpenAI - o1更加优异。针对这类任务,“使用DeepSeek - R1你能够更迅速地得到精确答案。”
然而,由于R1是由中国的大模型技术厂商DeepSeek所开发的,这就引发了欧美各国基于政治因素而产生的诸多刁难。他们以隐私安全等问题为借口来发难。美国国会已经开始着手立法,打算全面禁止来自中国的先进AI模型。美国国防部、国会、海军、NASA以及德克萨斯州也相继做出禁止在政府官方设备上使用DeepSeek模型的决定。
Andrew Feldman也提到,DeepSeek推出的基于其AI大模型的AI聊天应用是全世界最受欢迎的APP,但是如果直接使用的话,数据必然会被传回中国。所以,他建议大家“不要这么做”,而是选择美国企业托管的大型语言模型(LLM),例如Cerebras、Perplexity等厂商。
虽然Feldman坦诚地表示DeepSeek确实存在一些潜在风险,但是他认为使用者只要保持基本的判断力就可以了。他打了个比方,“就好比当你使用电锯的时候,应该穿上钢头靴并且戴上护目镜。但这并不意味着就不应该用电锯了,而是要谨慎使用。”
Cerebras Systems芯片执行DeepSeek - R1模型的速度优势、DeepSeek - R1模型自身的高性能与开源带来的影响,以及它在国际环境下面临的因政治因素导致的被欧美抵制的状况,还提及了相关人士对使用该模型及其相关应用的建议等多方面内容。
原创文章,作者:Daniel Adela,如若转载,请注明出处:https://www.gouwuzhinan.com/archives/9591.html