DeepSeek本地部署火爆:背后的动力与挑战,DeepSeek本地部署:从个人需求到企业应用

DeepSeek持续火爆后出现的本地化部署现象,包括个人进行本地部署的原因、电商平台上相关服务成为生意,还探讨了不同参数版本本地部署的情况、对AI PC销量的影响,以及企业进行本地部署的情况、面临的选择,最后提及AI应用在DeepSeek本地化部署热潮下的发展趋势等内容。

随着DeepSeek的热度不断攀升,在大众视野里持续火爆出圈,人们已经不再满足于仅仅在网页端和APP端使用DeepSeek了。于是,一种新的使用方式 - 本地化部署开始受到大家的关注。所谓本地化部署,简单来说,就是把DeepSeek的AI大模型直接安装到本地的计算机内部,这样就可以不依赖网络或者云服务来使用它了。记者特意在视频网站上进行了搜索,结果发现有不少用户都上传了关于如何将DeepSeek部署到本地计算机的教程视频,而且其中很多视频的浏览量都超过了100万,这足以说明大家对DeepSeek本地部署的兴趣非常浓厚。DeepSeek的本地部署热潮不仅仅体现在用户的兴趣上,还催生了一种新的商业机会。记者在电商平台上搜索“DeepSeek本地部署”这个关键词后发现,有许多店铺都已经开始涉足DeepSeek本地部署这个业务了。这些店铺提供的服务价格不等,从几元到几十元都有,而且其中一些服务近期已经有1000人购买了,可见这个市场需求还是比较可观的。为什么大家对DeepSeek本地部署这么感兴趣呢?一位热衷于AI的爱好者向记者分享了他的经历。他说,在网络端使用DeepSeek的时候,他发现运行的响应速度比较慢,尤其是在访问量比较大的时候,经常会出现“服务器繁忙,请稍后再试”这样的提示。为了能够获得更好的使用体验,他就决定尝试将DeepSeek进行本地部署。而且他还提到,本地部署其实不需要掌握特别高深的编程知识,只要按照教程一步一步来操作,就可以成功完成部署。艾媒咨询的首席分析师张毅也向记者透露了一些关于本地部署的优势。他表示,本地部署能够支持个人根据自己的需求,对DeepSeek进行一些定制化的修改,这也是吸引大家进行本地部署的一个重要驱动力。此外,本地部署过程中个人数据不需要上传到云端,这就很好地满足了用户对隐私保护的需求。DeepSeek发布了不同参数量的模型,这些模型的参数范围从10亿参数到6710亿参数不等。大家要知道,模型的参数越大,所需要的计算资源也就越多。由于个人电脑和手机等设备的计算资源是有限的,所以像6710亿参数这么大的DeepSeek模型往往是无法在本地进行部署的。那位AI爱好者还告诉记者:“普通的笔记本电脑只能部署10亿参数的版本,如果个人电脑配备了比较好的GPU显卡或者有较高的内存(比如说32GB),那么就可以运行70亿参数版本的DeepSeek了。”从本地部署的实际效果来看,模型的参数越小,大模型的回答质量就越差。那位AI爱好者还分享了他自己的体验:“我曾经尝试在本地部署过70亿参数版本的DeepSeek,运行的时候比较流畅,但是回答的质量和云端版本相比还是差很多,更小参数版本的效果就更不理想了。”在DeepSeek本地部署热度的带动下,一种专门在PC中添加了NPU的AI PC有望迎来销量的增长。据了解,像华为、联想、戴尔等知名电脑品牌都纷纷推出了AI PC。这种新型的PC搭载了专门用于处理本地部署AI大模型计算的处理器芯片,而这些处理器芯片都是由英特尔、AMD、高通等芯片厂商提供的。这些AI PC可以在本地部署并且流畅地运行上百亿参数的AI大模型。例如在CES 2025年的展会上,AMD就推出了Ryzen AI max系列处理器,宣称可以在电脑本地运行700亿参数的AI大模型。不过,配置有这种处理器芯片的AI PC价格可不便宜,据了解,华硕的某款游戏本价格将近1.5万元。所以也有人对此表示质疑,花这么多钱去买AI PC,只是为了进行AI大模型的本地部署,但是实现的功能却和云端的AI大模型高度重合,难道AI PC仅仅是厂商的一种营销噱头吗?除了个人热衷于DeepSeek本地部署之外,企业也开始蠢蠢欲动了。蛇年工作日的第一天,蒂姆维澳的创始人王加辉就在他的微信朋友圈发布了一条消息:“DeepSeek大模型本地电脑部署体验成功,导入煤矿知识安全库进行问答,下一步让它结合工业现场作业。”蒂姆维澳是一家为工业管理提供解决方案的企业,他们主要面向采矿业、石油业等行业,通过运用AR眼镜和AI软件,为工业现场人员的维修、质检、故障排查等工作提供实时的观察和指导。王加辉告诉记者,之前他们只是采用通义千问AI大模型打造了本地知识库问答,但是考虑到DeepSeek具有更好的推理能力,他正在考虑将DeepSeek和企业的业务进行深度融合。他还向记者详细介绍了他们的计划:“我们会在DeepSeek的基础上,根据特定工业场景的需求和数据,对特定的参数进行微调,或者进行二次开发,目的是为了让它能够适配我们的IT系统并且实现新的功能。我们的目标是将DeepSeek部署在本地,并且和现场的相机进行联动,这样就可以更好地识别现场的危险作业,从而实现隐患排查和产品质检等功能。”他还谈到了工业客户对于本地部署的态度,他认为工业客户是否采用本地部署主要取决于数据的涉密性。他说:“一些国企、军工、医疗设备企业往往会要求我们实施本地部署的方案,因为这些企业对数据安全的要求非常高。对于非涉密的场景,可以采用云端接入的方案,虽然会出现操作延时的情况,但是影响不大,而且这种方案的价格更低。”如果采用本地部署的方案,这些客户会要求配置装有4卡或者8卡GPU的服务器,来实现DeepSeek本地推理服务。王加辉还表示:“我的客户普遍会选择英伟达的消费级显卡来配置服务器,例如4090,因为它的性价比比较高。如果客户有国产化配置的要求,我们就会采购价格更高的国产GPU显卡。”除了工业领域,越来越多其他行业的企业也开始进行DeepSeek的本地部署了。国金证券指出,DeepSeek可以应用在信息检索、文档处理、行业研究、市场研判等场景中。此外,像医疗行业、网络安全等行业内的企业近期也都在进行DeepSeek的本地化部署,其中就包括万达信息、奇虎360等企业。艾媒咨询的张毅还告诉记者,随着企业对本地化部署的需求不断扩大,国产推理算力的需求量也会随之增加。再加上美国对高端芯片的封禁,这对于国产芯片算力企业来说是一个很大的机遇。高通CEO克里斯蒂亚诺·安蒙(Cristiano Amon)称,DeepSeek - R1是AI产业的一个转折点,AI推理将会向端侧迁移,AI也会变得更小、更高效、更定制化,并且基于特定场景的AI大模型和AI应用将会不断出现。中航证券的研报也认为,DeepSeek - R1表明端侧AI部署将会变得更加普惠,万物智能的时代也将加速到来。开源的模式将会吸引更多的开发者在DeepSeek的基础上构建应用。目前,华为昇腾、摩尔线程、壁仞科技、天数智芯等国产GPU卡已经和DeepSeek完成了适配;腾讯云、阿里云、移动云、华为云等云厂商也和DeepSeek完成了适配。这种对国产算力的适配优化,有望进一步降低推理侧的成本。不过,由于国内应用付费的习惯还没有完全成熟,AI应用的商业化可能会受到阻碍。国金计算机首席孟灿认为,美国对于应用付费有着10年,甚至20年的基础,这对AI应用的商业化是非常有帮助的,而国内因为没有这样的基础,所以AI应用落地和商业化的时间进度会比较慢。但是,国内也正在不断地追赶,这个时间进度有望缩短到半年以内。

DeepSeek的火爆出圈引发了本地化部署热潮,个人因网络端使用的不足和定制化、隐私需求进行本地部署,企业则考虑数据涉密性、业务融合等因素。本地部署的发展受限于设备计算资源、回答质量、成本等因素。同时,AI PC有望借势发展但也面临质疑。企业的广泛参与将增加国产推理算力需求,给国产芯片算力企业带来机遇。而开源适配等有助于降低成本,虽然国内AI应用商业化面临付费习惯不成熟的挑战,但也在积极追赶。

原创文章,作者:Wonderful,如若转载,请注明出处:https://www.gouwuzhinan.com/archives/13089.html

(0)
WonderfulWonderful
上一篇 2025年2月9日
下一篇 2025年2月9日

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注