云厂商集体上线DeepSeek,低成本“一键部署”抢企业客户
创始人
2025-02-11 16:01:08
0

界面新闻记者 | 肖芳

界面新闻编辑 | 文姝琪

DeepSeek在今年春节期间走红之后,成为云计算厂商争夺重点

界面新闻了解目前亚马逊云科技阿里云腾讯云移动云十几家国内外云计算厂商上线DeepSeek-R1和DeepSeek-V3模型

实际上类似类似的剧情在过去一年中已屡见不鲜,虽然这次的角色身份略有不同,但模型争霸的本质依然没变。在普通用户端,使用新AI很简单,下载APP直接用起来就行了。但在企业端,却并不简单,部署首先需要价格不菲的硬件,其次需要提供稳定的API,再者还需要构建面向用户端的应用并实施托管,更不用说高阶的针对企业私有数据的定制优化了。同时,企业还需要考虑数据和模型的安全问题。

这些问题可以大致归纳为企业部署和使用模型中的工程化问题,具体包括成本、性能安全以及针对私有数据进行定制优化、不同尺寸的模型和日益增长的各种智能体的复杂调度等。

以DeepSeek为例,其公开的模型V3和R1均有不同的型号。其中DeepSeek-R1-Distill系列模型参数范围是15亿至700亿,而R1和R1-Zero的参数规模则达到6710亿。一方面不同参数规模的模型对计算性能的要求不同,企业需要对部署的硬件和软件进行细致的调优,确保模型在实际运行中能够达到最佳的性能另一方面企业在应用实践通常需要平衡“响应速度”与“推理能力”采用多级模型混合部署模式还会面临异构计算资源的管理部署难题

在这种情况下,降低企业部署大模型门槛已经成为云计算商获得市场竞争力的又一个关键因素。一位云计算厂商的售前技术人员对界面新闻表示,DeepSeek之后,大模型的迭代速度会加快,云计算厂商想要以更快地速度帮助企业应用性能更好成本更低模型还需要持续降低企业部署大模型门槛

低代码、多样化部署成趋势

灵活性和选择多样性企业选择是云平台部署大模型重要因素之一降低企业部署大模型门槛云计算厂商依然灵活性多样性进行探索

上线DeepSeek-R1和DeepSeek-V3模型之后阿里云PAI Model Gallery支持了云上一键部署两款模型无需编写代码即可完成AI模型开发流程

企业相关工作人员登陆阿里云PAI控制台,在Model Gallery页面的模型列表中选择想要部署DeepSeek系列模型一键部署DeepSeek模型生成服务即可。

目前DeepSeek-R1支持采用vLLM加速部署,DeepSeek-V3支持vLLM加速部署以及Web应用部署,DeepSeek-R1蒸馏小模型支持采用BladeLLM和vLLM加速部署简单来说在不同计算资源和应用场景下,企业可以更灵活地部大模型

同时阿里云的机器学习平台还为企业提供了自动化的机器学习工具,通过自动搜索模型参数和训练超参数的最优组合低代码可视化建模方式降低了企业部署大模型的技术门槛

亚马逊着重探索方向助力企业客户进行多样部署这是基于大模型应用初期洞察而来亚马逊CEO Andy Jassy此前多次公开场合表达大模型行业发展判断不会有一个模型一统天下。在基于大模型构建应用时,不同的应用场景需要的技术指标也各不相同,延迟、成本、微调能力、知识库协调能力、多模态支持能力等等,都会因场景需求的不同而被取舍。

经过几年发展,企业对大模型应用越来越印证了这个判断以快速响应场景为例,DeepSeek R1的深层思考模式显然不太合适,其生成首个token的用时超过30秒,而Amazon Nova则只需要数百毫秒即可生成响应。而目前的DeepSeek-V3模型是文生文模型,并不支持图形等多模态信息的输入也不是万能

其于这一理念亚马逊云科技上线DeepSeekAI21 Labs、Anthropic和poolside等100多个重点领先厂商的模型提供多样化部署方式比如DeepSeek部署上亚马逊云科技提供4方式既可以满足一部分企业客户希望通过API快速集成预训练模型需求也可以另一部分企业客户追求高级定制或者性价比需求

整体趋势降低模型训练和部署门槛,使企业无需深厚AI经验即可调用大模型,各家云计算厂商目前都在做的事

模型蒸馏等AI工具变得越来越重要

DeepSeek-R1-Distill通过蒸馏优化,在推理速度、计算成本、部署灵活性方面具有明显优势,它更适合需要低成本部署大模型场景

DeepSeek-R1-Distill发布之前亚马逊云科技还在Amazon Bedrock中推出模型蒸馏功能,帮助企业进一步降低大模型的使用成本。根据亚马逊云科技CEO马特・加曼(Matt Garman)在演讲中透露的信息,经过蒸馏的模型相比被蒸馏的模型,运行速度能够快500%,成本还能降低75%。

上述云计算厂商售前技术人员看来DeepSeek走红之后企业客户通过模型蒸馏降本增效需求越来越模型蒸馏功能对于云计算厂商越来越重要

据界面新闻了解除了亚马逊云科技之外阿里云百度云国内云计算厂商支持蒸馏功能其中阿里云PAI型蒸馏功能支持将大模型的知识迁移到较小的模型中,从而在保留大部分性能的同时,大幅降低模型的规模和对计算资源的需求。比如,基于 Qwen2大模型开发的精简语言模型,通过知识蒸馏技术,提升了指令遵循能力,同时保持了较小的参数规模,便于部署和应用。

通过模型蒸馏满足企业客户低成本部署需求属于解决大模型落地使用工程化问题如果基于场景选择合适的模型只是构建应用旅程的第一步,随着构建的深入,解决工程化难题的能力成为能否实现快速创新的关键

除了模型蒸馏功能之外云计算厂商优化效果、减低延迟和成本可以通过低延迟优化推理、提示词缓存等功能,大幅提升推理效率。比如直接返回已缓存的结果每次都调用大模型计算推理延迟更短计算成本更低

企业落地大模型过程还有一些需求推动云计算厂商更多工程化问题进行创新包括基于企业自有数据的定制优化、AI安全和审查以及实现复杂功能的多智能体

从实践来看,云计算厂商也在通过降低投入成本技术门槛方式满足企业客户这些需求其中亚马逊云科技把AI工具集成Amazon Bedrock平台,通过更便于操作的方式企业经济实用解决提取自由数据提升回答问题准确性问题

马特・加曼(Matt Garman)在2024 re:Invent上分享亚马逊在部署大模型几个关键洞察特别强调了计算成本问题在他看来,随着生成式AI应用规模的扩大,计算成本变得至关重要,人们非常渴望获得更高的性价比。

这也是驱动云计算厂商大模型部署持续创新关键因素可以预见未来,云计算厂商进一步结合AI硬件加速和自动化优化,推动企业客户使用更快、更低成本的大模型推理服务。

相关内容

热门资讯

万得凯获得实用新型专利授权:“... 证券之星消息,根据天眼查APP数据显示万得凯(301309)新获得一项实用新型专利授权,专利名为“一...
燃梦讲堂第七期开讲!海淀青年逐... 人工智能浪潮奔涌向前, 青年创业者恰是浪尖上的追光者。 8月26日下午, “燃梦讲堂”第七期 在慧美...
为何你做的鱿鱼又老又腥?教你5... 为何你做的鱿鱼又老又腥?教你5招锁嫩祛腥!秒杀饭店的爆炒鱿鱼 爆炒鱿鱼要做得不腥气又鲜嫩,关键在于...
原创 钢... 112辆99A坦克轰鸣推进,无人机蜂群空中开路,红旗-17导弹编织的防空网让敌方直升机有来无回——这...
实现“零的突破”!湖南汽车工程... 湖南日报8月27日讯(通讯员 苏岩 乔楚涵)近日,国家自然科学基金委员会公布了2025国家自然科学基...
这座一线城市,为何要为“一顿饭... 促消费,广州最近格外努力。 最新的动作出现在餐饮业。几天前,广州召开了一场特殊的餐饮业发展座谈会。根...
一位山东“老铁”,和他的100... “你是来找小炮子的吗?” 如果有陌生面孔造访大柴村,村民会下意识地追问这句话。 在山东德州齐河县,村...
原创 i... 在2025年的手机市场里,旗舰机层出不穷,但真正能做到“抓住用户最核心的需求”,并把它性价比打磨到极...