来源:市场资讯
(来源:量子位)
具身智能赛道的想象力,远比眼前的机器人要辽阔。
当大家还在琢磨怎么把大模型塞进机器人里时,数字人也和具身智能关联上了。
就在今天,魔珐科技发布了面向开发者的具身智能基础设施——「魔珐星云」具身智能3D数字人开放平台
这也是全球首个。
在魔珐星云的驱动下,不仅大语言模型能够“长出身体”,实体机器人也能像人一样拥有动作、表情,实现自然表达。
凭借低于1.5秒的端到端延迟、千万级并发能力,以及百元级算力即可运行的架构,人机对话几乎就像朋友面对面聊天一样自然。
这是怎么做到的?
魔珐星云:让AI拥有身体的开发者平台
魔珐星云魔珐科技推出的面向开发者的具身智能3D数字人开放平台。
它可以根据文本,实时生成3D数字人的语音、表情、眼神、手势和身体动作,让任何屏幕、应用、终端都实现自然、流畅的多模态交互。
魔珐星云主要驱动3D具身数字人的三大应用方向。
首先,魔珐星云可以为大模型和AI智能体提供身体和表达能力,让原本只能文字交流的模型,通过语音、表情和动作与人类进行自然互动。
其次,它可以让手机、平板、电视、车载屏幕等各种终端升级为具身智能界面,让每一块屏幕都能“能说、会动”,从被动的信息载体转变为主动的服务者或信息提供者。
最后,魔珐星云还能驱动人形机器人实现自然沟通
它可以在虚拟端生成关节级运动(运动学轨迹),通过仿真+模仿/强化学习映射到机器人(动力学控制)。
这样,机器人不仅能行走、操作,还能通过语音、眼神、手势等自然方式与人交流,实现讲解、导览、交互问答等功能。
由此,魔珐星云超越了普通的内容生成工具,成为了让大模型“有身体”的底层基建。
在具体的应用场景中,它能在酒店、政务大厅、展馆等场景上岗,胜任接待、导办、讲解工作。
无论是作为大屏互动窗口,还是化身为接待机器人,数字人都能做到7×24小时在线待命,提供始终如一的亲切服务。
在一些更细分的场景中——比如AI面试、线上培训等——数字人也突破了传统的文本对话形式,让用户能够与一个“有温度”的具身形象进行自然互动。
对于个体开发者,魔珐星云也支持SDK或API部署调用,开发者可根据实际需要将魔珐星云能力嵌入任何终端——屏幕、机器人、App……
例如,开发者可以打造有形象、有表情、能对话的AI伙伴,或者通过SDK/API接入网页、小程序或App,生成有形象的具身数字人助手。
可以说,魔珐星云平台的发布志在将计算机图形界面转化成有形象、能交流、能办事、能陪伴的具身智能体,让屏幕活起来!
而魔珐星云的落地实现,离不开魔珐的核心优势。
突破“高质量、低延迟、高并发/低成本”的不可能三角
当前,数字人的规模化商业落地面临多重挑战。
首先是体验是否过关——数字人的形象、表情、动作、唇形与声音是否自然,能否传递“人在场”的感受。
其次是响应速度——用户输入后系统能否快速反馈。在此基础上,还需要兼顾成本可控规模化部署多终端适配能力。
针对这些挑战,现有技术方案各有侧重,形成了典型的不可能三角
而魔珐星云的推出,正是对这一不可能三角的首次突破。
魔珐科技以自研的文生多模态3D大模型为核心,将语义、语音、表情、动作纳入统一生成体系,多模态统一驱动,实现语音、表情与动作的自然同步与情感协调。
更关键的是,围绕模型,魔珐星云还设计了创新的云-端拆分架构
云端仅生成语音和动作参数,端侧AI直接渲染画面,无需传统引擎与GPU支持,就能使带宽更小、延迟更低、算力更省。
也正因这一架构,魔珐星云不仅可以在RK3566、3588等百元级芯片上流畅运行,还适配国产信创芯片,让数字人真正跑在各种系统、终端,甚至中低端设备上,让具身智能从实验室走向随处可用。
此外,魔珐星云还有一个很强的底子:
团队从2018年开始为游戏、影视、动画公司制作3D内容,到后来自己积累动画数据,目前已有数千小时的高质量3D动画资产。
在一个“高质量每秒成本上千元”的领域,这样的数据体量不仅稀缺,更是支撑大模型表现力的关键。
过去两年,魔珐也在持续推进“3D+AI”的融合落地——推出视频工具有言、直播产品有光、交互产品有灵,把魔珐星云的技术能力不断转化为具体应用。
魔珐星云的推出则进一步印证了魔珐从项目到产品再到平台的转变——
将3D数字人能力全面开放,让开发者和企业都能快速构建具有人类表达力的具身智能体。
此外,为了推动不同场景的驱动落地,魔珐科技创始人、CEO柴金祥教授表示:
目前,魔珐星云平台已全面开放给开发者使用。用户可以通过SDKAPI接入,实现实时驱动、语音合成、视频生成等具身智能能力。
屏幕上的具身智能体
长期以来,魔珐科技一直被视为数字人领域的头号玩家,但这次新发布的魔珐星云并非单纯的数字人/视频生成平台 。
一方面,与传统的数字人平台不同,魔珐星云不是在“合成一段表演”,而是在“驱动互动”。
传统平台多基于2D拼贴、口型合成与预录动作回放,动作有限、响应滞后,也缺乏多模态理解。
而魔珐星云基于3D多模态生成模型,可同时生成语音、表情与动作,使AI的交流具备“眼神、节奏与身体语言”的层次感。
另一方面, 与Sora等视频生成模型不同,魔珐星云的目标不是生成影像,而是驱动存在
Sora可以生成逼真的视频,但输出不可控、延迟高、成本重——更适合做内容,不适合做交互。
魔珐星云则以低于1.5秒的端到端延迟百元级算力的轻量架构,实现了语义、语音、动作一体化的实时驱动,让AI能随语义实时反应。
可以说,Sora让AI“看起来像人”,传统数字人让AI“听起来像人”,魔珐星云则让AI“像人一样回应,表现”。
而这一标志性的区别,正源于魔珐星云此次的独特定位——具身智能3D数字人
简单来说,具身智能3D数字人就是将数字人的能力(有形象、会表达)与大模型的能力(有大脑、能办事)深度融合。
这里的具身智能体(Embodied Agent)与传统强调AI进入物理世界、具备感知和行动能力的具身智能(Embodied AI)不同,更侧重人机交互(HCI)和多模态AI。
从最早的纸带机、终端命令、图形界面,再到大模型的文本输入框,交互界面始终缺乏一个“活的身体”。
具身智能体的提出则在于让“身体能力平台化”,让任何屏幕、界面、应用都能拥有身体,从而在具体场景中以自然方式进行交互和服务
在这里,“身体”不一定是机械的,而是可感知、可体验的身体界面。
例如:屏幕上的3D数字人、手机里的虚拟助手、车载屏幕里的AI副驾、 接入机器人后的动作与表情驱动系统。
这些智能体有表情、有语气、有手势——即便身体只存在于屏幕上,也能被人类感知为“一个在场的智能体”。
相比传统只能输出文字或语音的AI,魔珐星云赋予AI更丰富的表现力和自然的交互体验。
想象一下:如果AI健身教练只能通过文字或语音指导,而无法用身体演示动作;如果英语陪练没有形象,只能让你对着空气开口说话——交互体验必然会大打折扣。
具身化正是为了解决这个问题:让终端、应用或智能体以人的方式表达——通过表情传递情绪,通过声音和语气沟通,通过动作和形象建立存在感。
只有这样,交互才能可信,才能规模化,才能真正走入社会。
正如柴金祥教授所说:
此外,从“脑到身”的视角看,AI的发展也可视为具身发展的演进路线。
魔珐星云正是贯通了虚拟具身和真实具身,既能驱动虚拟3D数字人的动作、表情和语音,也能驱动人形机器人的关节动作、面部表情和手势。
正因如此,魔珐星云弥合了虚拟世界的大模型“有脑却无身”,缺乏情绪、动作和表现力,现实世界的人形机器人“有身却无魂”,能动却不会交流的鸿沟。
从这个意义上说,魔珐星云并不只是一个数字人平台,而是一次对“具身智能”概念的重新审视。
就像柴金祥教授提到的: