来源:至顶网
微软发布了两款内部训练的AI模型,并表示将开始在一些产品中使用这些模型。这一举措可能标志着微软正努力减少对OpenAI的依赖,尽管微软已对该公司进行了大量投资。这一消息的发布距离内部报告透露微软开始开发自主基础模型已超过一年时间。
微软在其AI博客中介绍了两款模型。MAI-Voice-1是一款自然语音生成模型,旨在"在单人和多人场景下提供高保真、富有表现力的音频"。该模型的理念是,语音将成为用户与AI工具交互的主要方式之一,尽管到目前为止我们还没有真正看到这一趋势的实现。
第二款模型名为MAI-1-preview,这是一个专门为驱动微软AI聊天机器人工具Copilot而训练的基础大语言模型。该模型使用了约15,000块英伟达H100 GPU进行训练,并在单个GPU上运行推理。正如去年报道的那样,这款模型比微软早期实验中的模型要大得多,早期实验主要专注于像Phi-3这样的本地运行小型模型。
迄今为止,Copilot主要依赖OpenAI的模型。微软已向OpenAI投入巨额资金,两家公司不太可能在短期内完全分道扬镳。尽管如此,近几个月来,当两家公司的激励机制或目标出现分歧时,确实出现了一些紧张关系。
由于很难预测未来的发展方向,开发自主模型对微软的长期优势来说可能是有利的。
微软推出这些模型也可能是为了解决OpenAI并未重点关注的用例或查询。我们看到AI领域正在逐渐转向更专门化的任务模型,而不是试图满足所有人需求的通用全能模型。
这些新模型在某种程度上遵循了这一趋势,正如微软AI负责人穆斯塔法·苏莱曼在The Verge播客中所说,这里的目标是"创造出对消费者极其有效的产品...我的重点是构建真正适合消费者伴侣的模型"。
因此,我们看到这些模型将在Copilot中推出是有道理的,因为Copilot是微软面向消费者的AI聊天机器人产品。关于MAI-1-preview,微软AI博客文章特别指出,"这个模型旨在为寻求从专门遵循指令并为日常查询提供有用回应的模型中受益的消费者提供强大功能"。
是的,MAI-1-preview确实有目标受众,但由于Copilot是一个通用工具,它仍然是一个通用模型。
MAI-Voice-1已经在微软的Copilot Daily和Podcasts功能中使用。还有一个Copilot Labs界面,你现在就可以访问并试用,给它提示或脚本,并自定义你想听到的声音类型或表达方式。
MAI-1-preview目前正在LMArena上进行公开测试,并将在"未来几周内推广到Copilot的某些文本用例中"。
Q&A
Q1:微软发布的两款AI模型分别是什么?
A:微软发布了MAI-Voice-1和MAI-1-preview两款模型。MAI-Voice-1是自然语音生成模型,能在单人和多人场景下提供高保真音频;MAI-1-preview是专门为Copilot训练的基础大语言模型。
Q2:微软为什么要开发自己的AI模型?