
5月30日,百度在2024移动生态万象大会上正式推出了AI原生应用——“橙篇”。
“橙篇”不仅让用户能够轻松应对超大、多格式、长内容的文件挑战,进行深度理解、精准总结和即时问答,更以其超长篇幅的长文生成、深度编辑和多模态自由创作能力,极大地丰富了用户的内容创作手段。

这一创新的背后,是百度文库12亿内容的深厚积淀,以及20万精调数据、1.4亿用户行为数据反馈与上百项尖端AI技术的完美融合。通过“橙篇”,用户还能享受AI全网智能检索和学术检索的便捷,一键触及百度文库、百度学术及全网数十亿的专业信息和资料。
同时,百度文库经大模型重构后的最新进展也在大会上公布。该平台已汇聚12亿优质文档资源,发布上百项多模态AI功能,吸引了超过1.4亿的AI用户,AI功能使用次数更是突破15亿次。
面壁智能推出了最新一代端侧多模态模型 MiniCPM-Llama3-V2.5,这款模型具有超强的综合性能,能够超越 Gemini Pro 和 GPT-4V 等多模态巨无霸。
MiniCPM-Llama3-V2.5在 OCR(光学字符识别)方面取得了 SOTA 的成绩,能够精准识别难图、长图和长文本。该模型支持30多种语言,并且首次实现了端侧系统级多模态加速,使图像编码速度提升150倍。
此外,MiniCPM-Llama3-V2.5在幻觉能力、复杂推理能力等方面也取得了突出表现,能够在多种场景下进行准确的分析和推理。
总体来说,MiniCPM-Llama3-V2.5展现出了强大的多模态综合能力,为端侧 AI 模型的发展带来了新的突破。
阿里云今日正式发布通义千问2.5版本,该版本在模型性能上全面赶超了GPT-4Turbo,展现了其强大的技术实力。与此同时,通义千问最新开源的1100亿参数模型Qwen1.5-110B在多个基准测评中取得了卓越成绩,超越了Meta的Llama-3-70B模型,成为开源领域的新星。
与通义千问2.1版本相比,2.5版本在理解能力、逻辑推理、指令遵循和代码能力等方面均有了显著提升。具体而言,理解能力提升了9%,逻辑推理能力提升了16%,指令遵循能力提升了19%,而代码能力则提升了10%。这一飞跃性的进步使得通义千问2.5在权威基准OpenCompass上的得分与GPT-4Turbo持平,证明了其在自然语言处理领域的领先地位。

除了通义千问2.5的发布,通义还推出了最新款开源模型Qwen1.5-110B。这款拥有1100亿参数的模型在MMLU、TheoremQA、GPQA等基准测评中均表现出色,成功超越了Meta的Llama-3-70B模型。在HuggingFace推出的开源大模型排行榜Open LLM Leaderboard上,Qwen1.5-110B更是荣登榜首,进一步巩固了通义开源系列在业界的领先地位。
通义的多模态模型和专有能力模型同样令人瞩目。其中,通义千问视觉理解模型Qwen-VL-Max在多个多模态标准测试中超越了Gemini Ultra和GPT-4V,其强大的视觉理解能力已经在实际应用中得到了广泛验证。而通义千问代码大模型CodeQwen1.5-7B则是HuggingFace代码模型榜单Big Code的头名选手,展现了其在代码生成和代码理解方面的卓越能力。
这一模型的推出不仅满足了开发者对于高效代码生成的需求,也为企业客户提供了更为智能的代码管理和优化解决方案。