本报讯(记者 袁璐)“双模型”聚合效应下,国产AI能力快速升级。昨天,腾讯AI助手“腾讯元宝”上新,在深度思考模式下,其接入的DeepSeek能够理解图片信息。
此前,DeepSeek主要支持扫描图片中的文字,如果是不带有文字的图片,该大模型无法完成解析。记者体验发现,在腾讯元宝,用户关闭联网搜索后,发送任意图片,DeepSeek都能结合图片内容给出分析和理解。
据悉,DeepSeek之所以能读懂图片,是因为腾讯将其与混元的多模态能力进行融合。DeepSeek的V3和R1模型均为大语言模型,不具备识图能力。在DeepSeek的官方版本中,需要先实现图片的文本识别,然后再进行模型处理。
记者注意到,短短9天,腾讯元宝已迎来5次快速迭代和功能更新。目前,该AI助手内的所有模型,都已支持理解图片、解析文件、联网搜公众号、从微信上传文件。
业内人士分析称,未来或许部分互联网大厂还能够在大语言模型能力的迭代或者多模态模型方面有所突破,但对绝大多数企业而言,未来的竞争焦点,将是实现大模型能力的产品化落地。