来源:睿见Economy
3月26日消息,在2025年博鳌亚洲论坛年会期间,新浪财经对话德勤中国科技、传媒和电信行业主管合伙人程中。
关于如何防范AI使用过程中的风险,程中对新浪财经表示,现在大模型工具有很多不足,而AI的性能和实用性取决于算力(硬件资源)、算法(模型架构与优化)、知识(数据质量与规模)三大核心要素的协同作用。他认为,之所以有时候AI提出来的东西有幻觉(看似合理但实际错误或虚构的信息),本质上是当前技术架构与训练方式固有局限的体现。比如在机制方面,AI基于统计概率生成文本,通过海量数据学习词语/概念的关联模式,而非真正理解事实。在逻辑合理性方面,模型输出的“合理性”仅反映语言结构的概率分布,而非事实准确性。在数据偏差方面,若训练数据包含矛盾、过时或未标注的虚构内容,模型可能混淆真实与虚构边界。
程中建议,AI使用者有三方面可以去做:
首先,要在知识层面强化自身的训练过程,灌输给AI的知识需要不停提升,包括数据来源、质量、颗粒度、口径以及时效性。同时,知识的持续迭代与系统性治理也极为关键,这一过程非简单的数据堆砌,而是需要构建一套覆盖数据全生命周期的知识引擎。
第二,他认为由于当前机器人尚未达到全智能化,暂时无法猜透背后的诸多含义,因此与机器人交互的能力需进一步加强。这并非两个人之间的交互,而是使用AI的人要学会跟智能体交流。“5年或者10年后,企业里会有多元化的员工,智能体是其中一个员工,未来人类与智能体在工作过程中要不停交互,不停沟通,所以这是很关键的点。”“未来的CEO/CXO可能管理的是多元化的团队,有机器人团队,也有智能体团队、人的团队。如何能管理好他们是企业核心竞争能力之一,因此如何与智能体交互是一个庞大系统工程。”程中表示,这个工程随着AI的应用不断成熟,可能会让交付越来越简洁或便捷化,但至少目前要更注重跟智能体的交付的问答以及沟通的过程,逐步让答案倾向于真实有用。
程中认为,第三,很重要的是AI应用中的合规和隐私,这是确保系统可信、可持续的核心支柱。在使用AI过程中要注重合规和隐私,输出结果才具备商业价值和社会可接受性。“要注意不能什么东西都往上放,什么东西都塞进去。”(刘丽丽)