随着人工智能从一种效率工具演变为政策和治理的决定因素,一个根本性的转变正在发生:科技公司不再仅仅是创新者,他们正在成为政策参与者——参与制定议程、起草指导方针,并在许多方面掌控着人工智能的未来。
这种转变无疑对政府权力机构的角色和治理方式提出了更紧迫的问题:随着人工智能系统影响经济结构、信息流和安全格局,如何制定一个能鼓励创新、防止被少数占主导地位的行业参与者控制的治理结构至关重要。
科技企业以创新和市场成功为目标,而政府旨在维护公众信任并保护社会利益。这种二元性为合作创造了机会。笔者的研究引入了一种动态治理模式,包括制定标准的公私合作伙伴关系以及创建基于市场的审计和合规生态系统。详细研究结果可在论文《治理的十字路口:人工智能与美国创新的未来》中找到。
人工智能的风险:创新及其意想不到的后果
人工智能能够处理大量数据、自动执行复杂决策并优化流程,这使其成为各行各业的关键工具。然而,如果没有平衡进步与问责的治理机制,人工智能可能会强化偏见并破坏现有的法律制度。
人工智能可以以前所未有的规模操纵信息和决策。由人工智能驱动的推荐引擎驱动的社交媒体平台已经展示了其塑造政治话语、放大虚假信息和分化社会的能力。随着人工智能变得更加自主,它几乎肯定会对政府治理构成重大挑战。虽然2024 年——历史上最大的选举年——基本未受影响,但现在判断公民对政府信任受到AI怎样的长期影响还为时过早。
大规模人工智能模型的开发需要大量的计算资源,控制权集中在少数几家大型科技公司手中。最近,中国初创公司DeepSeek展示了以更低的成本微调模型的能力,并质疑高预算实验室的主导地位。
然而,人工智能在包括预训练在内的总体开发费用仍然很高,而且只有最大的参与者才能负担得起必要的投资。即使开源实践的逐步采用导致基础模型的商品化,成本仍会不断上升,计算需求从训练转向推理(特别是当人工智能推理模型被用来替代传统搜索时),需要更大的计算资源。
如果没有战略干预,这种集中化可能会形成对人工智能能力的垄断,进一步放大企业利益对公共政策的影响。
科技行业对人工智能治理的观点
科技行业领袖强调监管透明度的必要性,同时提醒政府,不要采取僵硬、一刀切的政策,因为这可能会扼杀创新。许多公司已经主动实施自我监管措施,包括道德人工智能原则和内部审计机制,以填补当前的监管空白。
然而,一些行业利益相关者私下承认,自愿承诺不足以阻止有害的人工智能应用。
一位高管将人工智能描述为“有史以来最复杂的宣传武器”,强调不受控制的算法影响的风险;另一位高管强调了责任框架的重要性,即公司应该对自己创建的模型负责,并在其整个生命周期内对其进行管理。
尽管存在这些担忧,但业内许多人仍反对规范性的监管措施,他们认为严厉的政府干预可能会减缓进展并削弱本国的竞争力。
行业领袖还强调,需要采取灵活的治理方法,以适应快速的技术变革。一些人主张制定针对特定行业的指导方针,允许监管机构根据不同的人工智能应用量身定制政策,而不是强加一套通用的规则,因为这可能会忽视人工智能在医疗、金融、国家安全或消费技术领域的细微差别。
动态治理模型:人工智能政策的新方法
行业领导者强调灵活性的必要性,认为过于严格的监管可能会扼杀创新;政策制定者强调监管机制的重要性,以确保人工智能不会加剧不平等、增加欺诈或威胁隐私和国家安全。
但人工智能治理不是必须在不受约束的创新和严格控制之间做非此即彼的选择。笔者相信,结构良好的政策实际上可以在促进创新发展的同时降低风险。
当今的人工智能挑战需要类似的平衡。解决方案在于一种适应性强、包容性强、能够随着技术进步而发展的治理模式。
为了应对人工智能治理的挑战,笔者提出了一个动态治理模型。我们不主张任何具体的立法或法律修订。相反,重点是一种可以应用于不同政策目标的方法,从较小的、基于利基的政策到更大的人工智能国家政策举措。
该模型由如下三个核心部分组成,而且它也是不断发展的,可以随着技术的变化而适应。
1、加强人工智能评估标准的公私合作伙伴关系
动态治理模式的成功取决于结构化的公私合作伙伴关系,这些合作伙伴关系定义了评估标准,确保人工智能的部署符合安全、公平和问责原则。这些合作伙伴关系超越了咨询角色,而是作为积极的共同监管实体运作。
评估标准必须保持适应性,才能使人工智能治理取得成功。公私治理实体将建立灵活的审计协议,确保标准随着人工智能技术的进步而修订。
治理框架建议采用轮换领导结构,以防止任何单一行业参与者主导标准制定过程。此外,监督将分散在监管机构、民间社会组织和独立审计人员之间,以提高透明度。
2、加强人工智能审计与合规的市场化生态系统
独立的第三方实体监督人工智能审计,以验证是否符合既定标准。
认证系统可以让遵守最佳实践的公司表明其对负责任的人工智能部署的承诺,从而培养消费者和投资者的信任。
关于人工智能治理的主要担忧之一是缺乏有效的审计机制来评估合规性。动态治理模型设想了一个人工智能审计市场,独立实体在部署前和部署后阶段实时认证人工智能系统。
该人工智能审计和合规生态系统的关键组成部分包括:
通过利用基于市场的激励措施,例如对经过认证的人工智能模型进行监管快速通道或在有限时间内提供责任保护的监管沙盒,该系统将鼓励自愿遵守,同时保持监管监督。
3、问责机制
通过立法和司法程序建立明确的责任结构,以确保人工智能开发者和部署者对其系统造成的危害负责。
法院、行政机构和立法机构在执行这些问责措施方面发挥着互补作用,确保法律的清晰性和可预见性。
治理模式的最后一大支柱是确保人工智能系统的法律责任结构清晰。当今人工智能的许多风险都源于法律责任的模糊性。
使用动态治理模型可以促进创造:
共享责任框架,在人工智能开发人员、部署人员和最终用户之间分配责任。
算法可追溯性要求确保公司记录决策过程以供法律和监管审查。
人工智能裁决框架,由专门法院或监管机构解决与人工智能相关的纠纷,确保人工智能诉讼不会压倒传统法律体系。
这些问责机制不仅保护了消费者,还激励企业在制定标准和审计经验的基础上积极开发更安全的人工智能模型。此外,通过加强问责阶段,可以激励企业遵守规定并参与制定标准,形成良性参与循环。这种模式的透明执行可以赢得所有市场参与者的信任。
*****
现今的挑战显而易见:人工智能太强大了,不能不受监管;但其变革性又太强,不能承受过多的限制。动态治理模式为实现这一平衡提供了一条结构化、协作的途径,确保创新在透明和负责任的框架内蓬勃发展。
作者:保罗•卡尔旺、亚姆•阿提尔、萨尔维娜•安切瓦
分别是哈佛肯尼迪学院 Mossavar-Rahmani 商业与政府研究中心的高级研究员和学者。
编译:《互联网法律评论》
【免责声明】
本文撰写所需的信息采集自合法公开的渠道,我们无法对信息的真实性、完整性和准确性提供任何形式的保证。本文仅为分享、交流信息之目的,不构成对任何企业、组织和个人的决策依据。
《互联网法律评论》提供业界解决方案
互联网法律国际监管动态研究
互联网产业投资和政策监管研究
互联网企业:极端地缘政治冲突中的公关战略研究
合作联系
zhangying@cggthinktank.com
上一篇:原创 老詹缺席后,湖人3连败露馅!如何围绕东契奇建队?美媒晒3大要点
下一篇:玩家必看教程((Wepoke助手))wepoke用模拟器有用(辅助挂)外挂透明挂辅助助手(2023已更新)(哔哩哔哩)