新加坡《思想中国》1月12日文章,原题:中国是否已经解决了人工智能治理问题? 在地缘政治背景下,人工智能(AI)的发展常被描述为一场竞赛——比拼谁能打造出最顶尖的AI模型、最快实现部署,并成功获取AI红利。但在追求更强AI能力的过程中,许多国家的政府仅获得算力资源,并不能自动转化为更高的AI能力。原因并不令人意外。提升国家层面的AI能力充满挑战。负责落实政策的机构往往面临相互冲突的制度性激励,而AI技术发展的速度又远超立法周期步伐。
中国的AI发展路径值得深入研究。它并非可供全盘照搬的模板,而更像是一份案例研究,展示了一个大国如何在大规模层面调和相互竞争的逻辑。北京方面明确提出的前提是:“安全”与“发展”应当相辅相成,而非彼此排斥。同时,国内政策选择也应有助于提升中国在全球AI治理中的影响力。这种理念催生了一套务实架构,具有以下几个显著特征。
首先,AI是系统而非辅助功能。北京日益围绕“AI+”这一框架来构建其AI政策,弱化了将AI仅仅视为辅助工具的传统观念,转而推动一种新愿景:即整个产业体系都围绕AI的长期能力进行重构。换句话说,“+AI”属于旧范式,(中国的)“AI+”则代表新方向。
“AI+”为其他国家政策制定者普遍面临的常见难题提供了一种可能的解决方案。那种“这边抓技能、那边管安全、别处搞试点”的做法,往往导致大量缺乏统一逻辑的AI倡议堆积如山。问题不在于缺乏AI项目,而是项目太多且彼此脱节。“AI+”这一框架背后的战略意图也揭示了一个常被投资者低估的事实:尽管AI因其预期的经济红利而备受追捧,但其真正意义不仅在于AI超大规模企业和尖端实验室,更在于在其他行业的应用。制造业、医疗管理、物流等领域,若围绕AI进行拓展,最有可能实现最大、最显著的生产力提升。
其次,规则随现实而动。中国的治理与监管模式虽属自上而下,却不应被简单地二分为“放任纵容”或“绝对控制”。实际情况远比这复杂和灵活得多。中国的《网络安全法》《数据安全法》和《个人信息保护法》中清晰界定的红线,有助于防止最坏情况发生,同时避免规则制定过于详尽、反而扼杀创新。
AI技术迅猛发展意味着,相关政策可能在立法后不久就已过时。北京的“五年规划”体系使政府能定期回顾既有政策并调整优先事项。人们可从中汲取重要洞见:AI能力将持续演进,政府监管范围与职责也必须随之同步。监管框架应具备足够韧性以反映这一动态现实。以欧盟《人工智能法案》为例,该法案虽已于2024年生效,但预计要到2027年才能全面实施。
最后,通过制度实现可预测性。AI的跨学科特性常导致国家AI议程责任分散,中国通过中央统筹和指定牵头部委来缓解这种“碎片化”问题。可预测性对投资者和创新者都至关重要。清晰的职责划分、明确的权责边界以及法律确定性,能有效降低监管不确定性,提升合规意愿和长期投资的可能性。
这并非意味着中国已“解决”AI治理问题,也不是说其模式应被其他国家全盘照搬。中国的经验表明,最困难的问题不是构建AI本身,而是如何在长时间跨度内、在不同机构之间,实现大规模有效治理。AI领域的真正挑战,在于各国政府能否建立起具备快速学习与适应能力的治理体系,以跟上其所要引导的技术变革步伐。从这个意义上说,真正的AI竞赛并非技术之争,而是制度之争。(作者马宋若文等,辛斌译)