本报记者 孙美娟
为积极回应人工智能健康发展的需求,促进技术创新与社会进步的和谐统一,保障公民权利和社会公共利益,维护国家安全和社会稳定,2023年初以来,中国社会科学院国情调研重大项目“我国人工智能伦理审查和监管制度建设状况调研”课题组主持人、中国社会科学院法学研究所网络与信息法研究室副主任周辉先后组织中国社会科学院、清华大学、中国人民大学、上海交通大学、武汉大学、同济大学、中国信息通信研究院等科研院校和广州互联网法院等机构的多方专家,在持续、长期追踪研究人工智能发展、监管的基础上,组织成立示范法起草组,历经多次调研、讨论,持续产出了《人工智能示范法1.0》《人工智能示范法2.0》《人工智能示范法3.0》(以下简称《示范法1.0》《示范法2.0》《示范法3.0》)等科研成果。3月29日,记者围绕其研究成果对我国人工智能领域立法的影响等话题,对周辉进行了专访。
国内首个综合性人工智能立法建议文本
《中国社会科学报》:《示范法1.0》是国内首个系统性的人工智能立法专家建议文本。该成果自发布之日起便引发国内外广泛关注,美国斯坦福大学等知名高校组织将其译为英文并进行深入研究探讨。您认为,《示范法1.0》能获得如此高的关注度的根本原因是什么?
周辉:《示范法1.0》获得高度关注的原因主要有三点。一是对国内系统性人工智能立法框架的建立有里程碑意义。作为国内首个综合性、统辖性的人工智能立法专家建议文本,它填补了相关领域的研究空白,首次完整构建了涵盖基本原则、发展举措、风险管理制度、主体责任分配、治理机制设计、法律责任等内容的立法框架,为全球治理提供了可参考的“中国方案”。
二是有立足产业发展与中国实践的治理机制创新。示范法创造性地转化了包容审慎原则,平衡了发展与安全,围绕算力基础设施、算法和基础模型创新、数据要素供给以及商业应用创新等关键环节,进行了相关制度设计。同时通过“负面清单管理”、合规豁免和创新监管等措施,在严守安全底线的前提下为技术创新预留了容错空间。这种治理机制的设计充分立足于我国产业实践,为人工智能产业的健康发展提供了制度保障。
三是在主动参与全球治理方面有战略性突破。团队以《人工智能示范法》为抓手,不仅加强了国内学术界、产业界和政府部门之间的沟通与合作,还输出了英语、法语、西班牙语等多种语言版本,为我国参与人工智能治理的国际规则建设讨论与竞争人工智能治理的国际话语权提供理论支持。
《中国社会科学报》:《示范法1.0》提出了“以人为本、智能向善”的核心原则,强调安全可控与创新发展并重。为什么要着重强调这一核心原则?
周辉:2024年6月12日,习近平主席在向联合国贸易和发展会议成立60周年庆祝活动开幕式发表视频致辞时提出,坚持以人为本、智能向善,在联合国框架内加强人工智能规则治理。“以人为本、智能向善”的核心原则,本质是为人工智能发展确立价值根基与行动边界。我们之所以如此强调这一点,是因为坚信人工智能的工具属性不容动摇,必须始终以增进人类福祉为最终目标,在任何情况下都不应超越或取代对人类福祉的重视。将这一原则写入示范法,就是要为技术创新划定价值坐标系,并在示范法的体系内,将抽象伦理原则转化为可实施的治理措施。
《中国社会科学报》:据了解,您和您的团队成员是在2023年8月发布的《示范法1.0》,之后不到1年的时间发布了《示范法2.0》,现在又发布了《示范法3.0》。为什么要在这么短的时间周期不断更新版本?
周辉:《人工智能示范法》在短时间内经历了数次迭代升级,这既是对技术进步的响应,也是对实践反馈的吸纳。作为技术前沿的人工智能领域,其技术革新和产业发展速度迅猛。在1.0版本推出之初,生成式AI和多模态模型等技术尚未广泛应用于社会,但随后Sora、DeepSeek以及垂类模型等技术的突破已经深刻影响我们的现实世界,不断催生新的应用场景并滋生新的潜在风险。同时,历次版本的发布也激发了广泛的讨论和交流,我们不断听取并吸收来自各方的意见和建议。作为一部面向前沿技术、数字经济和未来发展的关键立法,《人工智能示范法》提供了阶段性的成果和制度建议,也必然会把握人工智能发展规律和治理趋势,通过1.0、2.0、3.0及至N.0的迭代,不断适应人工智能发展与安全态势,更好地推动凝聚依法发展和治理人工智能的共识。
打造AI治理新范式
《中国社会科学报》:您认为,最新发布的《示范法3.0》有哪些亮点?
周辉:《示范法3.0》呈现四大创新突破。其一,全流程伦理治理体系构建。《示范法3.0》以伦理原则为基础,以伦理审查机制为抓手,要求研发、提供、使用全链条嵌入伦理审查。总则新增伦理原则条款,明确要求伦理要求贯穿技术全生命周期。特别规定政务、公务领域必须建立伦理审查机制,并扩大义务主体范围,要求符合条件的企业及机构设立内部伦理委员会或引入第三方审查,促进科技研发与伦理规范的良性互动。
其二,创新激励政策工具箱升级。通过税收抵免、中小企业专项扶持等激励政策降低创新成本,并且建立人工智能政策适配性评估制度,确保新政策与行业发展需求匹配。此外,同步强化研发激励机制,明确对核心领域技术攻关给予专项支持,对突出贡献者实施表彰奖励,形成“普惠政策+精准激励”的支持网络。
其三,风险防控体系迭代升级。针对算法偏见、端侧人工智能数据滥用、虚假信息传播等新型风险,构建技术治理与制度约束的双重防线。例如,通过动态授权机制限制跨应用权限调用,建立可信数据标签体系提升数据可信度,强化算法审计与安全评估要求,形成覆盖数据采集、模型训练、应用部署的闭环风险管理。
其四,创新责任分配机制。新增开源基础模型训练合理使用规则,在允许著作权人声明例外的前提下免费使用合法作品训练模型,并建立协商补偿机制。针对生成式人工智能完善“安全港”制度,明确服务提供者在建立投诉机制、履行内容标识等条件下可免除知识产权赔偿责任,同步规定使用者过错责任及提供者连带责任,实现创新包容与权益保障的精准平衡。
《中国社会科学报》:为促进开源人工智能模型发展,《示范法3.0》进行了专门的条款修订,相关修订是基于怎样的考虑?
周辉:本次《示范法3.0》在修订过程中特别关注了开源人工智能模型的发展需求,并为此进行了专门的条款修订。相关修订主要基于两方面的考虑:一方面,开源人工智能作为推动技术创新和产业生态繁荣的重要力量,亟须在法律层面得到明确支持和规范引导;另一方面,开源模型的快速发展也带来了诸如对开源模型的定义模糊、训练数据存在版权争议等现实问题,需要通过制度设计加以解决。具体修订内容主要体现在定义与标准的明确化、产业生态的培育与支持、版权争议的合理解决三个方面。
《中国社会科学报》:随着人工智能技术的不断发展和应用场景的日益广泛,《人工智能示范法》未来还可能在哪些方面进一步完善和迭代?
周辉:作为人工智能治理的阶段化成果,《人工智能示范法》仍会不断提升在对技术的全面认知、制度与应用领域适配性两方面的水平,这既是应对技术不确定性的必然选择,也是构建创新友好型法治环境的必由之路。《人工智能示范法》未来会在技术治理规范体系的动态调适、持续优化创新激励的制度供给、持续探索和丰富垂直领域的立法建议三方面持续完善。在持续探索和丰富垂直领域的立法建议方面,我们认为,人工智能治理既需要共性规则的普适约束,又依赖特殊规则的情景适配。在纵向维度,将继续以示范法的一般原则与规则为指导,针对重点领域制定和完善专项实施细则;在横向维度,再通过收集各专项领域实践中的治理经验,总结共性的问题、理念与方法等,反哺完善示范法的一般性制度。