中文EN
加快人工智能伦理审查监管建设
2025-08-26 来源:社科院专刊 总第793期 作者:孙美娟
分享到:
  ◇中国社会科学报记者  孙美娟
  近年来,人工智能技术加速革新,深刻改变着经济社会结构和生产消费方式。然而,技术发展的背后,数据隐私泄露、算法歧视、就业结构震荡等伦理安全风险日益凸显,给社会治理带来全新挑战,亟须建立健全伦理审查与监管体系。面对这一紧迫需求,2022年,中国社会科学院国情调研重大项目“我国人工智能伦理审查和监管制度建设状况调研”课题组迅速行动,立足社会发展整体性要求,通过文献分析、实地走访、案例研究等多维度研究方法,对我国人工智能伦理审查与监管制度的建设现状、存在问题及优化路径展开系统调研。基于扎实的调研基础和理论积淀,课题组日前将其重要研究成果《人工智能示范法3.0》再次转化,在Zenodo平台同时发布中文、英文、法文、西班牙文四语版本,为全球人工智能领域的伦理审查和监管制度建设提供了具有实践价值的参考范本。
  筑牢AI伦理防线
  加快构建合理可靠的人工智能伦理审查和监管制度,不仅可以有效促进我国科技事业健康发展,还能筑牢社会伦理底线,保障人工智能在合乎道德规范的轨道上为人类服务。“通过对人工智能伦理审查和监管制度建设情况的调研,我们可以充分了解相关环节存在的实际问题,强化对人工智能伦理审查和监督制度建设的理性认知,并作用于人工智能相关学科建设,从而反向推动人工智能伦理审查和监管制度落地实施。”中国社会科学院国情调研重大项目“我国人工智能伦理审查和监管制度建设状况调研”课题组主持人、中国社会科学院法学研究所网络与信息法研究室副主任周辉表示。
  长期以来,我国高度重视人工智能伦理治理,从中央到地方再到科技企业,各方都在积极推动人工智能伦理治理实践,并在完善科技伦理治理顶层设计、细化人工智能伦理要求等方面取得了丰硕成果。早在2017年,国务院发布的《新一代人工智能发展规划》明确提出要初步建立人工智能法律法规、伦理规范和政策体系;2022年实施的《中华人民共和国科学技术进步法》,更是从法律层面确认建立科技伦理委员会,完善科技伦理制度规范。与此同时,北京、上海、深圳等地陆续出台了涉及人工智能伦理审查的地方性法规、规章或政策文件等,通过地区实践为人工智能伦理审查制度的落地实施探路。
  在人工智能伦理审查和监管制度建设和实施过程中,只有充分考虑公众的意见和诉求,才能提高公众对人工智能技术的信任度。中国社会科学院国情调研重大项目“我国人工智能伦理审查和监管制度建设状况调研”课题组主持人、中国社会科学院信息情报研究院第八编研室副主任(主持工作)李延枫表示,用户信任是人工智能技术和产业发展的前提和动力,要赢得用户信任,必须围绕“可信人工智能”构建贯穿人工智能产业链各环节的包括伦理、法律和技术标准在内的综合治理体系。
  据李延枫介绍,我国将政府、企业、科研机构、行业组织和个人均列为人工智能伦理管理治理责任主体,并对其责任进行相关规定。周辉进一步说明,明确各单位的主体责任以及常态化人工智能伦理管理治理机制,有助于促使人工智能伦理审查逐步转化为科技企业合规义务,使企业在人工智能技术与产品研发阶段就将伦理要求模块纳入技术架构,确保大模型微调训练符合人类基本价值观。
  构建AI监管生态
  人工智能监管与治理是一项系统工程,需要构建一个包含政府、企业、学术界和公众等多元主体的综合治理体系。近年来,我国不断健全法律法规体系、强化人工智能监管政策引导、完善人工智能监管相关指南,为人工智能监管提供标准化指导,确保其产业有序发展。
  “我国对人工智能监管规则不断进行升级,并逐步呈现出全链条监管的显著特征。”课题组成员、清华大学公共管理学院长聘副教授陈天昊认为,全链条监管的最大特征是覆盖从基础硬件、数据标注、预训练、优化训练到生成服务投放与持续保障的全生命周期,并在技术开发与应用层面推进全面规范。为落实全链条监管,2023年多部委联合颁布《生成式人工智能服务管理暂行办法》。该办法将监管对象从特定领域和任务的人工智能,拓展到生成能力底层,全方位覆盖了生成内容价值边界的规范、技术开发的各个环节,以及应用投放和持续保障阶段。2025年3月,我国又出台了《人工智能生成合成内容标识办法》,对生成内容标识的具体方式作出明确规定。与之配套的国家标准将于9月生效。这一系列举措层层递进,共同构建起我国生成式人工智能监管体系。
  在开展“我国人工智能伦理审查和监管制度建设状况调研”时,课题组深入走访了诸多人工智能公司,既有平台型企业,也有大量的行业性企业或者初创公司。调研中发现,企业普遍接受基于人工智能安全治理的伦理审查和监管制度,并对各级政府积极为企业减负、降低合规成本的举措予以高度评价。同时,部分企业也反馈了自身顾虑,他们期望人工智能领域的相关制度和政策,能拥有更强的稳定性与可预测性,为企业发展提供清晰的政策指引,助力企业在规范框架下,持续推进人工智能技术的创新应用。
  锚定AI治理新航向
  随着人工智能技术的飞速发展,自动驾驶、医疗诊断等新应用场景不断涌现。为保障人工智能技术在各场景中有序、安全、可靠地应用,创造更多社会价值,现有的伦理审查和监管制度需与时俱进,进行针对性的调整与完善。
  在人工智能伦理审查和监管制度建设过程中,要平衡技术创新与风险防控之间的关系,避免因过度监管而阻碍人工智能技术的发展。周辉建议,导入适应性治理的思路,打造适应性法治机制,即不仅要求立法与执法部门能够开放、包容地接收社会反馈意见,也鼓励平台企业、行业协会、公众团体、开源社区共同推动规范的形成。这样,法律不再是被动等待“社会诉求反应”后进行的修补,而是在先期就创造条件,让多方主体在“循环试错”的机制中形成务实而灵活的规则设计。
  课题组最新发布的《人工智能示范法3.0》为我国未来人工智能伦理审查和监管制度的完善提供了发展方向。陈天昊表示,《人工智能示范法3.0》中明确提出,未来,我国人工智能伦理审查和监管制度还需要在推动分布式创新、健全监管机构、筑牢伦理防线、平衡法律稳定性与技术适应性等方面进一步加强和完善。在推动分布式创新方面,鼓励中小企业在人工智能领域研发创新,保障算力与数据的普惠供给,破除数据壁垒。同时,建立政策影响评估体系,纠偏不符合全国统一大市场要求的地方产业政策,支持各方研制人工智能测评体系。
  人工智能的监管与治理是一项在复杂压力与崭新机遇交织下的长期任务。受访学者一致表示,未来,要凝聚政府、企业、科研机构和社会公众的多方合力,构建动态适应技术发展的协同治理机制,推动日前公开征求意见的《人工智能科技伦理管理服务办法(试行)(公开征求意见稿)》更加完善,在风险防控与技术创新间找到最优解。

责任编辑:齐泽垚