2026-05-13 18:00:00 来源:绿法国际联盟 作者:绿盟研究院
要点:我国正全面实施“人工智能+”行动,技术加速突破、应用迅速落地,但伴生算法偏见、数据滥用、深度伪造等多重风险。人工智能技术具有“黑箱”属性,存在未知安全隐患,需要探索沙盒监管等新型监管理念和方式,多地已开展相关实践,未来应完善分类分级监管并优化监管科技工具。我国已出台《生成式人工智能服务管理暂行办法》等系列法规,但技术爆发式发展要求加紧完善法律法规、应用规范与伦理准则。人工智能风险具有全球性,各国需加强发展战略、治理规则、技术标准的对接协调,早日形成全球治理框架。坚持发展与安全并重、创新与规范同步,多元共治才能筑牢人工智能安全屏障。
——援引自经济日报
探索动态包容监管,创新风险防范机制
人工智能技术因其内在的“黑箱”特性,决策逻辑往往不透明、输出结果难以追溯,潜藏着未知的安全风险。为此,有必要探索建立与之相适应的新型监管理念和模式,构建既能支持技术迭代、又具备动态包容性的治理环境,在为创新预留必要试错空间的同时,牢牢守住安全底线。
当前,我国多地正积极试点“沙盒监管”等创新监管机制,允许相关主体在限定的场景与规模内,对新产品、新服务、新模式及新技术进行试验运行,并配套包容审慎的监管措施,实现在可控范围内容错纠错,有效防范风险外溢,已取得阶段性积极成效。
展望未来,可进一步加快完善相关制度设计,明确沙盒监管的准入条件、运行流程与退出机制。具体而言,可依据分类分级原则实施差异化监管:对涉及数据安全、金融安全等高风险领域,适用更为审慎的监管标准和严格的运行程序;对技术相对成熟、潜在外部风险较低的领域,则可适度放宽准入与监管要求。同时,应持续强化监管科技能力建设,推动监管工具与人工智能技术协同演进,逐步实现覆盖技术全生命周期的动态治理与风险防控。
完善法治体系,强化制度保障
近年来,我国在生成式人工智能、算法推荐、深度合成等重点领域持续推进制度建设,出台了《生成式人工智能服务管理暂行办法》《互联网信息服务算法推荐管理规定》《人工智能生成合成内容标识办法》等一系列监管规则,积累了较为丰富的治理经验。但是,当前和未来一段时间人工智能技术将处于爆发式发展阶段,部分法规跟不上技术创新的脚步。要深刻把握人工智能发展趋势和规律,加紧完善相关法律法规、政策制度、应用规范、伦理准则,及时划定技术应用的伦理边界与安全底线,真正做到技术发展到哪里,法治建设就跟进到哪里。
推动国际合作,构建全球治理框架
人工智能是跨越国界的通用技术,其风险也具有全球性,规范治理绝非一国一域之事。不过,由于技术竞争的高敏感性,不同国家在数据跨境、内容审核、政府监管权限等问题上还存在分歧,需要推动各方加强发展战略、治理规则、技术标准的对接协调,早日形成具有广泛共识的人工智能全球治理框架和标准规范。