一财社论:紧盯三个关键领域,强化人工智能科技伦理治理

2026-04-06 22:27:36

日前,工信部等十部门联合印发了《人工智能科技伦理审查与服务办法(试行)》(下称《伦理办法》)。这是我国统筹人工智能发展与安全、创新与责任、效率与公平的重大制度安排,为人工智能技术向善、智能产业高质量发展提供了明确的科技伦理规范。

《伦理办法》明确,开展人工智能科技活动应将科技伦理要求贯穿全过程,遵循增进人类福祉、尊重生命权利、尊重知识产权、坚持公平公正、合理控制风险、保持公开透明、确保可控可信、强化责任担当的人工智能科技伦理原则。

人工智能迅猛发展,新应用场景层出不穷。但人工智能狂飙突进的同时也伴生着突出的伦理风险,引起公众的担忧。

比如:算法黑箱与算法歧视加剧社会不公;深度合成、内容操纵等技术冲击舆论生态;数据滥用与隐私侵害直接侵犯公民人格尊严;高度自主决策系统模糊责任边界、挑战人类主体地位;部分人机融合技术更直接触及生命健康与人格尊严的核心底线。乱象的背后是一些人工智能的研发和应用并不具有科学价值和社会价值,而是单纯出于追逐利益的需要。

《伦理办法》在规定了人工智能科技伦理审查一般程序和简易程序的同时,也规定了专家复核程序。其中一般程序和简易程序由本单位或者委托其他单位进行,专家复核程序需要根据工信部、科技部会同有关部门制定发布的“需要开展科技伦理专家复核的人工智能科技活动”清单进行更严格的审查。很显然,被列入清单的风险性更高,公众关注率也更高。

《伦理办法》附件中列出了三个领域需要开展科技伦理专家复核,这些领域既是开展人工智能领域科技伦理审查的重点,也是防范人工智能科技伦理缺失的关键所在,更是公众关注所在。

首先是要对有关人类主观行为、心理情绪和生命健康等具有较强影响的人机融合系统的研发进行严格复核。

专家认为,脑机接口、情感计算、神经调控、增强认知等人机融合技术,直接作用于人的感知、情绪、认知乃至生命机能,一旦发展失序,可能导致人格异化、自主意识被干预、生命健康受损等严重后果。人工智能发展本质上是要坚守“人是目的而非工具”的根本伦理立场,确保技术始终服务于人,而非颠覆人的主体地位。

在搜索引擎中输入“脑机接口”“情绪控制”两个关键词就会出现很多“应用指南”。这项技术成熟与否暂且不说,但人的情绪一旦受到机器的控制后果是无法预料的,虽言“向善”但未必不产生“恶果”。这是人工智能科技伦理中必须重视的方面。

其次是要对具有舆论社会动员能力和社会意识引导能力的算法模型、应用程序及系统的研发进行严格复核。

这是要防范“算法权力”带来的公共风险。如果算法被特定设置,就很容易被用于制造信息茧房、放大社会对立、操纵公共舆论。因为,生成式人工智能、算法推荐、深度合成、舆情引导系统等已具备强大的信息分发、观点塑造、情绪煽动能力。现在经常提到的“水军”,背后就可以清晰看到“算法权力”的严重危害。

其三是要对具有高度自主能力的自动化决策系统研发进行严格复核。

比如,在交通、医疗、工业、应急、公共管理等涉及人身安全与重大公共利益的场景中,高度自主决策系统一旦出现算法偏见、逻辑漏洞或失控运行,可能直接造成人身伤亡、重大财产损失与系统性风险。这些领域不是人工智能发展的“试验田”,没有千百次的验证绝不可以进行场景应用,因为这关系到不特定群体的生命财产安全,也就是公共安全。

总之,当前全球在人工智能技术领域竞争的同时,也在步入防范人工智能负面效应制度建设的关键期。《伦理办法》填补了我国人工智能领域专门性伦理审查制度的空白,更在三个关键领域划定了“红线”。既然是“红线”,就不可触碰,否则就要受到严厉处罚。这也是将来法规建设的重要方向。