您好,欢迎来到河北省人工智能学会网站!
联系我们

十部门联合印发《办法》——规范人工智能科技活动伦理治理

发布时间:2026-04-08 来源:科技日报 点击数:3 关闭

科技日报北京4月7日电 (记者崔爽)记者7日获悉,工业和信息化部等十部门近日联合印发《人工智能科技伦理审查与服务办法(试行)》(以下简称《办法》),为我国人工智能科技伦理审查与服务工作提供了明确指引。

人工智能技术快速发展,深度赋能千行百业,由此带来的算法歧视、深度伪造等伦理风险也愈加凸显。人工智能科技伦理治理是人工智能治理的重要组成部分,主要包括增进人类福祉、公平公正、可控可信、透明可解释、责任可追溯、隐私保护等内涵。工业和信息化部有关负责人表示,加强人工智能科技伦理治理,是坚守科技向善、筑牢科技安全底线、保障产业高质量发展的必然要求。在此背景下,出台《办法》,既是对科技伦理治理要求的具体落地,也是推动人工智能产业创新发展、促进负责任创新的现实需要。

根据《办法》要求,需要开展专家复核的人工智能科技活动主要包括三类:对人类主观行为、心理情绪和生命健康等具有较强影响的人机融合系统的研发;具有舆论社会动员能力和社会意识引导能力的算法模型、应用程序及系统的研发;面向存在安全、人身健康风险等场景的、具有高度自主能力的自动化决策系统的研发。

上述负责人介绍,《办法》围绕标准建设、促进服务、鼓励创新、宣传教育、人才培养五个方面制定举措,精准破解当前人工智能企业伦理治理中存在的技术手段不足、标准规范不完善、治理工具匮乏等问题。

具体来看,《办法》鼓励高等学校、科研机构、医疗卫生机构、企业和科技类社会团体等参与人工智能科技伦理标准制定,凝聚行业共识,完善标准体系;推进人工智能科技伦理服务体系建设,强化风险监测预警、检测评估、认证、咨询等服务供给,加大对中小微企业人工智能科技伦理审查的支持和服务力度,降低企业合规成本;支持人工智能科技伦理审查技术创新,鼓励企业运用技术手段防范伦理风险;加强人工智能科技伦理宣传教育,提升公众伦理意识和素养;推动职业体系和课程体系建设,采取多种方式培养人工智能科技伦理人才。

据了解,《办法》坚持促进创新与防范风险相统一,通过制定人工智能科技伦理审查规则,提升人工智能伦理治理能力,确保人工智能负责任创新。

文章源自科技日报