日前,工业和信息化部、国家发展改革委、教育部、科技部、农业农村部、国家卫生健康委、中国人民银行、国家网信办、中国科学院、中国科协联合印发《人工智能科技伦理审查与服务办法(试行)》,规范人工智能科技活动伦理治理,促进公平、公正、和谐、安全和负责任创新,推动人工智能产业健康发展。本办法自印发之日起施行。

本办法明确所适用的人工智能科技活动是在中华人民共和国境内开展的,可能在人的尊严、公共秩序、生命健康、生态环境、可持续发展等方面带来科技伦理风险挑战的人工智能科学研究、技术开发等活动,以及依据法律、行政法规和国家有关规定需进行人工智能科技伦理审查的其他科技活动。开展人工智能科技活动应将科技伦理要求贯穿全过程,遵循增进人类福祉、尊重生命权利、坚持公平公正、合理控制风险、保持公开透明、保护隐私安全、确保可控可信的人工智能科技伦理原则,遵守我国宪法、法律法规和有关规定。

办法明确——

要建立和完善人工智能科技伦理标准体系。鼓励高等学校、科研机构、医疗卫生机构、企业和科技类社会团体等参与人工智能科技伦理标准的制定、验证与推广。

鼓励高等学校、科研机构、医疗卫生机构、企业和科技类社会团体等开展人工智能科技伦理审查研究,支持人工智能科技伦理审查技术创新,强化以技术手段防范人工智能科技伦理风险;促进人工智能科技伦理审查高质量数据集有序开源开放,加强通用性风险管理、评估审计工具研发,探索基于应用场景的科技伦理风险评估评测;推广符合科技伦理的人工智能产品和服务,保护科技伦理审查技术知识产权。

支持高等学校、科研机构、医疗卫生机构、企业和科技类社会团体等开展人工智能科技伦理相关教育与培训,推动职业体系和课程体系建设,采取多种方式培养人工智能科技伦理人才,促进人才交流。

从事人工智能科技活动的高等学校、科研机构、医疗卫生机构、企业等是本单位人工智能科技伦理审查管理的责任主体,应按照有关要求,设立人工智能科技伦理委员会(以下简称委员会)。委员会应配备必要的工作人员、办公场所和经费等条件,采取有效措施保障委员会独立开展工作。

开展纳入复核清单的人工智能科技活动,通过委员会或服务中心的初步审查后,由本单位申请开展专家复核。多个单位参与的,由牵头单位负责申请。中央企业,中央和国家机关直属高等学校、科研机构、医疗卫生机构等直接报请相关主管部门组织开展专家复核。

需要开展科技伦理专家复核的人工智能科技活动清单:

一、对人类主观行为、心理情绪和生命健康等具有较强影响的人机融合系统的研发。

二、具有舆论社会动员能力和社会意识引导能力的算法模型、应用程序及系统的研发。

三、面向存在安全、人身健康风险等场景的具有高度自主能力的自动化决策系统的研发。

点赞(0)

评论列表 共有 0 条评论

暂无评论

微信公众账号

微信扫一扫加关注

发表
评论
返回
顶部