AI向善,伦理为基

2026-04-13 11:39 来源:三峡宜昌网 编辑:肖雨琴 人阅读

近日,工业和信息化部等十部门联合印发《人工智能科技伦理审查与服务办法(试行)》,明确提出建立健全人工智能科技伦理标准体系,支持人工智能科技伦理审查技术创新,要用技术手段防范人工智能科技伦理风险。

顺潮应需,筑牢治理之基。近年来,人工智能技术实现迅猛迭代,是催生安全风险挑战的全新变量,也是提升安全保护水平的重要增量。这份办法的出台,有效平衡了技术创新与社会治理的关系,也支持人工智能技术的创新突破与落地应用,推动技术平稳融入社会运转的各个环节,切实维护受技术影响群体的合法权益。办法指出,开展人工智能科技伦理审查工作,需聚焦人类福祉、公平公正、可控可信、透明可解释、责任可追溯、隐私保护六大核心维度。审查内容具体包括人工智能科技活动是不是具备科学价值与社会价值;训练数据的选取标准是不是合规合理,算法、模型、系统的设计逻辑是不是严谨可行;是不是依规表明算法、模型、系统的应用用途、运行机理等关键信息;是不是采取完备举措保障隐私数据得到妥善保管与有效保护等多个方面。

抗险固本,强化法治保障。当前,人工智能技术加速迭代演进,为经济社会高质量发展注入强劲动能,更推动生产方式、生活方式与治理方式发生了深层次变革,同时也衍生出一系列亟待解决的全新挑战。为同时兼顾人工智能治理与产业发展的双重需求,办法提出推动全要素协同监管,强化风险分级分类与监管措施适配,建立健全容错纠错机制。相关部门将按禁止的人工智能实践、严格监管的高风险人工智能系统、存在透明度风险的人工智能系统、低风险人工智能系统四大类,对人工智能相关的活动与产品实施分类管理,针对不同类型的风险特性制定针对性的监管办法,更好应对人工智能技术跨区域应用带来的难题。

锚定重点,引领产业升级。在促进创新与产业发展层面,相关部门将推出多元化激励政策,加大对人工智能技术研发与场景应用的资金投入力度,制定适配产业发展需求的金融支持政策,强化人工智能领域的人才培育与引进工作,明晰人工智能产业的中长期发展规划。在强化社会影响与伦理考量层面,需常态化开展人工智能技术的社会影响评估,制定契合技术发展规律的人工智能伦理规范,划定技术使用的道德边界与行为准则。在注重法律责任与监管机制层面,要明确人工智能技术研发、应用、管理等各环节的法律责任,构建全面、科学、合理的人工智能法律制度体系,为人工智能技术的健康有序发展提供有力法律保障。

凝聚共识,推进协同治理。人工智能正加速重塑全球产业发展格局,逐步成长为造福人类的国际公共产品。在这一背景下,要密切关注全球人工智能领域的国际竞争态势,制定具有前瞻性与针对性的竞争策略和发展规划,注重国际合作与交流的重要意义,提出加强国际合作与交流的具体实施路径。除此之外,还需要统筹推进技术创新与治理实践,在人工智能安全、伦理、治理等关键领域持续深化行业共识,促进形成安全、可信、可控的人工智能发展生态,构建跨国界、跨领域、跨行业的协同治理格局。在推动发展的前提下积极推进多边机制框架下的人工智能安全治理合作,推动世界范围内人工智能技术成果的普惠共享。

作者:枝江“丹阳江畔”网评团队、百里洲镇人民政府 谭家伊涵

特别声明:本文仅代表作者观点。三峡宜昌网仅提供信息发布平台。