1. 人工智能伦理风险的成因具有多元性,包括人工智能算法的目标失范、算法及系统缺陷、受影响主体对人工智能的信任危机、监管机制和工具欠缺、责任机制不完善、受影响主体的防御措施薄弱等。 2. 人工智能技术和产业应用的飞速发展,难以充分刻画和分析其伦理风险及提供解决方案。这要求我们必须克服传统规范体系的滞后性,而采用“面向未来”的眼光和方法论,对人工智能的设计、研发、应用和使用中的规范框架进行积极思考和构建,并从确立伦理准则等软法开始,引领和规范人工智能研发应用。 关于人工智能的发展,我们既不能盲目乐观,也不能因噎废食,要深刻认识到它可以增加社会福祉的能力。因此,在人类社会步入智能时代之际,必须趁早从宏观上引导人工智能沿着科学的道路前行,对它进行伦理反思,识别其中的伦理风险及其成因,逐步构建科学有效的治理体系,使其更好地发挥积极价值。 2 人工智能伦理准则、治理原则及进路 当前全球人工智能治理还处于初期探索阶段,正从形成人工智能伦理准则的基本共识出发,向可信评估、操作指南、行业标准、政策法规等落地实践逐步深入,并在加快构建人工智能国际治理框架体系。 伦理准则 近几年来,众多国家、地区、国际和国内组织、企业均纷纷发布了人工智能伦理准则或研究报告。据不完全统计,相关人工智能伦理准则已经超过 40 项。除文化、地区、领域等因素引起的差异之外,可以看到目前的人工智能伦理准则已形成了一定的社会共识。 近年来,中国相关机构和行业组织也非常积极活跃参与其中。例如:2018 年 1 月,中国电子技术标准化研究院发布了《人工智能标准化白皮书(2018 版)》,提出人类利益原则和责任原则作为人工智能伦理的两个基本原则;2019 年 5 月,《人工智能北京共识》发布,针对人工智能的研发、使用、治理?3?个方面,提出了各个参与方应该遵循的有益于人类命运共同体构建和社会发展的 15 条原则;2019 年 6 月,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出了人工智能发展的 8 项原则,勾勒出了人工智能治理的框架和行动指南;2019 年 7 月,上海市人工智能产业安全专家咨询委员会发布了《人工智能安全发展上海倡议》;2021 年 9 月,中关村论坛上发布由国家新一代人工智能治理专业委员会制定的《新一代人工智能伦理规范》等。从发布内容上看,所有准则在以人为本、促进创新、保障安全、保护隐私、明晰责任等价值观上取得了高度共识,但仍有待继续加深理论研究和论证,进一步建立共识。
人工智能伦理风险治理具有复杂性,尚未形成完善的理论架构和治理体系
关注
打赏