全球人工智能领导者在日内瓦参加人工智能造福人类全球峰会。(2018年5月资料图) 联合国人权事务高级专员巴切莱特今天强调,在充分的保障措施到位之前,迫切需要暂停销售和使用对人权构成严重威胁的人工智能系统。她同时呼吁禁止不符合国际人权法的人工智能应用。 联合国人权高级专员办事处今天发布了一份报告,分析了人工智能——包括特征分析、自动决策和其他机器学习技术——如何影响人们的隐私权和其他权利,包括健康权、受教育权、行动自由权、和平集会和结社自由权以及言论自由权。 报告研究了国家和企业如何在没有履行完备的程序的情况下草率整合人工智能应用程序的问题。报告指出,许多人因为人工智能而受到不公正对待,比如由于人工智能工具存在的缺陷导致被剥夺社会保障福利,或者由于面部识别系统出现差错而被捕。 该报告详细介绍了人工智能系统如何依赖大型数据集,以多种通常不透明的方式收集、共享、合并和分析个人信息。报告指出,用于通知和指导人工智能系统的数据可能是错误的、歧视性的、过时的或不相关的。数据的长期存储也带来了特殊的风险,因为数据在未来可能会以未知的方式被滥用。 报告指出,人工智能工具进行的推理、预测和监控,包括寻求对人类行为模式的解读,也提出了严重的问题。人工智能系统所依赖的有偏见的数据集可能导致歧视性的决定,而这些风险对于已经被边缘化的群体来说最为严重。 报告称:“人工智能系统开发和运行背后的数据环境、算法和模型的复杂性,以及政府和私人行为者的有意保密,都是破坏公众理解人工智能系统如何对人权和社会造成影响的一些因素。” 报告强调,公司和政府在开发和使用人工智能方面也需要更大的透明度。 设置护栏 保障人权 巴切莱特指出,“人工智能可以成为一股向善的力量,帮助社会克服我们时代的一些巨大挑战。但是,如果在使用人工智能技术时没有充分考虑它们如何影响人们的人权,它们可能会产生负面甚至灾难性的影响。” 她说:“人工智能现在几乎深入到我们身心生活、甚至情绪状态的每个角落。人工智能系统被用来决定谁获得公共服务,决定谁有机会被招聘工作,当然,它们会影响人们在网上看到和分享的信息。” 她指出:“鉴于人工智能的快速和持续增长,填补数据收集、存储、共享和使用方面的巨大问责空白是我们面临的最紧迫的人权问题之一。” 巴切莱特强调,“我们不能在人工智能方面继续采取事后补救的方法——允许人工智能在有限或没有界限或监督的情况下使用,并在事后处理几乎不可避免的人权后果。人工智能为人们提供服务的力量是不可否认的,但人工智能在几乎看不到的情况下大规模助长侵犯人权行为的能力也不可否认。为了我们所有人的利益,现在需要采取行动,对人工智能的使用设置护栏保障人权。” |