编者按:第三届世界顶尖科学家论坛将于10月30日-11月1日在上海举行。包括61位诺贝尔奖得主在内,近140位诺贝尔奖、图灵奖、菲尔兹奖、沃尔夫奖、拉斯克奖等全球顶尖科学奖项得主出席。论坛期间将有130余场科学家独立演讲、70余场主题峰会,大部分活动将通过网络向公众直播。
在往届的顶尖科学家论坛上,人工智能一直是这些科学家乐于讨论的话题。面对越来越强大的人工智能技术,未来的人类该如何与之相处?数据隐私和数据安全、算法黑箱、技术滥用……落地发展至今,人工智能已经显露出许多亟需关切的监管问题。
澎湃新闻特此整理了世界顶尖科学家论坛往届参与者关于上述问题的讨论,希望可以帮助读者对于人工智能有更清晰的认识。
古往今来,技术与人类的互动关系一直是人们苦苦思考的问题。面对越来越强大的人工智能技术,未来的人类该如何与之相处?
数据隐私和数据安全、算法黑箱、技术滥用……落地发展至今,人工智能已经显露出许多亟需关切的监管问题。在全球各地“AI热”的同时,需要一点技术应用的“冷思考”。
在第二届世界顶尖科学家论坛中,许多科学家提出了对人工智能监管问题的关切。
日本诺贝尔化学奖得主野依良治担心AI武器化。他说,至少现在我们不需要对人工智能恐惧,但预测未来是很困难的。“未来如果是超级智能,并用在其他领域,比如武器领域,也许情况就不是这样了。所以我觉得人类必须要掌握使用人工智能的主动权。”
2017年诺贝尔物理学奖得主巴里巴里什提出人工智能带来的数据安全问题。利用大数据分析,AI能帮助人类更好的提出科学发现,但AI也带来数据安全问题。巴里什对于科学研究中的数据完整性表示担忧,因为在探测到引力波的过程中,巴里什就遇到这样的情况。
“当我们第一次探测到引力波时,我们第一个想到的问题是如何证明和测试它是真的,这是做科学研究必须要想的。但紧接着我们又想到了第二问题,我们如何证明探测到的引力波不是别人入侵后,植入的数据?好在,我们的系统能够追溯信号来源,才解决了这个担忧。”巴里什说。
2007年图灵奖得主约瑟夫斯发基斯则担心AI算法的黑箱问题。算法黑箱问题是指,科学家能够获知人工智能算法最终得出的结果,但并不清楚该结果产生的原因。“我们正处在大型的革命开端,机器在很多时候被认为可以替代人类了。但为了能够应对自主系统的挑战,我们需要进一步研究,在不尝试理解这些机器如何做出决策的情况下,不应该接受这样的技术在大量场景下使用。”斯发基斯说。
他们谈到的问题,有的已经超出了科学的范畴,需要各国政府出台相应的政策法规加以监管。世界各国正在展开这样的尝试。
欧盟:发展可信赖人工智能
人工智能可以帮助医生做出更快、更准确的诊断,帮助农民减少使用农药,帮助人们应对气候变化,它还有助于减少交通事故的数量……人工智能正在帮助我们解决许多社会难题,但与之相伴而来的是人工智能所引发的安全担忧。
关注人工智能带来的安全、隐私、尊严等方面的风险正是欧盟人工智能战略和政策的侧重点。
2018年3月,有欧盟智库之称的欧洲政治战略中心(European Political Strategy Centre)发布题为《人工智能时代:确立以人为本的欧洲战略》(The Age of Artificial Intelligence: Towards a European Strategy for Human-Centric Machines)的报告。
报告建议欧盟鼓励发展人工智能,并努力建立起人与机器的共生关系。它还建议欧盟确立以人为本的战略,把政策目标设定为使人们感到被人工智能赋能,而非被其威胁。
在此建议下,2018年4月25日,欧盟委员会发布的一份政策文件《欧盟人工智能》(Artificial Intelligence for Europe)提出了人工智能的欧盟道路。向来有着人权传统的欧盟决定着重探讨人工智能的价值观。
欧盟认为,人工智能的发展可能会引发新的伦理和法律问题,欧盟必须确保人工智能在适宜的框架内发展。这个框架应既促进科技创新,又能尊重欧盟的价值观、基本权利和道德原则。在欧洲价值观的基础上,欧盟委员会提出了一种三管齐下的方法:增加公共和私人投资,为人工智能带来的社会经济变革做好准备,并建立起适当的道德和法律框架。
2019年4月8日,欧盟委员会发布一份人工智能道德准则,该准则由2018年12月公布的人工智能道德准则草案演变而来,提出了实现可信赖人工智能的七个要素,要求不得使用公民个人资料做出伤害或歧视他们的行为。
这份人工智能道德准则提出了实现可信赖人工智能的七个要素,分别是:
1.人的能动性和监督:人工智能系统应通过支持人的能动性和基本权利以实现公平社会,而不是减少、限制或错误地指导人类自治。
2.稳健性和安全性:值得信赖的人工智能要求算法足够安全、可靠和稳健,以处理人工智能系统所有生命周期阶段的错误或不一致。
3.隐私和数据管理:公民应该完全控制自己的数据,同时与之相关的数据不会被用来伤害或歧视他们。
4.透明度:应确保人工智能系统的可追溯性。
5.多样性、非歧视性和公平性:人工智能系统应考虑人类能力、技能和要求的总体范围,并确保可接近性。
6.社会和环境福祉:应采用人工智能系统来促进积极的社会变革,增强可持续性和生态责任。
7.问责:应建立机制,确保对人工智能系统及其成果负责和问责。
英国:把伦理道德放在核心位置
英国政府也关注到人工智能的伦理问题,希望引领世界安全、合乎道德地使用数据和人工智能。
英国政府报告《人工智能:未来决策制定的机遇和影响》(Artificial intelligence: opportunities and implications for the future of decision making)中详细地讨论了有关伦理的问题。这些问题包括:人工智能是什么?它是如何被利用的?它能给生产力带来什么好处?以及我们如何最好地管理其使用中可能会发生的伦理和法律风险?
2018年4月16日,英国议会一个特别委员会发布报告说,在发展和应用人工智能过程中,有必要把伦理道德放在核心位置,以确保这项技术更好地造福人类。
这份报告提出,应确立一个适用于不同领域的“人工智能准则”,其中主要包括5个方面:人工智能应为人类共同利益服务;人工智能应遵循可理解性和公平性原则;人工智能不应用于削弱个人、家庭乃至社区的数据权利或隐私;所有公民都应有权利接受相关教育,以便能在精神、情感和经济上适应人工智能发展;人工智能绝不应被赋予任何伤害、毁灭或欺骗人类的自主能力。
美国:保护公民自由、隐私和美国价值观
美国较早开始关注人工智能驱动的自动化将对就业、经济和社会带来的影响,试图通过政策制定来应对相应挑战,并确保人工智能的发展能释放企业和工人的创造潜力。
2016年10月,美国前总统奥巴马发布了《国家人工智能研究和发展战略计划》,并称其为新的“阿波罗登月计划”。这是全球首份国家层面的AI战略计划。奥巴马提到专用的人工智能已经在医药、交通、输配电等各个领域提高了经济运行的效率。但人工智能也可能存在不利的方面,比如减少就业机会、影响工资水平和社会平等。政府需要对此进行研究。
2019年2月11日,美国总统特朗普签署了一项名为“维护美国人工智能领导地位”的行政命令,正式启动美国人工智能计划。同日,白宫发文称,美国联邦政府将集中资源发展人工智能,以“确保美国在人工智能方面的优势”。
特朗普当时签署的行政命令称,美国是人工智能研发和部署的全球领导者,美国政府将协调联邦政府战略和美国人工智能计划,以五项原则为指导,维持和加强美国在人工智能研发和部署方面的科学、技术和经济领导地位。
其中,第二项原则提到,美国必须推动制定适当的技术标准,减少对人工智能技术进行安全测试和部署的障碍,以便创造新的人工智能相关产业,并使当前的产业应用人工智能技术。
第四项原则提到,美国必须培养公众对人工智能技术的信任和信心,并在应用人工智能技术时保护公民自由、隐私和美国价值观,为美国人民充分发挥人工智能技术的潜力。
中国:发展负责任的人工智能
中国对人工智能技术的治理问题亦颇为重视。2019年2月,中国科技部牵头组建了中国国家新一代人工智能治理专业委员会,6月该委员会发布新一代人工智能治理原则发展负责任的人工智能》(以下简称《治理原则》),强调发展负责任的人工智能。工信部在2017年颁布的《促进新一代人工智能产业健康发展三年行动计划(2018-2020)》也对治理提出要求。
《治理原则》提到,近年来,人工智能迅速发展,正在深刻改变人类社会生活、改变世界。为促进新一代人工智能健康发展,加强人工智能法律、伦理、社会问题研究,积极推动人工智能全球治理,新一代人工智能发展规划推进办公室成立了国家新一代人工智能治理专业委员会。
《治理原则》突出了发展负责任的人工智能这一主题,强调了和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作、敏捷治理等八条原则。
其中,“公平公正”原则要求人工智能发展应促进公平公正,保障利益相关者的权益,促进机会均等。通过持续提高技术水平、改善管理方式,在数据获娶算法设计、技术开发、产品研发和应用过程中消除偏见和歧视。
“尊重隐私”原则要求人工智能发展应尊重和保护个人隐私,充分保障个人的知情权和选择权。在个人信息的收集、存储、处理、使用等各环节应设置边界,建立规范。完善个人数据授权撤销机制,反对任何窃娶篡改、泄露和其他非法收集利用个人信息的行为。
“安全可控”原则要求人工智能系统应不断提升透明性、可解释性、可靠性、可控性,逐步实现可审核、可监督、可追溯、可信赖。高度关注人工智能系统的安全,提高人工智能鲁棒性及抗干扰性,形成人工智能安全评估和管控能力。
“共担责任”原则要求人工智能研发者、使用者及其他相关方应具有高度的社会责任感和自律意识,严格遵守法律法规、伦理道德和标准规范。建立人工智能问责机制,明确研发者、使用者和受用者等的责任。人工智能应用过程中应确保人类知情权,告知可能产生的风险和影响。防范利用人工智能进行非法活动。
- 上一篇: AI下一站:精细化生活场景的智能时代
- 下一篇: 如果你对人工智能事业感兴趣,那么你就来对地方了