谷歌在世界范围内,一直走在人工智能研究方面的前列。无论是今年的AlphaGo击败了人类为期大师柯洁,还是谷歌宣布教会人工智能运用想象力提前做出预测,再到谷歌教会了人工智能如何睡觉,这一系列的进展均奠定了谷歌在人工智能领域的先进地位。
不过随着人工智能的发展越来越成熟,随之带来的伦理和道德问题也成为了社会讨论的焦点问题之一。比如人工智能的自动化对未来经济会造成什么影响,以及人类开发的智能系统需要遵循哪些伦理道德价值观等。
近期,外媒报道称谷歌的人工智能研发子公司DeepMind成立了一个新部门,旨在专门研究人工智能带来的社会伦理问题。
据悉,DeepMind成立的新部门名为DMES(DeepMind Ethics & Society),现已拥有8名全职员工,并将在一年时间将员工数增至25名左右。DeepMind表示,DMES将于2018年启动关于算法偏见、问责制和自主杀人机器等课题项目的研究,希望可以帮助社会预测人工智能的影响,并根据预测结果给予正确的引导,确保人工智能对人类社会带来正面作用。
其实在人工智能伦理道德规范方面,这不是DeepMind的第一次尝试。早在DeepMind被收购后,DeepMind曾迫使谷歌成立了伦理委员会,确保人工智能技术不被滥用。不过这个伦理委员会起到了多大的作用,还有待考证,因为DeepMind还是陷入了隐私数据非法使用风波。DeepMind曾被指于2015年通过非法交易获得了160万NHS(National Health Service)患者的病例,以帮助DeepMind开发一款名为Streams的提供“直接护理”服务的移动应用。今年5月,英国最高隐私保护监管部门裁定,这些数据的使用目的未明确告知患者,DeepMind的此项医学实验违反了英国的数据保护法。
DeepMind后来表示,他们低估了NHS的复杂性,以及缺乏对使用患者数据的规则的足够了解,因此聘请了新的独立伦理审核员以监督DeepMind未来的交易行为。
未来,DMES也许会和这些独立伦理审核员共同为DeepMind的伦理规范做出贡献。据悉,DMES还将和纽约大学的 AI Now Institute和剑桥大学未来智能研究中心(Leverhulme Centre for the Future of Intelligence)等进行合作,共同完成人工智能在伦理道德领域的研究。