他还表示,如今的人工智能技术与《机械姬》等电影中描述的技术仍有很大差距,但未来的机器势必会比人类更聪明。
拉塞尔认,为这一目标最快可以在10年内实现,慢则需要长达几百年的光阴。不过,几乎所有人工智能研究人员都认为这将一展望将在本世纪得以实现。
一个担忧的问题是,机器不需要在所有方面都比人类更聪明,否则会带来严重的风险。拉塞尔表示,这是目前科学家们正在做的事情。如果了解一下社交媒体和那些通过计算给人们推送阅读和观看内容的算法,就会知道它们在很大程度上控制着我们的认知输入。
他表示,结果就是算法操纵着用户,不停地给他们洗脑,这样算法就可以预测用户的行为和喜好,所推送的内容也会获得更多的点赞及收入。
以于人工智能研究人员是否被自己的成就吓到的问题,拉塞尔明确表示,“是的,我认为我们的恐惧正与日俱增”。
这让拉塞尔想起了在物理学领域发生的事情:物理学家知道原子能的存在,他们可以测量出不同原子的质量,还可以计算出在不同类型的原子之间进行转换可以释放多少能量。但是,专家们总是强调这些想法只是理论上的。随后当原子能真正运用到实际生活中时,这些专家还没有准备好。
拉塞尔表示,人工智能在军事领域上的应用,比如造小型杀伤性武器等,十分令人担忧。这些武器是可以量产的,这意味着可以在一辆卡车上安装一百万个小型武器,之后你打开后车厢让它驶离,就足以摧毁整座城市。
拉塞尔认为,人工智能的未来在于开发出一种机器,知道真正的目标是不确定的,就好像人们的偏好也是不确定的一样。这意味着它们在做出任何决定时都必须与人类进行沟通,而不是像管家一样自行决定。但是,这个想法很复杂,尤其是因为不同的人有不同的、或相互冲突的偏好,而这些偏好不是固定的。
拉塞尔呼吁人们采取措施,包括制定研究人员行为准则、立法和条约,以确保使用的人工智能系统的安全,还应该培训研究人员来确保人工智能免遭种族偏见等问题的影响。他表示,欧盟禁止机器模仿人类的相关立法应该在世界范围内实施。
他希望让公众参与到这些选择中来是很重要的,因为公众才是最终受益与否的对象。
另一方面,在人工智能领域取得进步需要一段时间才能实现,但这也不会让人工智能变成科幻小说。