对于人工智能来说,似乎理解数据很简单,但事实证明,设计一个真正的机器知识测试是困难的。 还记得IBM的沃森吗,人工智能的 "危险 "冠军?2010年的一次宣传宣称,"沃森了解自然语言的所有模糊性和复杂性"。然而,正如我们看到的那样,沃森后来在 "用人工智能彻底改变医学 "的追求中惨遭失败,语言能力的外衣并不等同于真正理解人类语言。 长期以来,自然语言理解一直是人工智能研究的一个主要目标。起初,研究人员试图对机器所需的一切进行人工编程,以理解新闻故事、小说或人类可能写的其他东西。正如沃森所展示的那样,这种方法是徒劳的--不可能写下理解文本所需的所有不成文的事实、规则和假设。最近,一种新的范式已经建立。我们没有建立明确的知识,而是让机器自己学习理解语言,仅仅通过摄取大量的书面文本和学习预测单词。其结果就是研究人员所说的语言模型。当基于大型神经网络时,如OpenAI的GPT-3,这样的模型可以生成与人类不相上下的散文(和诗歌!),似乎可以进行复杂的语言推理。 但是,GPT-3--在数以千计的网站、书籍和百科全书的文本上进行训练--是否超越了沃森的外衣?它真的理解它所产生的、表面上是推理的语言吗?这是一个在人工智能研究界存在明显分歧的话题。这样的讨论曾经是哲学家的职权范围,但在过去的十年里,人工智能已经冲出了它的学术泡沫,进入了现实世界,而它对这个世界的不理解可能会产生真实的、有时是毁灭性的后果。在一项研究中,IBM的沃森被发现提出了 "多个不安全和不正确的治疗建议的例子"。另一项研究表明,谷歌的机器翻译系统在为非英语国家的病人翻译医疗指示时出现了重大错误。 我们如何才能在实践中确定一台机器是否能够理解?1950年,计算机先驱阿兰-图灵试图用他著名的 "模仿游戏 "来回答这个问题,现在被称为图灵测试。一台机器和一个人,都隐藏起来,只用对话来说服人类法官相信他们是人类。图灵断言,如果法官无法分辨哪一个是人类,那么我们就应该认为机器在思考,而且实际上是在理解。 不幸的是,图灵低估了人类被机器所欺骗的倾向。即使是简单的聊天机器人,如Joseph Weizenbaum在1960年设计的冒牌心理治疗师Eliza,也欺骗了人们,让他们相信自己是在与一个善解人意的人对话,即使他们知道他们的对话伙伴是一台机器。
人工智能已经冲出了它的学术泡沫,进入了现实世界
关注
打赏