苹果公司人工智能(AI)总监鲁斯兰·萨拉克霍特迪诺夫(Ruslan Salakhutdinov)认为,近年来产生诸多令人瞩目成果的深度神经网络,在未来几年里将会通过增加记忆、注意力和常识等方式进行“充电”。
3月28日在旧金山举行的EmTech Digital会议上,萨拉克霍特迪诺夫表示,这些属性可以帮助解决人工智能领域的许多突出问题。萨拉克霍特迪诺夫依然在匹兹堡的卡内基梅隆大学担任副教授,他在演讲中指出,深度学习驱动的机器视觉和自然语言理解依然存在局限性。
深度学习涉及在许多关联层中使用大量模拟神经元的技术,近年来在机器感知方面取得了巨大进步。但在其它方面,这些网络仍然存在许多不足。例如,萨拉克霍特迪诺夫展示了基于这项技术的图像捕捉系统如何错误地标记图像,因为它总是关注图像中的每个细节。
随后,萨拉克霍特迪诺夫给出所谓的“注意力机制”解决方案,这是一种对深度学习的微调,在过去几年中得到快速发展。这种方法可以纠正错误,具体方法是当标题中应用不同的词语时,系统会把注意力集中在图像的特定部分。同样的方法也可以用于帮助提高自然语言理解能力,使机器能够专注于句子的相关部分,从而推断出它的意思。
Facebook的研究人员也在开发名为“记忆网络”的技术,它可以改善机器与人类交谈的方式。顾名思义,这种方法为神经网络添加了长期记忆部分,以便于它们能记住聊天记录。“记忆网络”也被证明可以改进另一种人工智能,即强化学习。举例来说,卡内基梅隆大学的两位研究人员最近展示了如何开发更智能的游戏算法。
Alphabet人工智能子公司DeepMind的研究人员也展示了自己的研究成果,包括利用深度学习系统构建和访问记忆形式。强化学习正迅速成为解决机器人和无人驾驶领域难题的有价值方式,它也被MIT Technology Review评为2017年10大突破性技术之一。
萨拉克霍特迪诺夫表示,未来令人兴奋的另一个研究领域是,将手工构建的知识体系与深度学习结合起来。他指的是像Freebase这样的常识数据库,以及像WordNet这样的词义库。萨拉克霍特迪诺夫称,就像人类在分析语言或解释视觉场景时非常依赖常识那样,这样做会让人工智能系统变得更聪明。他说:“我们怎样才能把之前的知识融入到深度学习中去呢?这是一个巨大的挑战。”
萨拉克霍特迪诺夫曾在汇聚不同AI领域研究人员的会议上发表演讲,演讲者讨论的共同主题是需要各种各样的方法来将AI提升到新的层次。华盛顿大学研究不同机器学习方法的教授佩德罗·多明戈斯(Pedro Domingos)在会上表示:“还需要从完全不同的角度来研究AI。在机器学习领域有这样一个学派,他们认为我们不需要花哨的新算法,只需要更多数据。但我认为,在真正解决AI问题之前,我们需要找到一些真正深刻的、基本的想法。”