详情
《超级智能》作者谈人工智能:人类就像是玩炸弹的小孩
作者:本站采编
时间:2016-06-22 10:14:17
最近,牛津大学人类未来研究所教授、哲学家 Nick Bostrom 成了科技界熟知的人物。他撰写的书籍《超级智能:路线图、危险性与应对策略》在 2015 年成为《纽约时报》畅销书,而且还得到比尔·盖茨 和伊隆·马斯克的推荐。
关键词: 人工智能

  最近,牛津大学人类未来研究所教授、哲学家 Nick Bostrom 成了科技界熟知的人物。他撰写的书籍《超级智能:路线图、危险性与应对策略》在 2015 年成为《纽约时报》畅销书,而且还得到比尔·盖茨 和伊隆·马斯克的推荐。在书中,他指出,人类面临的最大生存威胁不是气候变化、传染病或者核武器,而是超越人类的机器智能即将出现。最近,Nick Bostrom 接受卫报采访,谈到自己对人工智能的一些看法。  


  (图片来自 exponentialtrends)

  《超级智能》这本书的开头是一则寓言。一群麻雀正在建巢,这时候,一只麻雀弱弱地说,“我们太小,太软弱了。如果有一只猫头鹰帮我们建巢,生活会多么轻松啊!” 这个想法得到了所有麻雀的赞同。它们开始寻找改变自身生存状况的救世主。

  一只独眼老麻雀发出了不同的声音。“这肯定会导致我们的毁灭啊。在猫头鹰来到我们中间之前,难道我们不该先学习驯养猫头鹰的技术吗?” 但是,他的警告无人在意。驯养猫头鹰太复杂了,为什么不先找来猫头鹰,然后再考虑以后的事情呢?

  这则寓言是对人类追求人工智能的一种警告。在书中,Bostrom 提到,当智力超越人类的机器开始自己设计机器后,人类就会面对“智力大爆炸”。“在智力大爆炸之前,人类就像是玩炸弹的小孩,” 他写到,“我们根本不知道爆炸何时发生,但是,如果我们把炸弹放到耳边,就能够听到微弱的滴答声。” 


  (图片来自卫报)

  Bostrom 认为,如果我们创造出强于自身的机器智能,并且给予其成长的自由,那么,它肯定会设法维护自己的主导地位。这与生物界的情况是一样的。因此,人工智能系统可能会派出大量的小型机器人,消灭干扰其运行或者无关紧要的人类;或者,它可能“挟持政治进程、暗地操控金融市场,改变信息流动方向,或者黑掉人类制造的武器系统。”

  这听起来就像是科幻小说。不过,Bostrom 说自己并非预言家,相反,他对这些事情“非常无知和困惑”,但是,经过多年的研究,他得到了一些“不完整的先见”,有了一些更深层的理解。

  在 Bostrom 看来,超级智能与人类和谐共处不仅是政治、哲学问题,而且更是一个技术问题。“目前,机器仍然无法理解许多东西,因为它们还不够聪明。但是,一旦它们足够聪明,理解人类的痛苦和死亡并不是特别难的事情”。这或许会让它们学会尊重人类的价值。虽然不知道如何去做,但是,Bostrom 认为“道德理论”必须强制编入机器人程序中。 


  (图片来自卫报)

  如今,人工智能正进入创造性领域。它们可以编写音乐、作画,甚至写作。对此,Bostrom 说,艺术虽然能够被复制,但是,“艺术活动本身就有价值”。因此,在超级智能兴起后,真实的人类创作会变得越来越重要。

  “当机器在一切事情上都超过我们,我们仍然会继续做自己喜欢的事情。当人们打高尔夫球的时候,不是出于让球高效入洞的需求,而是因为他们享受这项运动。当机器能够替代人类的一切活动,我们会把更多注意力放到活动本身,追求它们的内在价值。”

上一篇:2个城市800多公里 统帅锁定年轻消费群体转战郑州 下一篇:微软仍对手机市场不死心:Win10手机加入NFC支付功能