一、现代文阅读(每小题3分,共9分)
霍金:人工智能不一定是好事或导致人类灭亡
腾讯科技讯 5月3日消息,著名物理学家史蒂芬霍金(Steveb Hawking)在讨论约翰尼德普(Johnny Depp)主演的新片《超验骇客》时称,人工智能或许不但是人类历史上最大的事件,而且还有可能是最后的事件,他的意思是:人工智能可能会导致人类的灭亡。
当你为人工智能技术的飞速发展而欢呼雀跃的时候,你是否想过这可能并不是一件好事?
在观看了德普主演的新片《超验骇客》后,霍垒在为《独立》杂志撰写的一篇文章中明确地表达了他对这个问题的担忧。
霍金担忧的对象不仅仅是未来的人工智能技术,甚至还包括现在的一些公司比如谷歌和Facebook,他说:“人工智能的短期影响取决于由谁来控制它,而长期影响则取决于它是否能够被控制。”
不管从短期还是长期角度来说,人工智能都存在着巨大的潜在风险。实际上,霍金似乎根本就不信任所谓的人工智能专家。
他说:“未来可能出现的情况到底是好是坏完全是无法预料的,面对这种情况,专家们肯定会尽一切可能去保证得到最好的结果.对吗?错!如果有一个优越的外星文明给我们发来一条信息说:‘我们将在几十年之后到达地球。’我们是否应该回答说:‘好的,当你到达地球的时候请通知一下我们,我们将给你留门’?我们可能不会那么做,但是如果人工智能技术继续发展下去,差不多就会出现那样的情况,”
实际上,坚持技术发展似乎可以消除或避免最终产品可能对人类构成的威胁。无人汽车就是个很好的例子,工程师们似乎并不关心人们在开车的过程中获得的乐趣。
霍金承认,机器人和其他的人工智能设备也许会给人类带来巨大的好处。如果那些设备的设计非常成功,就能给人类带来巨大的好处,他说那将是人类历史上最大的事件。然而他同时也提醒说,人工智能也有可能是人类历史上最后的事件。实际上,人类在考核人工智能技术的潜在风险和收益方面所做的研究工作太少。霍金对此表示担忧和哀叹。
他说:“人工智能技术发展到极致程度时,我们将面临着人类历史上的最好或者最坏的事情。”
霍金以前就曾试图提醒人们注意一点,即科幻的魅力会蒙蔽我们的双眼。它有时会掩盖住一个重要的问题,即最终的结果有可能引发一场浩劫。他曾经说过,外星文明可能会憎恨地球文明。
人类有一种自恋的倾向,盲目相信自己很聪明而从不考虑事情有时可能会出错。或许正如霍金所说的那样,科技行业应该更多地把关注的焦点放在未雨绸缪上面。
(来源:腾讯科技 2014-05-03 作者:林靖东)
l. 下列对文章内容的理解正确的一项是
A. 人工智能长期来看只在未来存在着巨大的潜在风险,所以我们必须防范未然。
B. 基于人工智能的潜在风险,霍金根本就不信任所谓的人工智能专家。
C. 人工智能技术发展到极致程度时,人类历史上最好或最坏的事情都可能发生。
D. 霍金认为,机器人和其他的人工智能设备会给人类带来巨大的好处。
2. 下列对人工智能可能引发的人类终结的理解不正确的一项是
A. 人工智能短期影响取决于由谁来控制它,唯利是图的人掌握它,会损人利己;心怀叵测的人掌握了人工智能技术,有可能会毁灭人类甚至地球。
B. 人工智能长期影响取决于人类能否控制它,即人工智能技术发展到了极致,以至于人类的智慧和能力或许无法控制它。
C. 人工智能专家们只看到它有利于人类的一面,而往往忽视了它可能无法预知的不利于人类的一面。
D. 由于人工智能技术的继续发展,在未来可能出现的情况到底是好是坏完全是无法预料的。
3. 根据文章内容,下而推断不正确的一项是