设计产品还有一个历史趋势:它们的目标不仅变得越来越多样化,而且变得越来越复杂,人类的机器变得越来越聪明了。
最早的机器和人造物的目标都很简单,比如房子的目标是让人类保持温暖、干燥和安全。
后来,人类逐渐学会了建造拥有目标更加复杂的机器,比如扫地机器人、自己飞行的火箭和无人驾驶汽车。
人工智能方面的进展还给人类带来了像深蓝计算机、沃森和AlphaGo这样的系统,它们的目标分别是赢得象棋比赛、猜谜游戏和围棋比赛。这些目标都十分复杂,人们费尽心思才理解了它们高超的技艺。
当人类建造机器来帮助人类时,可能很难保证它们的目标与人类的完全一致。譬如说捕鼠器可能会错把你的脚趾头当成饥饿的老鼠,结果让你疼得龇牙咧嘴。
所以机器都是拥有有限理性的主体,即便是今天最复杂精巧的机器,对世界的理解程度也远远比不上人类人类。因此它们行事的规则通常过于简单。
那只捕鼠器总是乱夹是因为它完全不知道什么是老鼠;同样地,许多致命工业事故之所以会发生,正是因为机器完全不知道什么是人,而2010年导致华尔街“闪电崩盘”事故、造成万亿美元损失的计算机,也完全不知道它们的行为是胡作非为。
如果机器变得更聪明,就能解决许多“目标一致性”问题,但是正如人类从普罗米修斯故事中所看到的那样,日益聪明的机器智能也可能给人类带来新的挑战,因为人类必须保证它们与人类的目标一致。
机器变得越智能和越强大,保证它们的目标与人类的相一致就越重要。如果人类建造的机器比较愚钝,那问题就不是“人类目标最后会不会胜出”,而是“在人类搞明白如何解决目标一致性的问题之前,这些机器会带来多少麻烦”。
然而,如果人类建造的机器具备超级智能,那事情可能便正好相反:由于智能就是完成目标的能力,那么,在完成目标这点上,超级智能理所当然强于人类,因此它最终一定会胜利。
如果你想体验一下与机器目标不一致的感觉,只要下载一个最先进的象棋程序,然后和它对弈,就能体会到了。你可能永远赢不了它,而它的技艺还会越来越精湛。
换句话说,通用人工智能带来的真正风险并不是它们的恶意,而是它们的能力。
一个超级智能会非常善于完成它的目标,如果它的目标与人类的目标不一致,那人类就有麻烦了。
人们在建造水电站大坝时,根本不会考虑会淹没多少蚁丘。因此大多数研究者认为,如果人类最终造出了超级智能,那人类必须保证它们是友好的人工智能。“友好的人工智能”是人工智能安全性研究提出的一个概念,是指目标与人类相一致的人工智能。
想要让超级人工智能与人类的目标相一致很重要也很困难。实际上这目前还是个未解之谜。这个问题可以被划分成三个子问题,每一个都是计算机科学家和思想家正在研究的活跃课题:让人工智能学习人类的目标;让人工智能接受人类的目标;让人工智能保持人类的目标。
人类先来依次探讨一下这三个问题,“人类的目标是什么意思”这个问题先推迟到下一节再探讨。
要学习人类的目标,人工智能需要搞明白的不是人类做了什么,而是人类为什么这么做。这对人类来说易如反掌,所以人类很容易忘记这件事对计算机来说有多困难,也常忘记这个问题很容易被计算机误解。
如果在未来,你叫一辆无人驾驶汽车尽可能快地送你去机场,而它确实会不择手段地让你火速赶到了机场,那你可能会一路被直升飞机追赶,并且呕吐一地。
如果你声称:“这不是我想要的。”
那它可能会言之有理地回答:“可你就是这么说的呀!”
很多家喻户晓的故事里也有类似的桥段。古希腊传说中的迈达斯国王请求让自己触摸的所有东西都变成金子,
但这使得他没法吃东西,令他十分失望。后来他不小心将自己的女儿也变成了金子。此外许多故事中都会有一个精灵,它可以实现人们的三个愿望。
关于前两个愿望,不同的故事有不同的版本,但第三个愿望通常都是一样的:“请收回前两个愿望,因为那不是我真正想要的东西。”
这些例子表明,想要知道人们真正想要什么,不能只听他们的一面之词,你还需要这个世界的详细模型,包括人们共有的许多偏好。
这些偏好人类通常不会明说,因为人类认为它们是显而易见的,譬如说,人类不喜欢呕吐或吃金子。
一旦有了世界的模型,人类就能通过观察人们的目标导向行为来搞明白他们想要什么,即便他们并没有明说。实际上伪君子的孩子通常都是从父母的行为中学习的,而不是从他们的嘴里。
目前,人工智能研究者正在努力让机器从行为中推断目标,这在超级智能出现之前也非常有用。
譬如说,如果一个照顾老年人的机器人能观察和总结出它所照顾的老年人的价值观,那这个老人可能会非常开心,因为这样他就不用费尽口舌向机器人解释一切,也不用对它进行重新编程。
这章没有结束^.^,请点击下一页继续阅读!
喜欢末世救亡计划请大家收藏:(www.shaonianshuwu.com)末世救亡计划少年书屋更新速度全网最快。