Pieter Abbeel的机器人学习实验室
在美国加州大学伯克利分校,人工智能领域著名的Robot Learning Lab就坐落在校园北面一个建筑的第七层。作为一个“机器人幼儿园”,该实验室培育着Brett人形机器人以及工业机器人等。作为一个典型的研究型实验室,其实验内容同样的杂乱无章:自行车就那么直接放在实验室内,实验室成员的位置也看起来有些混乱,白板上也经常画着一些旁人很难理解的符号和公司。就在这看起普通甚至有些杂乱的表面背后,该实验室对人工智能的研究却十分深入。作为该实验室的核心成员,Pieter Abbeel在2000年从比利时来到美国,并在斯坦福大学开始攻读计算机专业的博士。现在,38岁的Abbeel已经成为了全世界机器人方面的专家。他现在的主要工作就是带领其团队其他成员和学生不断尝试如何让机器人更加智能。
六英尺高的Brett是曾经著名的硅谷机器人制造商Willow Garage的产品。其名字的含义为 Berkeley Robot for the Elimination of Tedious Tasks (用于解决繁杂任务的伯克利机器人)。它拥有着像“瓦力”一样的外表——扁扁的头上安装着两个可爱的摄像头“眼睛”,机械握爪充当手臂,轮子就是其腿和脚。平时,他们就通过木锤、塑料玩具飞机以及乐高积木等来训练Brett。此外,实验室中还有18英寸高的机器人和其他用于医疗和无人机等的工业机器人。
Brett机器人
目前,可编程工业机器人已经在很多领域得以应用。但是,它们一直执行的都是特定任务。近些年,语音及图像识别等机器学习算法的不断改进使得机器智力的提升变成了可能。Abbeel团队的目标就是培养机器人的智力,使得他们可以自主完成任务。他们以教会机器人叠毛巾作为了研究对象。以往,机器人是不可能完成这项看似简单的任务的——它们无法识别毛巾,也不知道该如何折叠。
然而,在不断的实验中,Abbeel创造了一种通过不断调整方法来完成任务的自学法。目前,Brett已经学会了如何根据不同的毛巾形状来进行折叠和整理。这个任务看似很简单,但它却体现着机器的智力。一旦机器人可以很好的完成这项工作,其在其他领域的应用前景将不可估量。也许未来的机器人不但能进行做饭、手术,还能进行自我思考。由此还可能引起像很多电影中所描述的有关机器人的思考——机器人应该享有和人类一样的权利吗?我们该如何看待机器人呢?是像宠物一样,还是像朋友一样呢?这些有关人性的问题一旦处理不好就可能引起机器人革命。
无论前景如何,人工智能的革命已经开始。去年夏天,该团队就曾经遇到了一个神奇的现象。为了测试仿真机器人的记忆能力,他们首先编写程序来教会机器人如何正确的将钉子放到左右两个洞中。令人感到惊奇的是,机器人在移除原有记忆程序的情况下,仍然可以很好的完成之前的动作。它们已经能够从之前的行为中学习到一些东西。参与该项目的Sergey Levinew至今想起都觉得兴奋而又对机器人智力表示些许的担心。
此外,Abbeel还曾分享了DeepMind团队遇到的一个例子。在没有被告知游戏规则的情况下,计算机通过强化学习可以自行探索太空入侵者之类的雅达利视频游戏的玩法。而且,他们可以玩的非常好。强化学习算法使得计算机可以根据 目标和奖励规则不断调整,迅速学习。
由此得到启发,Abbeel团队决定开始尝试类似的强化学习算法——信任区域策略优化算法(Trust Region Policy Optimization,TRPO)。结果表明,该算法可以让机器人在没有内置规则支撑的情况下学会自己走路,并不断接近目标。Abbeel表示,他们只给机器人规定了三个目标:有多远走多远,不要踩到自己的脚,以及躯干要高于一定高度。机器人并不知道自己有手有脚,也不知道如何走路,只知道自己应该不断接近目标。视频显示,刚开始,机器人完全不清楚自己该如何行动。它只能通过不断的探索,发现把腿抬起来可以推动自己前进后,学会了跌跌撞撞的走路。然后,它继续分析探索,很快就掌握了走路的技巧,并越走越快。最后,机器人虽然不了解跑的含义,它却能够快速跑向目标。而且,机器人可以很快学会如何在游戏中击败人类——简直像魔术一样。
人工智能的未来
而这背后提供支撑的是人工智能算法。这些算法就如同19世纪的煤矿,为机器的运行提供了核心动力。目前,相关的算法已经在很多领域得到了应用,并为人类生活和工作提供了很大帮助。例如,GoogleMaps、Google Voice以及Facebook等等都采用了一定的人工智能算法。更能表明机器智力的则是计算机可以自己编写算法。例如,在告诉计算机有关直升机控制方的数据后,它可以利用机器学习自己找到让直升机倒着飞的方法。未来,机器学习等人工智能算法或许可以帮助寻找爱人、识别声音甚至设计出创造总结者的天网。华盛顿大学教授、《The Master Algorithm》的作者Pedro Domingos曾表示,如果人工智能算法停止工作,现在的社会马上就会终结。而能够让机器变得像人类一样聪明的算法就是“圣杯”一样的存在。
那么,机器智能未来会走向何方呢?相比于人类的发展速度,计算机及人工智能的速度超乎想象。从第一台计算机的诞生到现在无所不在、带来社会的巨大变革,该过程只用了60年左右。近日,AlphaGo多次击败了韩国冠军棋手李世石,证明了机器智能在围棋领域已经达到并超过人类。很难想象,机器在不久的将来会发展到何种情况。
AlphaGo对战李世石
未来的机器可能会变得比人来还聪明吗?对此,Google公司的Ray Kurzweil、Tesla和SpaceX的创始人Elon Musk都表达了自己的担忧。Ray甚至提出了“奇点”论,认为机器智能会在2045年左右赶超人类。这些向我们提出了一个严重的问题——我们需要考虑,作为人类我们是谁?我们希望建设一个怎样的未来?甚至物理学家霍金都表达了对智能机器的担心。霍金表示,机器智能一旦超越人类,就会成为一种威胁。一旦它们与人类的目标不一致,后果将无法想象。
幸运的是,现在机器人的智能还远远不及人类。它们可以快速处理复杂的数据,却无法理解类似“人呼吸空气”等简单的语句。IBM的Watson、Allen Institute for Artificial Intelligence的Aristo以及Skype Translator都还不能很好的完成语音或语义识别。因此,对杀手机器人的担心仍是多余的。
实际上,智能机器人所带来的真正威胁包括:很多工人可能会失业、武器的杀伤力越来越强、人类对机器的依赖以及个人隐私愈发不能保证。但是,另外一方面,包括DeepMind的Demis Hassabis和Microsoft的Eric Horvitz等在内的很多专家仍然力挺智能机器的好处。它们可以帮助在医疗、环保等方面贡献很多。
人工智能所带来的恐慌
历史上,每次的技术革命都会带来一定程度的恐慌。从18世纪的工业革命到后来电的出现引起的一系列社会变革,再到电器的不断涌现,人们总会有失业、人生安全等方面的担心。而人工智能从一开始就出现就被大家过度猜疑。在1958年,第一个神经网络系统Perceptron出现后,有报纸就认为机器在不久就会有自己的意识。而“人工智能之父”John McCarthy曾在上世纪60年代提出,人工智能系统会在10年内实现。然而,十年之后,人工智能领域进入了所谓的“冰封期”。
直到最近,人工智能才又再度变得火热。一方面,计算机性能的飞速提升为人工智能算法提供了基础的支撑。尤其是GPU在计算方面的应用,更是极大的提高了算法的执行速度。另一方面,就是大数据的出现。与人类以及动物相同,机器同样需要从大量的例子中来学习。大数据提供了绝佳的学习平台。DeepMind团队的机器人在围棋和Atari游戏方面的成功就得益于其前期大量的训练。
此外,现在的人工智能研究不再局限于学术范围。Facebook、IBM和Microsoft等大企业也都纷纷参与其中,希望从中获利。Google的成功就与它所采用的高效搜索算法密切相关。而Apple、Microsoft、Google以及Dropbox都在争夺图像识别/语音识别的高地。甚至在很多关联较弱的领域,大家也都在纷纷提出“智能化”的理念。
尽管如此,人工智能系统也还只是能够识别物体和理解特定的语言。它们距离拥有智慧还有很远的距离。Facebook人工智能实验室负责人Yann LeCun举了一个形象的例子。他表示,我们现在就像是在一个大雾天、在一条有一面墙挡着的告诉公路上开车。我们知道下一步该怎么走,也看不见未来的墙,现在就只是快乐的往前走,直到燃料耗尽。
现年48岁的MIT物理学家Max Tegmark一直专注于平行宇宙的研究。近些年,它开始关注人工智能,并成为“机器威胁论”的主要拥护者。Tegmark联合了若干同事和朋友,成立了Future of Life组织,用来分析那些可能对人类构成威胁的技术。在去年,该组织曾在《The New York Times》和《The Washington Post》发表文章,提出自动武器的危险。该文章联合了包含霍金、Musk、Steve Wozniak在内的20000人进行签名。而在2015年1月,Tegmark召开了第一届讨论人工智能威胁的会议。该会议以1975年召开的有关重组DNA的Asilomar会议为模板,在Puerto Rico进行了三天的讨论。据参会者透露,其中的一个核心讨论内容就是机器智能何时能够赶超人类。像Ng这样的人工智能专家认为这还需要数百年,而Musk和Stuart Russel等则认为这很快就会实现。最终,Tegmark给出的中间答案是40年。他表示,机器不需要本身就是邪恶的才会对人类构成威胁。以无人车为例,如果我们让它带我们尽快去机场,它却因为超速和违章驾驶而引来大批警察,就不太好了。
MIT的物理学教授Max Tegmark
此外,Tegmark还表示,现在讨论人工作智能的威胁或许有些早。但是,这就和原子弹研究很像,科学家们在刚开始都没想到它可能对世界带来的影响,也没有提前采取措施。如果提前想到了它可能带来的威胁,现在的世界是不是另外一番景象呢?
LeCun眼中的人工智能
最后,有关人工智能算法的应用方面。现在,全世界包括摄像头、手机等在内的图像/视频采集终端已经达到几十亿的规模。在2012年,FBI花费10亿美元构建了下一代的识别系统,利用算法收集人脸图像、指纹以及虹膜等生物信息,供执法部门使用。作为人工智能领域的热门人物,LeCun在图像识别方面贡献了很多。
LeCun的AI实验室就坐落在Manhattan地区离IBM的Watson不远的地方。目前,该实验室拥有20名左右的研究人员。与一般的研究人员很像,LeCun对自己的着装并不十分注重——保罗衫配牛仔裤。他从小在法国长大,身上经常带有浪漫主义的气息。而LeCun对人工智能的接触要追溯到1958年。当时,他正在读大学本科,无意间读到了有关“perceptron”的内容。其中有关神经网络的东西打动了LeCun。于是,他的博士课题就研究了如何训练神经网络使得它们能够更加精确的识别模式。最终,这些算法用在了ATM机上,用于识别支票。之后,有关机器视觉和语音识别等方面的研究才开始慢慢开始。
Facebook的AI先驱Yann Lecun
LeCun表示,虽然神经网络在名字中有“神经”二字,它和人脑是存在很大差别的。这就像从鸟的形状来学习造飞机一样。人类可以从鸟的翅膀以及飞行模式中得到灵感。但是,造飞机和造小鸟那就是两码事了。从鸟的行为中,人类只能看到一些表象的东西。而造一个新的物体是需要理解其基本原理的。由于人脑实在过于复杂,从中详细推到神经网络算法是不可能的。
博士毕业后,LeCun曾经在纽约大学当教授。在2013年,Facebook的创始人Mark Zuckerberg找到了LeCun,并聘请他来组建Facebook的AI研究实验室。Zuckerberg试图构建一个能够更好理解和处理Facebook网站上大量照片的智能系统。Moments就是该实验室的产物。此外,Facebook内部使用的很多东西也都加入了AI的元素。尽管如此,LeCun认为目前的人工智能还处在初步阶段。它们最大的障碍是如何像人类一样实现无监督的学习。
LeCun认为,其中一种可能的方案就是预测。例如,给机器播放一段视频,然后让其预测未来一段时间事情会如何发展。而LeCun目前正在研究的则是将Facebook的所有东西用向量来表示。这些多打4000维的向量可以表示图像、文字或人类的兴趣等信息。而对这些向量的识别和分析就可以得到很多有趣的结论。在人工智能的威胁方面,LeCun表示,这还是一个非常遥远的事情。他认为,能够威胁到人类存在的机器智能基本还存在于科幻小说中。而且,机器的行为是受人类所设计的算法控制的。无论未来如何,这都是我们人类自己创造出来的。