全国服务热线
130-6618-3316

联系我们

  • 东莞市屹鑫传动机械有限公司
  • 联系人:曾经理
  • 业务支持:130-6618-3316
  • 电话:0769-22705844
  • Q Q:2850619186
  • 网址:www.0769yxcd.com
  • 邮箱:2850619186@qq.com
  • 公司地址:东莞市望牛墩镇中路天诚时代2栋101号
当前位置:主页 > 资讯中心 > 行业动态 >

人工智能革命揭秘篇(下)

文章出处:xsy 人气: 发表时间:2016-03-08 08:40

  本文由东莞屹鑫减速机转载:滚石杂志近日刊出了有关人工智能的特别报告,报告分上下两篇,目前已推出了上篇。作者Jeff Goodell访谈了从事人工智能(AI)研究的各方面专家,在上篇中总结人工智能取得的进展以及它对人类的意味;在下篇则重点探索AI对无人车以及未来战争的影响。

  技术革命会引发恐惧—这种恐惧有时候是合理的,但有时候不是。在工业革命期间,英国的纺织工人摧毁了机器因为担心自己工作被抢走(的确是)。电气时代开始时,大家认为电线可能会导致人发疯(并没有)。在1950年代,家电制造商以为很快就会有核真空吸尘器。

  一直以来,AI都受到言过其实的论断的困扰。1958年,当第一个所谓的神经网络系统“perceptron(感知器)”引入时,一家报纸认为它很快就会导致能再生并实现意识的“思考机器”的出现。到1960年代,发明出“人工智能”这个词的科学家John Mc Carthy向五角大楼提出一个新的研究项目时,他的说法是开发一套人工智能系统大概需要10年。当然情况并不像他想象的那样发展,在1970年代和1980年代,这个领域经历了一段衰退期,这段时间被科学家称为是“AI的冬天”。

  但是冬天现在已经结束了。首先,是因为计算机能力的不断提高以及价格的持续下降为复杂的AI算法提供了运行所需的足够动力。一种新的芯片,所谓的图形处理单元(GPU),本来是用来进行视频游戏处理的—却成为了对运行拥有数百万个连接的神经网络特别重要的一个东西。

  第二个大的变化是大数据的来临。就像人的智能一样,机器的智能也要靠教。从基因上来说人的大脑是很适合对东西进行分类的,但要想分清让它分清猫和狗还需要给让它看到真实的例子。对于机器学习来说更是如此。Deep Mind在围棋和雅达利游戏上的突破需要计算机玩过成千上万次之后才能获得知识。AI突破部分是得益于我们这个世界数据的雪崩效应,为AI提供了学习所需要的素材。大规模数据库、TB级的存储、几十年的搜索结果,以及整个数字宇宙都变成了让AI变聪明的老师。

  伯克利机器人学习实验室的研究人员正在开发能自学且有朝一日能实现人类智能的机器。

  在过去,创造思考机器的尝试基本上属于哲学家和学术界的计算机科学家做的事。“所不同的是现在做出来的东西可以用了,”Face book的Le Cun说:“Face book、IBM、微软—大家都在部署,而且有利可图。”今天,谁拥有了最好的学习算法和数据谁就能在竞争中取得胜利。为什么Google是如此成功的一个广告平台?因为更好的算法能够预测你会点击什么广告。点进率哪怕提高0.5个百分点对于一家收入500亿美元的公司来说也是一大笔钱。依靠机器学习的图像识别现在是苹果、微软、Google以及Dropbox这样的云服务公司激烈竞争的领域。另一个战场是完美的语音识别。谁能够率先实现跟机器的对话像跟人聊天一样流畅,谁就能拥有巨大优势。“语音接口即将变得像触摸一样重要和具有变革性,”百度的吴恩达说。Google和苹果正在收购有望提供更智能助手的AI初创企业,AI也是无人车取得成功的关键,而后者将对汽车业产生巨大影响,并有可能改变城市的格局和外观—只要我们不再需要开辟专门的空间去停放私家车的话。“AI是新的热门词,”旧金山的创业者JasonCalacanis说:“只要在商业计划里面用到‘人工智能’这个词就能引起每个人的注意。AI现在太火了。”

  不过质疑也是有道理的。是,AI能认出图片里面的猫,听得出你讲话里面的字。但是感觉不是理性。看见不代表会思考。围棋下得好未必能在真实世界里面生活。在认为AI具备智能之前首先得教会它推理。这一点的危险性要低的多,或者至少要让它具备常识。在实现任何类似人类智能或意识的东西之前,研究人员仍然有很长一段路要走。

  “我们穿过了一堵墙,现在我们知道如何进行图像处理了,”LeCun说:“好消息是我们知道如何走到下一步,可以很有成功的希望。但现在的情况是我们好比是在浓雾当中以50码的时速在高速公路上跑,前面某个地方也许有一堵墙是我们看不到的。我们现在只是高兴地往前跑,直到跑到没油了。”

  MIT物理学家MaxTegmark已经48岁,但他的锅盖头和小孩一般的热情让他看起来要更年轻。在他位于波士顿市郊的两层住宅里,客厅稀稀拉拉地摆放着一些家具,墙上装点着一些鸭子和土拨鼠的图片。作为一名物理学家和宇宙学家,Tegmark有着怪癖的一面。他最知名的是提出了平行宇宙的理论,认为可能会存在大量的宇宙,其中有些可能并不遵循我们的物理定律。这种想法他承认尚未被主流科学完全接受。不过Tegmark却狂热地坚信自己的想法。最近他还成为了谈论AI的危险最直言不讳的声音之一。

  上个夏天,我们坐在他的餐厅讨论AI的危险以及他在Future of Life Institute的工作。这个机构是他与人联合成立的一家“由志愿者运营的研究及外延服务组织,旨在缓和人类所面临的存在主义威胁。”尽管这家机构的顾问委员会有着像霍金这样的杰出人物,但基本上属于一个由Tegmark的朋友和同事临时性组成的组织。这帮人会每隔几个月在他的客厅里聚一次。机构得到了Open Philan thropy Project的资助,还获得了Musk作为礼物赠送的1000万美元,为的是让他们研究出如何最好地研发AI,教育大家了解先进技术的风险。我们一起吃过饭的几天之后,这家机构就发布了一封公开信,警告要当心无人武器的危险。“只要有任何一个军事强权推动AI武器的研发,全球的军备竞赛就不可避免,”公开信称:“无人武器会成为明天的卡拉什尼科夫冲锋枪。”这封公开信已经获得了超过2万人的联署,其中不乏霍金、Musk、苹果联合创始人Steve Wozniak以及诺贝尔奖获得者Frank Wilczek等名人。

  MIT物理学教授Max Tegmark是Elon Musk的Future of Life Institute的成员。

  2015年1月,Tegmark组织了第一场探讨AI风险的重要会议(值得注意的是Tegmark是物理学家而不是计算机科学家。实际上,发出这类警告的大都是创业家、哲学家科幻小说家以及科学家等不从事AI研究的人士)。在波多黎各召开的这次为期3天的会议汇聚了该领域的众多顶尖研究者和科学家,以及像Musk这样的创业家。它参照了1975年的罗马会议(讨论基因重组议题),后者被视为讨论合成生物与克隆技术危险的里程碑事件。据当时的几位出席者所言,2015年会议的中心议题之一是人工智能还需要多久才能够超越人类智能。像AI先驱吴恩达这样的一方观点认为AI超越人类智能起码需要百年;而以Musk及加州大学伯克利分校计算机科学教授Stuart Russell为首的另一方则认为时间会短得多。“讨论的结果中位数是40年,”Tegmark说。

  像霍金一样,Tegmark并不认为超智机器必须是邪恶的才有危险。“我们希望造出的机器不仅有目标而且目标应该跟我们的一致,”他说:“假如你有一辆无人车,这辆车具备语音识别技术,然后你说‘带我赶去机场,越快越好,’无人车一路狂奔,眼看机场马上就到,但是追查你超速驾驶的直升机也跟过来了,你还因为车开得太快而呕吐不止。这时候你会说,‘这不是我想要的。’车子会回答说,‘这是你让我做的。’”

  Tegmark认为现在开始思考这些问题很重要,这部分是因为尚不清楚AI的进展有多快。机器实现人类这样的智能也许需要100年,也可能只用10年。他用核武器进行类比。“想想看原子弹身上发生的事情吧,”他说:“科学家在研究原子弹的时候如果能够事先考虑到它对世界的影响并采取措施预防的话,我们现在的世界会不会好一点呢?还是说会有所不同?”

  无论你去哪里,假设有一个摄像头在盯着你。也许是在街头巷尾,在无人机上,或者在这个星球上的大约40亿部手机的大多数里面。2012年,FBI推出了10亿美元的下一代识别系统,该系统可利用算法收集数百万美国人的脸部图像、指纹、虹膜扫描等生物信息数据,供18000多家执法机构访问。

  如果没有YannLeCun的工作的话,这一切都不可能实现,至少没那么有效地实现。在AI的世界里,LeCun的地位跟摇滚明星差不多,他是早期的AI三杰之一,他们一起开发出了令图像识别成为可能的算法。LeCun从未替执法机构工作过并以维护公民权利为己任,但这并没有关系—技术一旦被发明出来,就会自己在这个世界找到自己的位置。

  这段时间里你可以在曼哈顿下城的Facebook办公室找到LeCun。在一片篮球场大小的开放空间里,一群人正在盯住墙上的屏幕。Le Cun的AI实验室位于房间的一角,实验室的25位研究人员看起来跟Facebook的员工并没有什么区别。LeCun坐在一长排的办公桌旁,跟他的团队成员一起并肩工作。只要他往窗外看过去,几乎就能看到IBM Watson所在的那栋建筑。

  身穿牛仔裤马球衫的LeCun带我参观的时候总是一付沉静的学院派头。他在巴黎市郊长大,但现在只剩一点口音了。“我的所有身份都是宗教所藐视的东西:科学家、无神论者、左派、大学教授,还有是法国人。”他是三个小孩的父亲,周末则会出去开开航模飞机放松一下。

  LeCun是深度学习的先驱,这种机器学习法彻底改变了AI。1980年,当他还是研究生时,他读到了1958年的“perceptron(感知机)”,了解到神经网络算法有望让机器“感知”像图像或文字这样的东西。这种网络模仿的是我们大脑的神经通路结构,是利用神经元,或者叫“节点”来执行大量输入(可以是数字、声音、图像等)的统计分析的算法。看到了这种网络潜能的LeCun博士论文就瞄准了这个方向,提出了一种可以培训神经网络自动“优化”自己识别模式提高精确率的方法—最终创造出了现在能让ATM机读支票的算法。这些年以来,在其他程序员的改进下,神经网络已经成为智能机器所取得的从无人车到GoogleVoice语音识别几乎所有进展的技术基础。很大程度上仿佛是LeCun为人工生命发明了神经系统一样。

  虽然神经网络的名称容易让人联想,但LeCun说这个东西并不是想模仿大脑。“这并不是神经科学最新、最伟大或者最近的发现,”他说:“实际上是非常典型的东西。如果你要造飞机,你会从鸟身上寻找灵感因为鸟会飞。哪怕你不太了解鸟,你也能意识到它们有翅膀,能够在空中推动自己。但是造飞机跟创造一只鸟出来是很不一样的。你必须总结出一般原则—但是靠研究生物学如何工作的细节并不能概括出一般原则来。”

  在LeCun看来,这就是目前完成的大多数大脑研究的缺陷,包括欧洲吹捧的人类大脑项目也是这样,这个项目投资高达13亿美元,打算用10年的时间揭开思想之谜,手段是用超级计算机模拟大脑的860亿神经元和100万亿个突触。“想通过研究神经元和突触运作机制的每一个细节,然后模拟这一整个庞大的网络,指望AI就会出现,”他说:“我觉得这种想法完全是疯了。”

  新泽西贝尔实验室裁员后,作为教授LeCun在纽约大学待了10年。2013年,扎克伯格向他伸出了橄榄枝,Facebook给出的条件相当诱惑,他仍然可以兼职纽约大学的原先职位。“扎克伯格对我说,‘Facebook已经10年了—我们必须考虑接下来20年的事情:人和数字世界之间的沟通应该是什么样的?’”LeCun回忆道:“他相信AI汇总其中扮演很大的角色,而有办法利用智能系统来协调人与数字世界之间的交互将非常重要。当有人告诉你说‘从头搭建一个研究组织’时,你是很难拒绝的。”

  Facebook的Yann Lecun是AI先驱。

  LeCun不愿透露Facebook在AI方面投入了多少钱,但他的实验室被认为是硅谷最有雄心的实验室之一。“我们的大部分AI研究都聚焦在理解大家分享的东西是什么意思上面,”扎克伯格在自己网站的一次问答录上提到:“比方说,如果你拍了一张照片,里面有你的朋友,我们会确保你的朋友能看到这张照片。如果你拍了一张小狗的照片或者写了一篇讨论政治的文章,我们也应该理解以便把帖子展示给喜欢小狗或政治的人看,帮助你跟这些人建立联系。为了真正做好这一点,我们的目标是建立比人类主要感官(视觉、听觉等)还要好的AI系统。”今年1月,扎克伯格宣布自己的2016新年挑战是写一个简单的AI来帮打理自己的家并辅助他工作。“你可以把它看作钢铁侠里面的Jarvis,”他写道。

  LeCun说Facebook AI的最好例子是Moments,这个新推出的app可以通过脸部识别认出朋友,然后让你给他们发照片。但是先进程度略低的AI已经在这家公司的每一个地方部署了,从扫描图像,跟踪浏览模式,到确定你登录时首先应该展示哪一位朋友的状态给你看。AI还被用来管理Facebook要处理的多到近乎疯狂的数据。每天用户要上传20亿张照片,观看80亿个视频。该公司利用了一种名为AIEncoding的技术来把文件按照场景分解,让他们不至于那么“胖”。这种做法取得的成绩谈不上很大,但在存储方面省了很多,并且效率也提高了。

  尽管取得这些进展,LeCun知道,相对于一般智力的终极目标来说,这些只是婴儿学步。哪怕是取得了显著进展的图像识别也还有问题:AI程序会受到像素中的阴影、反光以及变化的迷惑。但是最大的障碍是所谓的“无监督学习。”现在机器主要是通过有监督学习来学东西的,也就是说要给系统不断地看成千上万张图片,比如说猫的图片,直到它识别出猫的属性。其他方法少见一点,比如强化学习,是提供信息让计算机识别,做出决定,然后告诉它正确与否。无监督学习不用反馈和输入,靠的是所谓的人工直觉。“人就是这么学东西的,“LeCun说。我们观察,举一反三,然后把学到的东西加入我们的知识库。“这是我们要攻克的一大难题,”他说。

  一种流行的想法认为,无监督学习应该跟预测有关。“如果我给你看一部短片然后问你下一秒会发生什么,你应该能够猜出答案,”LeCun说。在空中的物体应该会掉—你不需要对世界了解很多才能预测这个。“可如果这是一宗复杂的神秘谋杀案,我要问你杀手是谁,并且要描述出影片结束时会发生什么,你就得对发生的事情具备很多的抽象知识才行,”他说:“预测是智能的基础。抛开预测半小时后的情景不说,我们怎样才能开发出一台能够观看电影然后告诉我们下一帧是什么的机器呢?如何才能让机器知道那东西要去哪里,知道这些东西是物体,知道世界是三维的,知道我们所知道的这个世界的一切物理约束呢?”

  LeCun正在攻关的一个解决方案是把Facebook的一切东西都当作向量来表示,这让计算机能描绘出空间的一个数据点。“我们用来表示图像之类的概念采用的典型向量的维数是4000个,”他说:“也就是说,一个4000个数的列表大概就能概括一张图像的所有特征。”向量可以用来描述图像,一段文字或者人的兴趣。把这些东西降格为数字后,计算机进行搜索和比对就很容易了。如果某人的兴趣用向量表示后跟表示某张图像的向量匹配,那这个人可能会喜欢这张图片。“这张做法基本上是把推理问题归纳为几何学问题,”他说。

  至于AI的威胁,LeCun称还“非常遥远。”他认为,那种认为智能机器会随着人类智能和情感变化而演变的想法是荒谬的:“人类行为当中很多不好的东西都是受到生存、繁殖以及避免疼痛这些本能需求的驱使。认为机器人会有自我保护的本能是没有理由的,除非我们把这种东西内置到机器里面。但是机器人可能会有同理心,因为我们会为了让机器能用恰当的方式与人交互而把它植入进去。所以问题是,我们希望把哪些本能需求和行为植入到机器里面,好让它们能成为我们智能和能力的延伸而不是替代呢?”

  在我离开Facebook时,我被这里办公室有那么多人挤在一起给震到了—这是一个人与机器一起协作的帝国。很难想象未来会有什么不一样,无论我们的机器人又多复杂。“算法是人设计的,也是为人类服务的,它们反映的是制造者的偏见,”杰出的计算机科学家JaronLanier说。不管怎样,无论我们会创造出什么样的未来,这样的未来都是我们设计的,为我们自己服务的。我们可以演绎一下有关宇宙结构的一句格言:It‘shumansall the way down。

  注:关于It’shumans allthewaydown可能引申自turtles all the way down。霍金在《时间简史》中曾讲过一则轶事,说的是一位著名的科学家(也有说法是罗素)曾经作过一次关于天文学方面的讲演。他讲了地球是如何绕着太阳运动,以及太阳又是如何绕着我们称之为星系的巨大的恒星群的中心转动。演讲结束时,一位坐在房间后排的矮个老妇人站起来说道:“你说的这些都是废话。这个世界实际上是驮在一只大乌龟的背上的一块平板。”这位科学家很有教养地微笑着答道:“那么这只乌龟是站在什么上面的呢?”“你很聪明,年轻人,的确很聪明,”老妇人说,“不过,这是一只驮着一只一直驮下去的乌龟群啊!(Butit‘s turtles all the way down!)”。