范文健康探索娱乐情感热点
投稿投诉
热点动态
科技财经
情感日志
励志美文
娱乐时尚
游戏搞笑
探索旅游
历史星座
健康养生
美丽育儿
范文作文
教案论文
国学影视

只有大规模算力才能救AI?强化学习之父vs牛津教授掀起隔空论战

  乾明 安妮 发自 凹非寺量子位 出品 | 公众号 QbitAI
  70年来, 人们在AI领域"一直连续犯着同样的错误"。
  这是"强化学习之父"理查德·萨顿(Richard S. Sutton)为同行后辈们敲响的警钟。
  他在博客上发表最新文章《苦涩的教训》(The Bitter Lesson),总结了AI发展史上的怪圈:
  人类不断试图把自己的知识和思维方式植入到AI之中,比如用人类的思路教AI下棋、将让AI按照人类总结的思路来识别图像等等。这些做法,能带来暂时的性能提升,长期来看却会阻碍研究的持续进步。
  真正的突破,总是来自完全相反的方向。摒弃人类在特定领域的知识、利用大规模算力 的方法,总会获得最终胜利。
  靠自我对弈磨炼围棋技艺的AlphaGo,基于统计方法、深度学习来识别语音、图像的算法,一次次击败先前那些浓缩了人类知识的AI,甚至人类自己。
  搜索、学习,充分利用大规模算力才是王道。用人类在特定领域的知识来提升AI智能体的能力,都是在走弯路。
  萨顿说:"将AI建立在我们对自身思维方式的认知上,是行不通的。"
  OpenAI首席科学家Ilya Sutskever精辟地总结了萨顿的核心观点:算力常胜。
  文章一发出,就引发了热烈的讨论,OpenAI CTO Greg Brockman、特斯拉AI总监Andrej Karpathy等人都在转发附议。
  DeepMind机器学习团队主管&牛津大学教授Nando de Freitas甚至称之为"周末必读"。
  然而,也有反对的声音。
  牛津大学计算机系教授希蒙·怀特森(Shimon Whiteson)连发13条Twitter反驳萨顿的观点,表示"坚决不同意",同样获得了大量支持。
  怀特森认为,构建AI当然需要融入人类知识,问题只在于该何时、如何、融入哪些知识。
  AI的历史进程是一场融入人类知识的胜利。科学家们广泛尝试,抛弃失败的99%,留下有用的1%。而这1%,对现代人工智能算法成功的重要性不亚于萨顿推崇的大量计算资源。
  一场隔空论战,就这样展开了。
  我们先读完"本周末必读"的萨顿博文,看看正方的观点。
  苦涩的教训
  以下为萨顿博客完整全文,经量子位翻译整理:
  回溯70年的AI研究,从中得出的最大经验是,利用计算力的通用方法最终总是最有效的,而且遥遥领先。
  出现这种情况的终极原因是摩尔定律,或者宽泛一点来说,是单位算力成本的持续指数级下降。
  大多数AI研究都以智能体可用算力恒定为前提进行,在这种情况下,利用人类知识可能是提升性能的唯一方法。但是,将目光投向比一个典型研究项目更长远的时间段,就会发现必然有更多可用的算力出现。
  为了寻求短期可见的提升,研究人员会利用该领域的人类知识,但从长远来看,利用算力才是唯一重要的事。
  虽然但这两者看似没有必要相互对立,但实际上它们往往是对立的。
  在一个方向上花费的时间,就必然不能花在另一个方向。对于某一种方法的投入也会带来心理上的承诺。
  同时,用人类知识来提升AI会倾向于使方法复杂化,让运用算力的通用计算方法变得不太适用。
  很多AI研究人员后知后觉地领悟了这种"苦涩的教训"。回顾其中最重要的一些颇有启发。
  在国际象棋领域,1997年击败国际象棋冠军卡斯帕罗夫的深蓝,就是基于大规模深度搜索。
  当时,大多数计算机国际象棋研究者都以沮丧的眼光看待它,他们追求用人类对国际象棋特殊结构的理解制胜。
  当一种更简单的、有特殊硬件和软件加持的基于搜索的方法被证明更有效,这些基于人类知识下国际象棋的研究者输得一点都"不体面"。他们说,这种"用蛮力"的搜索可能这次能赢,但这终究不是通用策略,无论如何这也不是人类下棋的方式。
  他们希望基于人类输入的方法获胜,却事与愿违,只剩失望。
  计算机围棋领域,研究进展也遵循着同样的模式,只是比国际象棋迟了20年。这一领域最初的众多努力,都是利用人类知识或游戏的特殊特性避免搜索,然而,搜索一被大规模高效应用,这些努力都变得无关紧要,甚至更糟。
  利用自我对弈来学习一种价值函数同样重要(在许多其他游戏、甚至在国际象棋中也一样,虽然在1997年的深蓝项目中没有发挥很大作用)。通过自我对弈来学习,以及学习本身,其实都和搜索一样,让大规模计算有了用武之地。
  搜索和学习是AI研究中应用大规模计算力的两类最重要技术。
  在计算机围棋和国际象棋项目中,研究人员最初努力的方向是如何去利用人类的理解(这样就不需要太多的搜索),很久以后,才通过拥抱搜索和学习取得了更大的成功。
  在语音识别领域,很早之前曾有一场竞赛,1970年由DARPA主办。
  在这场比赛中,一部分参赛者运用那些需要人类知识(单词知识、音素知识、人类声道知识等等)的特殊方法。也有一部分人基于隐马尔可夫模型(HMMs)完成比赛。这种新方法本质上更具统计性质,也需要更大的计算量。
  不出所料,最终统计方法战胜了基于人类知识的方法。
  这场比赛为所有自然语言处理任务都带来了巨大的改变,在过去的几十年里,统计和算力逐渐占据主导地位。
  语音识别中兴起没多久的深度学习,也是朝着这一方向迈出的最新一步。深度学习方法对人类知识的依赖甚至更少,用到了更多的算力。通过在大型训练集上的学习,能得到更好的语音识别系统。
  就像在棋类游戏中一样,研究人员总是试图让系统按照他们心目中的人类的思维方式工作,试图把这些知识放进计算机的系统里。但最终,当摩尔定律带来大规模算力,其他人也找到了一种充分利用它的方法时,会发现原来的做法适得其反,是对研究人员时间的巨大浪费。
  在计算机视觉领域,也有类似的模式。早期的方法,将视觉设想为搜索边缘、广义圆柱体,或者SIFT算法捕捉的特征。但现在,所有这些方法都被抛弃了。现代的深度学习神经网络,只使用卷积和某些不变性的概念,而效果要好得多。
  这些教训告诉我们,(AI)这个领域,我们仍然没有完全了解,我们连续犯着同样的错误。
  为了认清状况,有效防止犯错,我们必须理解这些错误有什么吸引力。
  我们必须从这"苦涩的教训"中学习:长远来看,将AI建立在我们对自身思维方式的认知上是行不通的。"苦涩的教训"源自这些历史观察:人工智能研究人员经常试图将知识"植入"到他们的智能体中,这在短期内通常是有帮助的,让研究者自身产生满足感,但从长期来看,这会拖慢、甚至阻碍研究的进一步发展,
  而突破性进展最终会来自完全相反的方法:基于搜索和学习进行规模计算。
  最终的成功总是带来些许怨恨,通常也不被完全理解,因为它超越了当前受欢迎的、以人为中心的方法。
  从历史的教训中,我们能学到两点。
  第一,通用型方法有强大的力量。即使可用的算力变得非常大,这些方法仍然可以继续扩展,运用增加的算力。似乎可以按照这种方式任意扩展的方法有两种:搜索和学习。
  第二,思维的实际内容复杂到非常可怕无可救药。我们不该再试图寻找简单的方法来思考其内容,比如,用简单的方式去思考空间、物体、多智能体或者对称性。
  所有这些,都是随意、本质上非常复杂的外部世界的一部分。它们不应该内置在任何一个AI智能体中,因为它们复杂得没有尽头。相反,我们应该只构建能发现和捕获这种任意复杂性的元方法,
  这种方法的本质是能够很好地找到近似值。不过,寻找的工作应该交给我们的方法,而不是我们自己。
  我们需要的是能像我们一样进行发现的AI智能体,而不是包含我们已经发现的东西在内的AI。
  在我们发现的基础上建立AI,只会让它更难看到发现的过程是如何进行的。
  原文链接:
  http://www.incompleteideas.net/IncIdeas/BitterLesson.html
  "甜蜜的一课"
  坚决不同意萨顿观点的怀特森老师认为,构建AI当然需要融入人类知识,问题只在于该何时、如何、融入哪些知识。AI历史上有"甜蜜的一课"(The Sweet Lesson),我们在尝试寻找正确先验知识的过程中,推动了AI的进步。
  他将萨顿的观点总结为:"AI的历史告诉我们,利用算力最终总是战胜利用人类知识。"
  以下是怀特森Twitter内容的翻译整理:
  我认为这是对历史的一种特殊解释。的确,很多把人类知识融入AI的努力都已经被抛弃,随着其他资源(不仅仅是计算力,还包括存储、能源、数据)的丰富,还会抛弃更多。
  但是,由此产生的方法的成功,不能仅仅归功于这些丰富的资源,其中那些没有被抛弃的人类知识也功不可没。
  要是想脱离卷积、LSTM、ReLU、批归一化(batchnorm)等等做深度学习,祝你好运。要是抛开"围棋是静态、零和、完全可观察的"这一先验知识,就像搞定这个游戏,也祝你好运。
  所以,AI的历史故事并非融入人类知识一直失败。恰恰相反,这是融入人类知识的胜利,实现的路径也正是一种完全符合惯例的研究策略:尝试很多方法,抛弃失败的99%。
  剩下的1%对现代人工智能的成功至关重要,就和AI所以来的大量计算资源一样关键。
  萨顿说,世界固有的复杂性表明,我们不该把先验知识融入到系统中。但是我的观点恰恰相反:正是这种复杂性,导致他推崇的搜索和学习方法极度复杂难解。
  只有借助正确的先验知识,正确的归纳偏见(inductive biases),我们才能掌握这种复杂性。
  他说,"现代的深度学习神经网络,只使用卷积和某些不变性的概念,而效果要好得多。"一个"只"字就凸显了这种断言的武断性。
  如果没有这些卷积和不变性,深度学习就不会成功,但它们却被视作微小、通用到可以接受。
  就是这样,"苦涩的教训"避开了主要问题,这根本不是要不要引入人类知识的问题(因为答案显然是肯定的),而是该问这些知识是什么,该在何时、如何使用它。
  萨顿说,"我们需要的是能像我们一样进行发现的AI智能体,而不是包含我们已经发现的东西在内的AI。"当然。但是我们善于发现正是因为我们天生带有正确的归纳偏见。
  AI历史上的"甜蜜一课"是这样的:虽然找到正确的归纳偏见很难,但寻找的过程为原本难解的问题带来了巨大的进展。
  原文链接:
  https://twitter.com/shimon8282/status/1106534185693532160
  论战双方
  这场隔空论战的双方,分别是"强化学习之父"萨顿,和牛津大学计算机系教授希蒙·怀特森。都是强化学习领域的科学家,观点却截然相反。
  强化学习之父:萨顿
  萨顿,被认为是现代计算强化学习的创始人之一,为强化学习做出了许多贡献,比如"时序差分学习"(temporal difference learning)和"策略梯度方法"(policy gradient methods)等等。
  1978年,萨顿在斯坦福大学获得了心理学学士学位,之后才转向计算机科学,在马萨诸塞大学安姆斯特分校获得博士学位。
  他与导师Andrew Barto合著的《强化学习导论》一书,已经成为强化学习研究领域的基础读物。
  目前,萨顿任教于阿尔伯塔大学,是计算机科学系的教授和 iCORE Chair,领导强化学习和人工智能实验室。
  2017年6月,萨顿加入Deepmind,共同领导其位于加拿大埃德蒙顿的办公室,同时保持他在阿尔伯塔大学的教授职位。
  2001年以来,萨顿一直都是AAAI Fellow,在2003年获得国际神经网络学会颁发的President’s Award,并于2013年获得了马萨诸塞大学阿默斯特分校颁发的杰出成就奖。
  来自牛津大学的反对者:怀特森
  希蒙·怀特森,是牛津大学计算机系的教授,专注于人工智能和机器学习领域。强化学习、让智能体跟着演示学习都是他所研究的课题。
  他2007年获得美国德克萨斯大学奥斯汀分校的计算机博士学位,随后留校做了一段时间的博士后,然后任教于丹麦阿姆斯特丹大学。
  2015年,怀特森成为牛津大学副教授,2018年成为教授。
  隔空论战,你支持谁?
  除了怀特森之外,也有不少人对萨顿的观点表示不能完全同意。
  比如Nando de Freitas认为萨顿博文的最后一段非常正确、发人深省:我们需要的是能像我们一样进行发现的AI智能体,而不是包含我们已经发现的东西在内的AI。在我们发现的基础上建立AI,只会让它更难看到发现的过程是如何进行的。
  但他也就着怀特森的观点,谈了一些自己的想法:算力非常重要,特别是对强化学习智能体来说。然而,卷积、LSTM这些概念都不是在研究规模化的过程中发明的。其他生物也和我们人类一样拥有强大的算力,生活在同样的数据、环境,但它们可没打算飞向火星。
  帝国理工学院教授、DeepMind高级研究员Murray Shanahan虽然支持不能人工手写特定领域的先验知识,但还是认为"应该寻找有利于让AI学习这些常识类别的架构上的先验"。
  德克萨斯大学奥斯汀分校的助理教授Scott Niekum说,他大致同意萨顿的观点,但也有值得商榷的地方,比如科学从来都不是一条直线,很多最重要的发现,可能就来自借助内建特定领域知识来研究那些不够通用的模型的过程。
  这个问题,你怎么看?
  — 完 —
  诚挚招聘
  量子位正在招募编辑/记者,工作地点在北京中关村。期待有才气、有热情的同学加入我们!相关细节,请在量子位公众号(QbitAI)对话界面,回复"招聘"两个字。
  量子位 QbitAI · 头条号签约作者
  վ"ᴗ" ի 追踪AI技术和产品新动态​​​​

小米遭印度政府扣押555亿卢布小米回应遭印度扣押约48亿资产最近小米遭到印度政府扣押几十亿人民币资产的新闻牵动着国人的心。为什么国产品牌出海之路就这么艰难呢?现在小米公司也回应了印度政府的指控,说小米公司在印度又被印度扣押555亿,雷军,AreyouOK?盐财经作者古月一刀编辑闰然七年前,雷军操着浓厚的湖北口音,用中式英语数次问候印度米粉AreyouOK?而在今年,1月份刚刚被印度追缴税款65亿卢比(约合人民币5。6亿元)的小米,5印度不能投资应当是常识,但是很多中国企业缺乏常识据印度时报刚报道说,印度执法机关以涉嫌非法汇款为由冻结了小米印度公司银行账户555亿卢比。印度当局表示,调查发现中国智能手机制造商小米集团以假冒成支付版权费的方式非法汇款给外国实体抢订单转移生产线?印度越南都没戏作者谢筱白点击名片关注最近很多财经媒体都在大讲特讲,什么我们的订单都被越南印度拿走了,这不是好现象啊!什么他们的出口大幅提升,抢夺了本该属于我们的国际订单啦!什么越南的订单排到了9换了国产手机再也用不回苹果这五点真的受不了智能手机中谁最厉害?几乎没人会去否定iPhone的地位。以行业最低的SKU配合行业最高均价的反常套路,依旧拿下了全球第二的好成绩。这足以证明iPhone是绝对优秀的电子产品,这里我资讯苹果汽车新转机?福特资深高管被曝已加入苹果文懂车帝原创贾天钰懂车帝原创行业据外媒援引知情人士消息称,苹果已聘请到福特汽车负责安全和车辆工程的资深高管DesiUjkashevic,参与苹果汽车项目。福特汽车资深高管DesiU新能源汽车涨价潮再起,多家车企宣布5月涨涨涨刚刚平静不久的新能源汽车市场涨价潮再起,目前,已有多家车企宣布5月车价将涨涨涨。据不完全统计,已有吉利汽车江汽集团上汽集团岚图长安汽车福特汽车蔚来汽车和极狐汽车等8家车企的近10个传鸿海将负责组装苹果(AAPL。US)汽车最快2024年底发布台湾经济日报援引知名爆料人LeaksApplePro称,苹果汽车开发案正如火如荼进行中,苹果很可能委托鸿海来负责其汽车的组装生产,而苹果汽车的发布仍将在2025年或甚至是2024年消息称富士康将负责组装苹果汽车品玩5月4日讯,据爆料人LeaksApplePro称,苹果汽车开发案正如火如荼进行中,苹果很可能委托鸿海来负责其汽车的组装生产,而苹果汽车的发布仍将在2025年或甚至是2024年底诺基亚功能机时代回归!甚至有果粉支持?网友感觉不像演的最近,我们的机圈真是一如既往地乱,真要做比喻的话,就跟春秋战国时期的群雄争霸差不多。内有华为小米OPPOvivo上下争锋,外有苹果三星侵入市场,当有一个厂家推出新品的时候,其他厂家售价99元,比小米的同类产品还具性价比,飞科赢了一次我小时候一是怕打针,二是怕理发,前者是疼后者是感觉很痒。不过随着年龄的增长,这种情况好了很多,如今已经身为人父,深知生活的压力,所以处处砸器精打细算。比如现在理一次头发需要20元,
Excel求和只会sum函数就out了,这五个求和公式一个比一个强说到数据求和,可能90的朋友第一时间想到的求和函数就是sum函数。因为这个函数可以快速的对数据进行单一维度或多维度数据求和。今天我们来学习一下,数据求和过程中,5个高效的求和公式。电子行业手机10倍光学变焦问世重视光学创新产业链天风证券10倍光学变焦,潜望式摄像头技术令人瞩目在2019年2月23日举办的MWC2019大会上,OPPO对外展示了旗下最新的10倍混合光学变焦技术。华为将有可能在3月26日在法国顺丰迎来对手拥有11架飞机,速度比顺丰快,目前估值200亿顺丰迎来对手拥有11架飞机,速度比顺丰快,目前估值200亿近些年来,随着电商行业的发展,物流行业也随之崛起。目前,国内的快递行业基本上形成了以中国邮政顺丰京东物流四通一达为主的几大DxOMark这是有多不待见索尼DxO仅79分被错拼成Somy目前,几乎所有一线主流旗舰机的相机CMOS均由索尼提供,去年华为P20Pro登顶DxOMark,除了华为的软件算法团队优化之外,主要靠得还是向索尼定制的4000万像素11。7英寸大软件推荐丨xoffice将Office文档转换为PDF一个JavaEE服务,将Office文档转换为PDF,格式兼容性好。安装部署安装微软Office2010或以上版本安装JDK1。6或以上版本将releasejacob下的适合的dl某动首部5G宣传片世界因5G而美好!5G连接未来5G宣传片来了信息直观感知,远端专家实时交互云网融合,云端互动,多屏合一超高清,低时延,全球互联视讯会议5GARVR全景直播校园云端智慧大脑,实时监控专利数量最多的大学排名,竟然曾经是个二本大学,远超清华北大知识产权也是衡量一所大学对社会产生贡献的一种方式,学校的学生能够主动创新为社会提供有价值的内容和改变也是学校培养人才能力的体现。就在2019年3月19日,世界知识产权组织发布了20RedMonk语言排行Kotlin上升8位,TS快进前10知名软件行业分析公司RedMonk发布了2019年一季度编程语言排行榜。RedMonk编程语言排行榜通过追踪编程语言在GitHub和StackOverflow上的代码使用情况与讨论运营商净赚1492亿,提速降费让利1800亿!用户羊毛从我身上薅?截至3月21日,三大运营商2018年财报悉数出炉。在提速降费宽带业务竞争加剧的背景下,三大运营商净利润均同比增长,合计实现净利润1492亿元,新兴业务收入增长强劲。2019年,三大福建的这个电池大王,要建世界最大电池工厂!企业发展就像马拉松赛跑,你不能歇着,要一直有目标。曾毓群2011年,曾毓群将汽车动力电池业务从原有的新能源科技有限公司独立出来,成立宁德时代(CATL)。2017年,成立六年的宁德日本超精密微细加工一家只有7人的街道小厂,如何对超硬合金进行微孔加工?小姐姐有话说转载请私信郭小姐姐获得授权)授权后,转载请务必注明出处今日头条号日本制造业内参日经TECH)违者必究。实现超强的直刻切削加工FOWARD成立于1988年,是总部位于日本