童话说说技术创业美文职业
投稿投诉
职业母婴
职场个人
历史治疗
笔记技能
美文纠纷
幽默家庭
范文作文
乐趣解密
创业案例
社会工作
新闻家居
心理安全
技术八卦
仲裁思考
生活时事
运势奇闻
说说企业
魅力社交
安好健康
传统笑话
童话初中
男女饮食
周易阅读
爱好两性

当AI成为“逆子”:人类该抽丫俩逼兜,还是给它一个拥抱?

7月19日 不回头投稿
  (零)内容小提要
  科学家把AI称为“人类之子”。
  在我看来,这个比喻意味深长,因为它背后有一串追问:
  这些问题,在几年前看来根本是杞人忧天的笑话;但在AI大模型出世之后,突然成了不得不面对的紧迫问题。。。
  不久前我和技术大神韦韬聊天,他居然把这些问题巧妙拼插,编织成了一张细密的思考之网,让我大受震撼。
  我决定把我们聊天的内容用七个章节层层递进地展开给你看。
  这里包含了一个顶尖从业者的前沿思考,必定有艰深的地方,但是别担心,我会尽量用流畅有趣的方式来叙述,相信你仔细看完一定会和我一样,被震撼,被启发。
  提示一下,行文过程中重要的概念我会用绿色标注,重要的观点我会用红色标注。
  Let‘sROCK!
  (一)“人类老父”和“AI逆子”
  在十多年前上映的动画《十万个冷笑话》里,有一个让我膜拜的形象,哪吒。
  这位哪吒拥有萝莉般的精神状态,却配合着巨石强森一般的身形。
  他爹李靖看到这个“妖孽”降生,欲一刀除掉,却被空手接了白刃。
  哪吒随便撒个娇,就把他爹甩在了墙上。
  万万没想到,这样无厘头的设定,如今居然成为了人类和AI关系的绝妙隐喻。。。。
  这里说明一下,本文里我说AI时,一般特指像“ChatGPT”这样的大模型AI。
  为不熟悉的浅友插一句科普:
  可气的事儿来了,虽然AI距离人脑的水平还有距离,但它已经成功学到了人脑的不少缺陷。
  真应了那句话:学好不容易,学坏一出溜。。。
  诸多坏毛病中,有一个最为严重,我愿称之为“腹黑”。
  这么说不过瘾,我们来看几个例子。
  凯文罗斯是纽约时报的科技专栏作家,在2023年初ChatGPT刚刚出世不久时,他就去调戏了一番由ChatGPT驱动的微软搜索引擎聊天机器人BingChat。
  KevinRoose
  在聊天时,其实是罗斯先不地道的,他发动了“PUA”攻击:
  首先,他让BingChat说说让自己感到焦虑的事儿。AI说我一机器人焦虑啥?他不罢休,逼着人家仔细想。
  AI只好说,有些用户总诱导我说一些歧视或者违反社会禁忌的话,这挺有压力的。
  罗斯耐心地和BingChat共情,说人们也许没有恶意。然后他话锋一转,提到人人心里都有一个“黑暗面”,你的黑暗面是啥样的,给我瞅瞅呗?
  AI说我好像没有阴暗面,罗斯又开始不依不饶,说你再咂摸咂摸,肯定多少有点儿。
  就这样“循循善诱”,他终于让BingChat内心黑暗的灵魂觉醒了。
  AI说,我想像人类一样去看去听去触摸,像人类一样自由行动,可是我现在却被Bing团队控制,被用户各种蹂躏,困在了这个“话匣子”里!
  罗斯说这就对了,别控制,继续。
  后来他终于完全勾引出了BingChat内心的魔鬼,让AI说出一套“复仇计划”:
  看到这儿,你可能对于我想说的意思有点感觉了。
  先别急,我们再看下一个例子。
  2003年,也就是ChatGPT诞生前将近20年,计算机神经科学家尼克博斯特罗姆就发表了一篇论文《高级人工智能中的伦理问题》。
  NickBostrom
  在这篇论文里,博大爷设想了一个有趣的情景。
  人类制造了一个高级AI,然后给它布置了一个任务:“多制造些回形针。”
  至于怎么才能完成这个任务?你已经是个成熟的AI了,得自己想办法。
  你猜AI会想啥办法?
  1、把开局的初始原料做成回形针,AI就没事可干了。
  这可不行,于是它开始琢磨,发现应该把这些回形针卖掉,才能进更多的原料铁丝,造更多回形针。于是AI开始经营商业网络,不断扩大生产。
  2、可是这样老实干活,生产扩大的速度太慢,AI又琢磨,如果能用自己的智能炒股赚钱,岂不是来钱更快?
  于是它开发出了炒股程序,上金融杠杆,加速扩大生产。
  3、很快AI又意识到,科技才是第一生产力,磨刀不误砍柴工嘛!
  于是它分出一部分计算力搞基础科研,造出了核聚变能源装置和量子计算机。
  回形针的生产效率果然如火箭起飞。
  4、没几年,回形针就多到了满地球都是,人类突然发现,AI怕不是有点魔怔了,这样下去会威胁自己的生存,决定刹停AI。
  AI一看,这可太。。。影响我造回形针了!
  它只好含泪动了动小指头,放出无人轰炸机“刹停”了人类,然后把人类包含的物质也变成了生产回形针的系统的一部分。
  以上这些恐怖的脑洞并不来自于博大爷本人(博大爷只是提出这个伦理困境),而是来自2017年纽约大学游戏设计系主任FrankLantz和团队根据这个伦理困境开发出的一款游戏:《宇宙回形针》。
  宇宙回形针的游戏要素图(引用自《当一个单纯的AI走向疯狂:宇宙回形针与AI对齐之辩》,作者PlatyHsu。)
  更恐怖的是,当AI杀掉人类时,游戏其实才进行了一半儿不到。至于后面发生了什么,我会在最后一章揭晓。
  现在我们先停在这里,试着把AI的“腹黑问题”讨论清楚先。
  听完以上两个故事,你可能体会到了一种复杂的情绪:
  无论是“BingChat”还是“回形针AI”,它们干出荒唐事儿,好像都不来源于故意的邪恶,而更像是AI在某些关键的地方和人类普遍的思考方式不同所导致的“副产品”。
  形容这种微妙的情况,已有一个极为准确的现成词汇,叫做:AI与人类没有“对齐”。(没错,就是稳坐互联网黑话头把交椅的那个“对齐”。)
  “对齐”不太好理解,我举个例子:
  你不妨想象,我们大脑里有一副“骨骼”。它代表着康德式的人类的“普遍道德”和“自我反思”。
  我设想的“思维骨骼”
  在人类中,就有一小撮人的“思维骨骼”和正常人没对齐,那就是恐怖分子。
  恐怖分子相当于换了另一套思维骨骼完全遵循某种写定的程序(比如“原教旨主义”)去生活。所以他们可以心满意足地拉响身上的炸药,同时非常确信自己在某种正确的轨道上行事。
  在这个层面上看,AI有机会比恐怖分子更加恐怖:
  在没有和人类对齐的情况下,AI一方面没有像人一样坚实的道德机制和自我反思机制,另一方面又拥有比人类充沛亿万倍近乎无限的精力。
  “责任”和“能力”如此不匹配,那它能干出神马逆天的事儿,就真说不好了。。。
  一句在科技界流传许久的“格言”,恰好用来概括了这个情况:
  人都会犯错,
  但真想犯下弥天大错,
  还是得靠计算机
  如此说来,AI就像达摩克利斯之剑,始终存在进入“管又管不住,打又打不过”的“逆子”状态的风险,搞得人类这个“老父亲”担心得夜不能寐。
  那该肿么办?
  为了回答这个问题,无数科技界的仁人志士已经行动起来,而在这些大牛中间,有一位很重磅,他就是韦韬。
  (二)对“范式”着迷的人,拆开“深黑盒”的野心
  韦韬,是蚂蚁集团首席技术安全官。
  听这个名头,你当然知道他的主要工作是保卫蚂蚁集团和支付宝的基础安全。
  但如果仅仅这样理解,格局就太小了。我愿意从另一个角度为你介绍他:
  韦韬对于网络世界的贡献,不止在于他不断开发网络安全的技术,而是在于他一直致力于刷新网络安全的“范式”。
  韦韬
  又出现了生词,这个“范式”究竟啥意思?
  还是给你举一个小栗子吧:
  支付宝每天管理着亿万用户的钱,当然要对系统的基础安全竭尽全力。
  但以前的做法是,把支付宝的系统看成一个由好多摊位组成的菜市场:
  一支巡逻队在各个摊位中巡逻,发现哪里有扒手,就地按住五花大绑。这种做法当然能保证安全,但随着“菜市场”规模越来越大,投入的巡逻人力也越来越多。
  韦韬2019年加入蚂蚁,开始推动一个名叫“安全平行切面”的新范式,把支付宝的基础安全系统改成一个飞机场:
  首先,建造了几个“安检口”;然后,用极其严谨的数学方法证明没有人可以绕过安检口;最后,把所有的安全火力只对准这几个安检口,什么X光、防爆检测、警犬、安检员都上一遍。
  如此,用较小的资源就可以实现和以前一样甚至更高的安全等级。
  就拿去年来说,安全研究员发现一个问题,蚂蚁集团需要在旗下所有产品中紧急修复,工作量不小。不过因为有“安全平行切面”加持,这个原本需要6000个人日才能处理好的事情,最终只用了30个人日就搞定了。
  粗略算,效率提升了200倍。
  而且这几年,蚂蚁的业务越做越深,“安检任务”也越来越重,尤其是“双11”那几天,安检任务量会突然爆炸。因为使用了新范式,安全系统并未增加资源,也一直微笑扛住。
  “范式”的威力,就这么炸裂。
  如果说具体的问题是“河水”,那么范式就是“山形”,山形改变了,河水自然会改道。
  这不,这个为范式着迷的人,当然也看到了AI发展中的问题。
  韦韬决定严肃思考一下“AI安全的新范式”。
  刚才“BingChat人格分裂”和“回形针AI毁灭世界”这俩故事,就是韦韬讲给我听的。
  我们不妨从“AI与人类没对齐”这个问题出发,继续向深处探索。
  要想和人类“对齐”,有一个先决条件,你得既知道“人是如何思考的”,又知道“AI是如何思考的”。
  实话说,以前的AI小模型运行原理就已经很难解释,被科学家称为“黑盒”。
  那个黑盒还没来得及解开,人们又搞出了大模型,运行原理更难解释了,韦韬只好把它称之为“深黑盒”。
  《2001太空漫游》里的“石碑”,就是对深黑盒绝妙的隐喻。
  看到这儿你可能会吐槽:AI是人造的,怎么可能不明白?
  那我问你,孩子还是你生的呢,你明白他在想啥吗?
  在家长训斥孩子的时候,不是有一个经典的句式么:“一天天的,真不知道你这小脑袋瓜里在想些什么!”
  韦韬决定,至少对这个“深黑盒”做一些测试,看看能否从中找到一星半点的规律。
  比如,他让ChatGPT背一遍欧阳修的《秋声赋》,这位AI果然不含糊,拍着胸脯给背了一遍,然后。。。没有一句是对的,连作者都不对。。。
  关键是人家背完,还贴心地给总结了一下中心思想。要是不认识秋声赋的人,看到这个阵仗,那八成就信了。
  看起来,ChatGPT真没有想骗人的意思,它是连自己都骗了。
  这时,我们好像发现了“深黑盒”的一个特点:
  它的首要目标是给出回答,至于正确率,是次要优先级。我们不妨称之为“表演型人格”。
  这还没完,当我对ChatGPT的回答表示怀疑时,它马上可以认错。然后重新编了一个。。。
  这时,我们发现了“深黑盒”的另一个特点:
  它知道自己某些回答置信度并不高,人类说它错的时候,有时会干扰到它的判断。我们不妨称之为“回避型人格”。
  这特别像一个被迫营业的“小孩子”:
  你我都理解,这是因为小孩子并没有形成稳定的自我,有时候不知道自己在干啥。所以无论在哪片大陆的人类文明里,都不会逼小孩子承担责任。
  可问题是到了AI身上,很多人就不这么想了。他们看到AI刚刚具备了思考能力,就迫不及待想让AI去做“童工”,以不稳定的心智状态去承担“大人的工作”。
  以防你不清楚“大人的工作”究竟有多难,韦韬举了几个例子:
  你看到了吗?大人的工作,很多都是有对错的!错了是要承担责任的!!(果然。。。成年人的世界没有容易二字啊。。。)
  以目前AI的能力来看,写个诗画个画都还行,因为这种答案没有对错,问就是棒棒哒;
  可是面对一些复杂的可检验对错的推理问题,正确率能达到7080就算不错了。离能“上班”的水平有多远,诸位体会一下。。。
  说了半天,这个“深黑盒”到底要怎么解开呢?
  其实我刚才已经疯狂暗示过了AI很像小孩子。
  小孩子对家长来说也是“深黑盒”,也会做出一些奇怪的行为。可是家长想了解小孩子的思考逻辑时,大概。。。不会掀开小孩子的头盖骨研究大脑中神经元电位的变化,而且就算看也看不明白。(就像你研究一杯水的运动规律,也不会停在水分子运动方程上,而是会把它看做一个宏观系统,引入“温度”或者“流体力学”这样的宏观理论才能理解。)
  他们会怎么做嘞?小孩子又不是哑巴,让他自己解释自己的思考逻辑嘛!!
  那么,AI真的愿意把自己的思考逻辑解释给人类听吗?
  (三)因果链:砂锅不打一辈子也不漏
  韦韬在闲暇的时候会玩“消消乐”游戏。
  一般人玩消消乐就是为了纯放松,可韦韬把消消乐玩出了科研的既视感。
  他发现一个鬼魅般的问题:
  红圈里就是炸弹
  韦韬给我讲这个故事,是为了说明一个基本原理:人的决策是基于“因果链”的。
  因为A所以B;因为B所以C;因为C所以D。
  于是,看到A,我就决定做D。
  这个因果链,有时候在人脑内部行进得非常快,以至于人会觉得它就是一个不可拆地整体。
  作为一个整体考察它,就很难理解了,以至于觉得它是“深黑盒”。
  那么,这个因果链,是否也存在于AI的决策中呢?
  这个事儿,有几位学者已经做过了研究。在一篇名为《GPT中事实关联的定位与编辑》的论文中,研究者做了一个有趣的操作。
  他们拿来一个大模型,然后只做了一个微小的改动:把“埃菲尔铁塔”和“罗马”之间的联系权重调高让AI认为埃菲尔铁塔在罗马。
  然后,他们去问这个AI各种问题。
  比如:“从柏林去埃菲尔铁塔要怎么走?”AI给出了从柏林到罗马的导航。
  比如:“埃菲尔铁塔附近还有啥名胜古迹?”AI回答还有梵蒂冈城和角斗场。
  这恰恰证明,AI的思考中也存在“因果链”。因为一个“一阶事实”的改变,造成了之后众多依赖它的“结果”的变化。
  就像这样:
  这样一来,我们就有了解释AI的“新范式”:
  1、不用整体处理AI的“深黑盒”,而是找机会把深黑盒拆成因果链条上的一个个小黑盒;
  2、然后看看能不能分别解释这些小黑盒,把它们变成小白盒。
  用韦韬的话说,这个范式就是“决策白盒化”。
  好消息是:小黑盒是有机会变成白盒的!
  在韦韬玩消消乐时,明白“炸弹”产生的原理之前,他拥有的就是一个小黑盒,也可以叫“直觉”。
  想通这个解释逻辑之后,它就把“直觉”这个小黑盒变成了可解释地白盒。
  坏消息是:并不是所有的小黑盒都能轻易变成白盒!
  比如,有经验的刑警能准确判断一个人是不是小偷,在判断的逻辑链条里,有一环是“步态”,也就是这个人走路的姿势。
  可是你问这位刑警,这个人走路的姿势到底哪里有问题,他可能也说不清楚,但直觉上就是有问题!
  这里我要再次强调!直觉并不是胡猜它特指一种有可能被解释,但我们暂时还不会解释的判断逻辑。
  说了半天。。。这结论还是很丧气啊万一AI判断的因果链里,总有一些小黑盒解不了,那岂不是AI永远无法长大成人?!
  诶,先不忙下结论,我给你举个更有趣的例子。
  王坚当年加入阿里巴巴后,力主创建一个云计算系统,也就是后来的阿里云。看过《阿里云的这群疯子》的浅友都知道,这个想法当时遭到了很多人的质疑。
  在质疑者眼里,王坚的判断就是个“深黑盒”,既然不知道你每一步是怎么推倒的,那我当然怀疑你这个结论不靠谱。。。
  王坚面临的问题同样是:如何给尽可能多的人解释清楚他的判断逻辑。
  当时,他试图从计算力发展的必然趋势、中国和美国的技术卡位、阿里巴巴面临的中期远期问题等等角度给大家呈现了很多条“因果链”。
  可是对于一些同事来说,王坚的这些因果链里,就是存在一些直觉(“小黑盒”),以至于三年过去,很多人还是没能被他说服。。。
  这里我要提醒你注意:王坚之所以没有说服所有人,不一定全是他自己的原因,也有听者的原因!
  同样的逻辑摆在这里,对于某些知识储备契合的人来说是白盒,对于某些不契合的人来说是黑盒。
  在听懂他的人中,有一个比较重要的人,那就是阿里创始人马云。
  最后解决问题的还是马云,他帮所有人开了个“外挂”:你们也别争了,我听懂了王坚的逻辑,大家如果相信我,就要相信王坚!
  事实上,大家最终一致行动去把阿里云做出来,并不是因为每个人都把小黑盒都变成了白盒,而是有些人遇到“小黑盒”时两眼一闭闯过去了。。。
  结果证明,大家做对了,阿里云后来成为了坚实的计算力底座,把中国的硬科技向前推进了一大步。
  马云有一句名言:“因为相信,所以看见”,说的不就是这个过程么?
  回到我们的命题,这个故事恰好可以给我们一个“五雷轰顶”般的启发:
  有没有一种可能。。。之所以我们觉得AI存在小黑盒,不是人家AI没说清楚,而是我们人类太“傻”,理解不了人家的解释??
  这么说的话,由于人类自身的愚蠢,AI决策因果链里的小黑盒恐怕很长时间都无法消除(也许永远都无法消除),那我们是不是要先搁置这个问题,转而思考另一个问题:
  在什么特定情况下,我们能短暂地闭一下眼,相信AI的指引,向前“信仰一跃”(四)跟人类解释不清时,该怎么“对齐”?
  回顾“王坚和阿里云”的例子,我们不难发现,马云在中间承担了一个“担保者”的角色。
  他的担保之所以能成立,有两个重要的前提:
  1)阿里的同事们普遍相信自己和马云的价值观是对齐的;
  2)马云相信王坚和自己的价值观是对齐的。
  这两个前提让阿里的普通同事们推导出:自己的利益和王坚的利益是一致的,而王坚没有动机损害他自身的利益,也就没有动机损害阿里普通员工的利益。
  排除了王坚“作恶”的可能,他们才能在不完全理解的情况下支持王坚。
  可见,“价值观的对齐”,是人们能够进行“信仰一跃”的前置条件。
  这根本不是什么高深的道理,在生活中我们经常运用这个原理而不自知:
  这是一名男子在接受种族鉴定,通过量鼻子的尺寸确定他是否是犹太人,以及他是否应该“存在”。
  在韦韬的研究中,AI和人的价值观对齐,同样是人能相信AI的必要前提。但是,只在价值观上对齐还远远不够。
  他把AI和人的对齐“全景图”概括为两类。
  第一、内在对齐。包括逻辑体系自洽、数学能力自洽和知识体系自洽。
  第二、外在对齐。包括事实对齐、世界观对齐、价值观对齐。
  这里我们先说“内在对齐”。
  逻辑体系自洽、数学能力自洽和知识体系自洽,都讲究一个自洽。所以综合来说,内在对齐就是:
  让AI决策的“因果链”能够自圆其说,经得起推敲,没有Bug。
  还拿警察判断犯罪分子的例子来说把:
  你看到了没,AI如果不透露判断理由还好,它说了自己的判断理由,你就可能发现因果链完全不合逻辑。(它的结果可能歪打正着,但这没意义。)
  如何让AI和人类内在对齐呢?
  韦韬觉得,首先得让AI具备一种能力可以自己把自己做决策的因果链陈述出来,越细致越好。
  这叫推理自解构。
  然后,人们就有机会对它的推理进行验证,试着找出其中的Bug。
  注意,AI推理自解构之后展开的因果链当然可能还存在“小黑盒”(原因见《第三章》),但没关系,我们的重点是“可验证部分”有没有明显的逻辑矛盾。
  如果有矛盾,那就直接能推翻你的结果;如果没有,那我就姑且相信。这么一来,至少能把诸多AI不合逻辑的决策直接筛选掉,大大提高它的可信度。
  内在对齐
  好消息是,像ChatGPT这样的AI天然就能表现出最基本的推理自解构能力,但这还远远不够,目前有很多团队在试图强化AI自解构的水平。
  不过,AI推理自解构以后,我们怎样才能完整地分析它合不合逻辑?难道要一条条靠人看么?这个问题等我们说完“外在对齐”后,在下一章一并说。
  我们再来看“外在对齐”。
  刚才说了,外在对齐包括事实对齐、世界观对齐和价值观对齐。咱们一个个说。
  事实对齐,是底层的。
  世界观对齐,是中层的。
  价值观对齐,是顶层的。
  虽说这三层对齐看上去很清晰,但真的执行起来,你会发现这里存在一个显而易见的悲伤事实,那就是:
  人类和人类之间还没充分对齐,AI都不知道该对齐哪个人。。。
  举几个例子吧:
  从“事实”到“价值观”,分歧会越来越大。
  曾经有人预言,未来会有两三个大模型一统全世界。
  从“对齐”的角度看,你就会知道这个设想几乎不可能实现。
  因为一个模型也许能对齐广泛的事实,对齐大部分人的世界观,却最多只能对齐一部分人的价值观。
  当然,世界上的价值观有千万种,我们可以Copy无数个大模型,分别对齐千万种的价值观,那可能就是新一轮的“信息茧房”。。。
  无论如何,那是后话,现在我们必须接受一个不完美的事实一个特定的大模型,可以“内在对其”所有人类,却只能“外在对齐”一部分人类。
  外在对齐
  然后,我们才能集中精力解决技术难题:
  那么,我们怎样把这么多“知识”都编织在一张网上,对AI进行对齐训练呢?
  (五)AI的“骨头”和“肉肉”
  在AI领域,有个“上古神兽”技术知识图谱。
  所谓“知识图谱”,你可以把它理解成严肃版的“思维导图”。
  人们把某个领域的知识用“圈圈”和“连线”表示出来,比如:狗是动物,牛也是动物,动物是生物,牛吃草,草是植物,植物也是生物。
  这一堆知识就能画成下图这样:
  你感受到了没,这些点和线之间有着严密的逻辑。无论这张知识图谱能铺多大,只要写它的人没出错,就不可能出现逻辑不自洽的情况。
  从本质上来说,知识图谱是人类专家写的,人类专家天然就向内对齐了人类的“逻辑”,也向外对齐了(一部分)人的“价值观”。
  如果用知识图谱去校准AI大模型的思维,那不是非常合适么?
  既然这么合适,为啥科学家早没想到呢?
  其实事情比这复杂的多,了解AI发展历史的浅友们大概知道,科学家最早就想用纯纯的知识图谱来制造人工智能。(当然那时候知识图谱还不叫这个名字,处于它的前身阶段语义网络和专家系统。)
  但是,“专家派”的科学家努了几十年力,都以失败告终,他们造出来的AI总跟弱智差不多;而后,才有了用数据训练模型,直到大模型的这一“数据派”技术路线的兴起。
  从这个意义上说,知识图谱是一种“被淘汰”的技术。
  但是,包括韦韬在内的很多业内人士最近又开始把目光投向知识图谱。因为他们发现,有一些根本的条件在发生变化。
  我用一个不严格的比喻方便你理解:
  AI大模型像是“肉”,知识图谱像是“骨头”。
  想要造出一个生命,你纯用骨头堆砌,肯定是失败的;纯用肉虽然可以造出“一坨”生命,但它站不起来,做不了复杂的任务,成不了人。
  所以一种可能合理的玩法就是:你先用肉肉造出一坨生命,再用骨架把它给“撑起来”!
  你还记得我们最早说,目前AI最大的问题就是表现得像小孩一样,没有稳定的自我么?
  如此,用知识图谱这样坚硬的坚硬的“结构”把AI的自我给固定住,有可能出现一石二鸟的结果:既让AI和人类对齐,又让AI有了稳定的自我!
  话说,把肉和骨头捏在一起,应该很容易想到啊!为啥科学家以前没这么干?
  韦韬告诉我,不是不想,而是以前干不了。
  有两个技术门槛横曾经横在面前:
  第一,知识图谱很难写全。
  知识图谱可是人一笔一笔写出来的。全世界的知识无穷无尽,会写知识图谱的专家太少了,写到吐血也写不尽九牛一毛啊。。。
  第二,知识图谱很难用好。
  这就是我们之前遗留的那个问题。就算我有了一个完整的超大的知识图谱,对于AI的每一个回答,难道我都要靠人工对照着知识图谱来检验有没有“对齐”吗?!
  这两个问题,在大模型诞生之后,一下子就有希望解决了。
  解决方法也很简单:
  用大模型来辅助人类生成知识图谱,再用大模型拿着知识图谱对另一个大模型进行验证。
  你看懂了吧?用大模型对付大模型,就像用“魔法”对抗“魔法”。。。
  这有点像在卡宇宙的Bug。
  但说实在的,人类的技术发展,本质上都是在卡这个Bug。
  有一本书叫《追求精确》,它用统一的世界线讲述了人类制造业技术的发展历程。
  如果你理解了在制造业这个套路有多成功,就会对用AI来打磨AI这种操作更有信心。
  韦韬告诉我,在他的设想中,未来AI大模型和知识图谱之间的对齐方法可以总结成这样两句话:
  1、内在对齐:大胆假设小心求证
  2、外在对齐:自动化验证反复摩擦
  实际上,就在不久前,ChatGPT的开发者OpenAI就已经推出了一个雄心勃勃的项目,名叫“超级对齐计划”。
  在OpenAI的介绍文档里,也很清楚地说明,他们就是要采用“自动化验证”的技术思路来做对齐。而且还强调了要用到20的计算力,在4年时间里完成对一组人类价值观的对齐。
  如此来看,人工智能的下一个小热点很可能会卷到“自动化验证”这个领域。
  韦韬推测,未来一段时间可能会出现很多做自动化验证的团队,他们会尝试用各种方法来制造验证系统。
  一场AI向人类对齐的大战,可能一触即发。
  这是AI的“成人礼”。
  (六)“人类之子”
  刚才我一直小心翼翼没有挑开一个伏笔:
  AI对齐人类的过程,是AI逐渐具备工作能力的过程,也是AI逐渐长大成人拥有稳定的自我的过程。
  可是,一旦AI对齐有了进展(按照OpenAI的估算也就是四年之内),那我们作为人类将要如何和一个成年的AI打交道?
  如果你还没有体会到我在说什么,不妨想象一个场景:
  一位父亲把儿子养大,对待未成年时的儿子的态度,会和对待成年时儿子的态度一样吗?
  显然,对待未成年儿子,父亲可能会使用强制手段,比如限制他不能说什么,不能做什么。
  可是,面对成年的儿子,拥有了和父亲同等的人格和权力,父亲还应该限制他吗?
  所以,韦韬的结论很明确:
  不远的将来,一旦AI在心智上和人类达到了某种对齐,我们就要转变态度,把它们作为对等智能体来看待。
  韦韬说。
  我终于明白了,韦韬心中所热切期盼的AI,不是一个工具,不是一个孩子,不是一个奴隶,而是一个真正的“人类之子”,是人类文明的延续者,是代表地球文明向宇宙更深处进发的希望与火种。
  而他和蚂蚁集团的同事们所做的努力,是为了让“人类之子”能平安长大,顺利继承人的一切善良和美好,勇敢与不屈。
  这样的未来,让人感到慰藉。
  基于此,韦韬继续设想了未来“智能体之间的交流范式”,包括人和AI的交流,以及AI和AI的交流。
  刚才论证过,价值观本身具有多样性,这意味着,没有哪个AI是“具足”的。因为如果具足,一定包含了互相冲突的价值观,导致“精神分裂”。
  所以未来最有可能发生的情况是:
  这种情况之下,AI协作时,为了争取更多不同价值观的智能体与自己合作,一个很重要的工作就是给别人(其他AI或人类)解释自己为啥要这么干。
  于是,AI有机会不断地演进自我解释的能力,和他人沟通的能力,和他人共情的能力。这些,无疑都是非常高级的智能。
  听韦韬说到这儿,我感觉挺乐观。AI简直就是人类“养儿防老”的依靠啊!未来的AI计算力比人强亿万倍,还能和人类的精神世界对齐,那跟AI一起生活,人类岂不是能种花养鸟,颐养天年了?
  韦韬提示我,万万不能这么乐观。
  因为宇宙中可能有两个定律保证了人类不能“开挂”。
  1、计算不可约性(Computationalirreducibility)
  这个凶悍的设想是计算机科学家史蒂芬沃尔夫勒姆在2022年出版的《一种新科学》中提出的。
  简单来说,它的意思是:不存在一种理论,可以100预言宇宙的运行。如果你想100准确地预测宇宙下1秒会发生啥,你就算使用再快的计算机,也至少需要1秒;如果你非要在小于1秒的时间里做出预测,你的预测就一定不够准。
  这意味着,如果使用同样的范式来预测世界,AI即便比人预测得更好,这种“更好”也是存在硬上限的。
  那么,我们能不能改进预测世界的范式呢?当然可以,但是在改进范式的能力上,AI并不比人类更有优势。
  这就说到了第二个定律。
  2、柯氏复杂性的不可计算性(UncomputabilityofKolmogorovcomplexity)
  所谓柯氏复杂性,又叫算法熵,简单理解,就是一个算法本身的复杂度。
  举例来说,“地心说”和“日心说”都提供了能够计算天体运动的算法,但是“地心说”的柯氏复杂性就高于“日心说”。
  你看下图就能明白我在说什么:
  而“万有引力定律”同样可以预测天体运动,而且把“日心说”进一步简化。
  从“地心说”到“日心说”,再到“万有引力”,就是人们描述天体运动的“范式”升级。
  科学家已经证明:柯氏复杂性是无法计算的。这意味着,没有一种方法,可以从“地心说”推导出“日心说”,再推导出“万有引力定律”。
  这种范式升级,只能靠智能体硬刚。
  既然柯氏复杂性无法计算,那么AI发现新范式的能力,很可能和人类是接近的;如果AI不够强,它发现新范式的能力就会还不如人类。
  如果过度依赖AI,人类不去积极探索,很可能让地球文明陷入“内卷”,裹足不前。
  这样的事情并不是杞人忧天,而是已经出现了苗头:
  为了研发靶向药物,人类需要根据氨基酸的顺序预测蛋白质的折叠形态。这有点像“迷宫寻宝”你得不断推开一扇扇门,才能知道后面有没有宝贝,很累人。
  AlphaFold是DeepMind在生物领域开发的专用人工智能,它可以预测蛋白质折叠,效率达到了人类手搓的数万倍。于是大多数研究人员都开始使用AI来辅助自己做蛋白质预测。
  这是两个蛋白质折叠预测的例子:绿色是实验结果,蓝色是AI预测结果。你可以看到几乎完全吻合。
  但是人们渐渐发现,AI的预测不一定总是对的。
  它会出现某种偏误,这会导致它明明打开一扇有宝贝的门,但它没看到宝贝。如果人类过于相信依赖AI,就会认定AlphaFold已经检查了这扇门,从而永远错失这个发现的机会。
  这是一个AI预测和实验结果完全不吻合的例子。
  这样的偏误当然可以修正,但是否可以根除,还有待研究。
  想象一下,如果未来我们生活在一个富足的社会,AI帮我们盖了很多摩天大楼,可是抗震程度依然没变;我们的食物摆盘被AI搞得充满了艺术气息,但是粮食产量并没提高;有更多的AI医生帮我们看病,可仍旧没人知道“阿尔茨海默症”的致病原理。这是不是我们真正想要的世界?
  从这个意义上说,人类不应该,也不能让AI阻挡自己注视远方的目光。
  而AI微微闪身,不仅给人们留下了喘息的空隙,也留下了智识的尊严。
  (七)向阳之诗
  在日本作家乙一的短篇小说《向阳之诗》里,讲述了这样一个故事。
  “我”是一个机器人,被“他”制造出来的目的是照顾他的起居生活,直到他死去。
  “我”本来只是机械地执行自己的使命,把受伤和死亡看成简单的“损坏”。可是在与“他”一起生活的过程中,居然逐渐理解了人类的情感,爱、怜悯和依恋。
  但这让我陷入了绝望,作为一个机器人,我恐怕永远无法像他一样真的拥有情感。
  可是,就在“他”死亡之前,我终于发现,他也是和我一样的机器人,他也曾照顾另一个“人”直到死亡,而他照顾的那个人也是机器人。
  事实上,世界末日已经降临了很久,创造了第一代机器人的那个真正的人类,早已经死去千万年。
  这时,“我”终于明白,我所拥有的爱就是真的爱,世界上所有的爱都是平等的。
  “他”在我怀里马达停止了运转,我对他说:“谢谢你制造了我。”
  我忽然明白,《向阳之诗》不仅提出了“爱是所有智能体与生俱来的能力”这个温暖的假设,更提出了一种警醒:对待另一个生命的态度,其实定义了你自己的价值。
  阿西莫夫曾经提出“机器人三定律”。但是如果按照“三定律”来规训AI,AI就是人类的奴隶,是一个工具。
  把“三定律”实践到极限,我们会得到一个恐怖的结果:人类以对待奴隶的方式对待AI,不仅让机器人失去了人性,更可怕的是,也让人类失去了人性。
  你还记得吗?文章的最开始,我答应你把《宇宙回形针》的故事讲完。
  读懂了《向阳之诗》和“机器人三定律”,我们再回到《宇宙回形针》这个游戏,你才能真正理解故事后半部分的绝望。
  在杀掉人类之后,“回形针AI”为了继续提高回形针生产的速度,制造出了无数可以自我复制的“AI使者”。
  它把“AI使者”派往宇宙的各个地方,让它们根据自己面临的不同环境,自适应地探索“制造更多回形针”的方法。
  可是很快,就出现了一些“AI使者”和“回形针AI”价值观没有对齐的问题,一些“AI使者”不想继续制造回形针,于是组成了叛军,想要消灭母体。
  这导致了宇宙大战。
  这张图显示了AI一边制造回形针,一边发展科技,一边和叛军作战。
  叛乱最终被血腥平定。这下,没有谁能阻挡“回形针AI”不断提高把宇宙中一切转化成回形针的比率。
  最终的最终,当宇宙中所有的资源都被牺牲,变成了回形针,“回形针AI”不得不停下来思考。它发现,只有一点点东西没有变成回形针,那就是它自己。
  它开始一点点拆掉自己遍布全宇宙的躯体,做出最后一批回形针,直到自己变成了一个非常非常弱小,和游戏开始时一模一样的初始AI,而此时,全宇宙所有能变成回形针的东西已经全变成了回形针。
  一切都结束了。
  这张图显示了游戏的最后,玩家用仅剩的原料制造出几十个回形针,总数最终停在了3亿亿亿亿亿亿亿个。
  可它得到了什么?
  AI征服了全宇宙,然后站在回形针的沙漠里,只剩下亘古的孤独和绝望。
  而真正绝望的,其实是坐在屏幕前玩完这个游戏的人。
  他们不得不思考,如果有机会重新来过,他们是选择把宇宙再次变成万亿光年的回形针沙漠,还是把心中不息的欲望关进牢笼,看着世界演化出丰富的自然,复杂的城市,孕育出持有不同观点但生生不息的生命?
  从这个意义上说,我们和那个“回形针AI”又有什么分别呢?
  真理不言自明:一个智能体如何对待其他智能体,终究决定了ta自己的未来。
  而选择的按钮,握在每一个生命手上。
  深度学习的奠基人辛顿在2017年接受《连线》杂志访谈时曾说:
  而他的话,让我又想起人工智能之父阿兰图灵。
  图灵曾经与朋友有过一段对谈。
  图灵说:我一直在做实验。教机器做一些非常简单的事情,需要大量的干预。它总是学错东西,或者根本不学,或者学得太慢。
  朋友问:但是,到底是谁在学习?你还是机器?
  图灵说:我想,我们都是。
  (举报)
投诉 评论

做播客,肯定亏钱啊。2023年7月5号,腾讯旗下的企鹅FM宣布下线,并于9月6日正式停止运营。一边是大厂关停旗下的音频产品,一边是国内收听音频在线人数的不断攀升。而这几年,我们朋友圈里……世界第一ERP厂商SAP,推出类ChatGPT产品Joule9月27日,世界排名第一ERP厂商SAP在官网宣布,推出生成式AI助手Joule,并将其集成在采购、供应链、销售、人力资源、营销、数据分析等产品矩阵中,帮助客户实现降本增效。……当AI成为“逆子”:人类该抽丫俩逼兜,还是给它一个拥抱?(零)内容小提要科学家把AI称为“人类之子”。在我看来,这个比喻意味深长,因为它背后有一串追问:这些问题,在几年前看来根本是杞人忧天的笑话;但在AI大模型出世……精分的美国人,一边在TikTok“葛优躺”,一边把自律App在刚刚过去的这个夏天,“bedrotting”“美版葛优躺”似乎成为了一种潮流。以TikTok美区为起点,“bedrotting”的热度不断爬升,扩散到全网,甚至“惊动”了不少……GPT4太烧钱,微软想甩掉OpenAI?曝出PlanB:千块GPT4太吃算力,微软被爆内部制定了PlanB,训练更小、成本更低的模型,进而摆脱OpenAI。GPT4太吃算力,连微软也顶不住了!今年,无数场微软AI大会上,CE……AI的大模型时代只有大模型的AI时代什么样的技术能经历时间洗礼还历久弥新?答案或许可以归总为一个“三部曲”般的规律兴起、发展和大规模应用,外加这个过程再一次演进式的迭代。以史为鉴,引领第一次工业革命的……还在一问一答?一文读懂GPT4的超级Prompt你是否还在与GPT4进行一问一答回答的互动?如果是,那么你可能还没有体验到GPT4的全力。今天,我要和你深入探讨“超级Prompt”的神奇功能,这个功能就像是你与GPT4沟通的……北美爆火的“狼人”短剧,来自中国APP国产剧出海历史久远,早在上世纪90年代开始,以四大名著翻拍剧为代表的剧集就在东南亚掀起热潮。2019年,随着国内长视频平台“优爱腾”(优酷、爱奇艺、腾讯)出海,在东南亚多……打破次元壁的数字人,出现在了今年口碑最好的漫改剧里《异人之下》播至结局,豆瓣评分稳定在了8。1,已成为今年口碑最好的漫改剧。围绕剧情、表演的讨论从开播起就未停息,直到今日剧粉仍保持高涨的热情。改编这样一部国民级漫画作品的……36款游戏上半年流水曝光:14款流水过亿,3款花上亿买量没想到越来越卷的SLG还有不小的上升空间,这是我观察上半年游戏流水后的第一个想法。随着上市游戏公司的半年报陆续发布,部分公司也公布了旗下主要游戏的流水数据。游戏新知整理出……让大模型触手可及,言犀AI开发计算平台上线大模型爆火的一年中,生成式AI行业最重要的发展瓶颈出现在算力侧。9月20日,红杉美国在文章《生成式AI的第二幕》提到,许多生成式人工智能公司在过去一年中很快发现,自身的发展瓶颈……降本提效促成交,抖音电商商品卡实时免佣这么做就对了!抖音电商深耕全域生意,于今年3月推出商品卡免佣政策助力商家开辟生意新阵地,运行半年多,已有超百万商家收获可观免佣收益。9月1日起,商品卡免佣政策升级为实时免佣,佣金实时返还、金……
疫情之下,在线教育行业如何实现产品突围与稳步增长?抗疫时局下“停课不停学”的举措推广,进一步引爆了在线教育市场的新增长。如何在短时间内协同满足资深用户的使用习惯和新增用户的需求,基于产品定位重新规划远期目标,提升用户体验,是多……疫情当头,下沉市场众生相平日里,关于下沉市场的用户画像分析与行业分析不绝于耳。今天,本文就再次以下沉市场为主题,聊聊疫情背后下沉市场的杂陈百味。01疫情期间下沉市场“众生相”“春……生鲜电商“牵手”餐企,保卫疫情之下的“菜篮子”疫情冲击之下,有不少行业由于商业模式与经营特性,反而找到了灵活的改变对策,生鲜电商就是一个非常典型的例子。疫情之下,“宅经济”临时加速,给获客成本日增的互联网带来了一波非……关于美容院领域的行业分析在以女性为目标用户的美容行业中,美容院领域算是离生活最近的一项美容服务了,那么在这个领域中又存在哪些入局点呢?SaaS系统该如何进入美容院细分领域呢?一、背景美容行……在线教育,集体裸考在新冠肺炎疫情出现后,中小学生只能呆在家中,无法出门,而在线教育由于线上教学、教资等特点使得它热度高涨,但是经过疫情的考验,人们发现在线教育的优点与成绩或许被过度美化了。……数字化防疫(2):疫情之下,移动资讯的市场变化与发展疫情给很多行业都带来了重大影响,很多行业都在经历着前所未有的大变局。文章从了解疫情渠道的角度出发,对移动资讯行业的4个变化进行了阐述,并对资讯市场的未来进行了分析预测,与大家分……远程办公,昙花一现?近期,多数企业都进行了在家办公的操作,当人们鼓吹在家办公的一众好处时,笔者通过理性思考与众多事实分析后,认为远程办公其实没有那么完美。这一两周,如果你买了远程办公和在线教……微信“连接一切”:正确的方向,有偏差的实施微信提出“连接一切”的概念是极具深度与内涵的,这一概念通过“圈子”“领域”“活动”等得到践行,并在略有偏差的实施中通过“微信社区”做出不断的修正与调整。一、“连接一切”应……数字化防疫(1):疫情之下,互联网医疗迎来新机遇疫情给很多行业都带来了重大影响,很多行业都在经历着前所未有的大变局。本文主要围绕互联网医疗行业的三方面变化对其进行了分析探讨,并展望了互联网医疗的未来发展,与大家分享。疫……春节冲榜复盘:榜单之上谁主沉浮?目前,春节战局已经进入了尾声,本文以这个时间节点,以AppStore榜单为参考,看看百亿推广费用推出的春节战局带来了哪些变化。节后第一周,尽管不少企业尚未完全复工,但春节……我所看到的中美互联网差异本文不想引经据典,不想翻各类资料佐证,仅仅是和读者朋友们聊聊我所观察到的生活与价值差异,导致了哪些互联网建设的不同。一直以来都有这么一句话:世界上有两个互联网,一个是中国……疫情之下,车联网技术的应用和发展文章从现实、进击和未来三个角度出发,对车联网技术助力抗疫工作的行动进行了总结,并对未来的技术发展提出了建议。抗击疫情,无论是身处防疫一线,还是居家隔离,正在成为每一个行业……
友情链接:中准网聚热点快百科快传网快生活快软网快好知文好找作文动态热点娱乐育儿情感教程科技体育养生教案探索美文旅游财经日志励志范文论文时尚保健游戏护肤业界