范文健康探索娱乐情感热点
投稿投诉
热点动态
科技财经
情感日志
励志美文
娱乐时尚
游戏搞笑
探索旅游
历史星座
健康养生
美丽育儿
范文作文
教案论文
国学影视

为何最近突然火了?没有颠覆性创新?关于ChatGPTAIGC的核心问答

  近期,ChatGPT火爆全球,仅用了两个月就达到1亿活跃用户,成为史上用户增长最快的消费应用。
  不仅如此,ChatGPT在资本市场掀投资狂潮,多只概念股持续走高,还吸引众多科技巨头争相入局。
  同时,也有不少有关ChatGPT的问题,如为何最近突然火了?到底没有颠覆性创新?申万宏源证券洪依真团队在最新的报告中对这些关键问题一一作出解答。
  Q1:为何GPT-3在2020年就推出了,而资本市场近期才开始对大模型高关注?
  申万宏源指出,2020年的GPT-3仍有较多缺陷,其中无法商用的最大问题是输出结果有毒或不真实,OpenAI2022年1月正式公开了改良版InstructGPT。比GPT-3小了100多倍,仅有13亿个参数。
  OpenAI使用了一种通过人类反馈来强化学习(RLHF)的现有技术,根据用户和API的交互结果,对模型的多个输出进行了排名,然后再利用这些数据微调GPT-3,大幅减少了有毒结果的输出。因此,我们现在看到的ChatGPT可以优化负面结果,同时连贯对话也更加流畅,达到了可以商用的效果。
  Q2:为何也有人认为GPT等大模型并未对NLP做出颠覆式创新?
  传统NLP最大缺陷,即自然语言理解、缺乏逻辑等问题,在GPT中仍未被解决。
  GPT等模型依赖于大规模离线收集的语料进行训练,但是对于在线提供的即时信息,往往并不能进行充分理解并且纳入自己的回复中。更进一步的,对于对话中提供的因果关系,ChatGPT也往往缺乏很好的理解能力。
  此外,GPT会给出部分问题貌似合理但不正确或荒谬的答案,或者过度使用一些词句和特定表达,同时缺乏类似人类的举一反三的能力等。
  Q3:国内transformer大模型做的怎样?
  申万宏源指出,首先需要承认这一类大模型底层创新在美国开始,2017年Google《AttentionIsAllYouNeed》首次提出了NLP模型Transformer,OpenAI的GPT-3等。中国在2021年后加速追赶,尤其是在CV大模型和多模态融合。
  据国内OpenBMB开源社区统计,目前,在全球超千亿参数的大模型中,中国企业或机构贡献了1/3,美国贡献了1/2,世界其他国家或组织贡献了剩下的1/6。
  其次,国内大部分视觉类AI公司都以小模型路线为主,投入大模型研发较多的包括百度、华为等,优势可能会在多模态融合。
  申万宏源在这里列剧了百度文心和华为盘古大模型:百度文心大模型:NLP+CV,基本实现跨模态和多下游应用。应用场景涵盖:NLP大模型、CV大模型、跨模态大模型、生物计算大模型、行业大模型。API包括了:1)ERNIE3.0文本理解与创作:预置作文生成、文案创作、情感分析等任务提示,2)ERNIE-ViLGAI作画大模型,3)PLATO大模型开放域对话服务。
  华为盘古大模型:最大中文语言预训练模型。2021年4月华为发布千亿参数40TB训练数据的全球最大中文语言(NLP)预训练模型,30亿参数的全球最大视觉(CV)预训练模型。将P-tuning、priming等最新技术融入到盘古的微调框架中,提升微调效果;在样本极少的情况下,盘古的少样本学习能力远超GPT系列和BERT系列;要得到相同的F1结果,盘古所需的数据量仅为中文 GPT-3的1/9,实现了近10倍的生产效率提升。
  Q4:大规模预训练模型(大模型)与小模型的核心区别?大模型有什么优势?
  最核心区别在于参数量,例如GPT-3参数量达到了1,750亿个,是传统深度学习小模型参数量的至少一万倍以上。申万宏源表示,通过模型的扩大,可以带来提升包括:1)GPT-2等大模型舍弃了小模型中常见的调参Fine-Tuning过程,转向容量更大、无监督训练。
  2)在自然语言理解NLP中,常见任务包括翻译、问答、文本填空等,常见小模型需要对不同的任务使用不同模型分别训练解决,而GPT-3等大规模预训练模型不再规定任务,而是对以上不同任务都有较好效果。
  3)传统的模型训练方式是反向传播算法,先对网络中的参数进行随机初始化,再利用随机梯度下降等优化算法不断优化模型参数,这种方式下对数据需求量较大。GPT-3先使用海量数据预训练大模型,得到一套模型参数,然后用这套参数对模型进行初始化,再进行训练。大幅降低后续对数据量的需求。
  Q5:GPT-3等大模型和Transformer的关联?
  Transformer是目前NLP领域效果较好的深度学习模型,因此GPT/Bert等都使用了Transformer。
  Transformer引入了Self-Attention自注意力机制:让机器注意到整个输入中不同部分之间的相关性。Transformer最大的特点是,可以让每个单元都可以捕捉到整句的信息,这也是RNN/LSTM等更早期NLP模型无法做到的一点。
  Q6:大规模预训练思路对AI应用落地有什么帮助?
  小模型时代,商用模型开发会综合考虑调参等研发投入量和带来的商业价值,模型开发出来后能否复用以摊薄研发成本,同时对于部分训练样本量较少的场景,没有很好解决方法。
  大模型可以在长尾场景应用落地,降低训练成本、减少数据要求。基于大规模预训练思路,一方面大模型可以应对多个泛化任务,大模型+细分场景微调,更适合长尾落地;另一方面,对于小样本训练,大模型也有较好提升。
  Q7:那Transformer对于CV机器视觉可以有类似NLP的提升吗?
  Transformers用在CV上的难点,Transformers自注意力操作中,每个元素需要和每个元素互相进行两两互动,最后算得一个Attention自注意力图,通过加权平均,最后得到输出。由于单元间两两互动,因此复杂度是序列长度的平方,也就是n^2,在自然语言处理中,一个句子的长度一般就是几百或上千,例如BERT为512序列长度。
  而对于一个比较常见的224x224大小的图片,如果直接以每一个像素点为单位进行两两互动的话,那序列长度为50176,大概为BERT序列长度的100倍,因此复杂度极高。
  但在2021年后,随着swintransformer、mae等论文推出,transformer在CV和跨模态等应用增加。因此,国内擅长CV的AI公司,在2022年前对于基于transformer的大模型关注投入较少,但是申万宏源认为随着VIT等效果提升,应用类的CV公司也会开始关注并投入大模型。
  Q8:怎样的公司有机会参与大模型底层技术研发?
  申万宏源认为大模型对存储、算力要求极高,普通机构或难以复现。GPT-3发布一年后,只有NVIDIA、微软等大企业可以复现。
  据NVIDIA估算,如果要训练GPT-3,即使单个机器的显存/内存能装得下,用8张V100的显卡,训练时长预计要36年;如果拥有1024张80GBA100,那么完整训练GPT-3的时长可以缩减到1个月。
  以微软与OpenAI合作建造的AzureA工智能算力平台为例,该算力平台投资约10亿美元,使用该超算中心训练一次超大模型GPT-3大约花费1200万美元。同时需要解决分布式训练问题:上百台服务器之间的通信、拓扑、模型并行、流水并行等问题,模型训练是显存峰值问题。
  本文主要摘取自申万宏源报告《ChatGPT/AIGC 九问九答》
  本文来自华尔街见闻,欢迎下载APP查看更多

两位超级外援就位,四号位猛将加盟,阿的江率新疆全力冲击季后赛在周琦离开新疆之后,球迷就纷纷猜测新疆能打出什么样的成绩,结果一个赛季过去,他们只排在第14位,甚至连季后赛都没进去,这是大家没有想到的。其实周琦对新疆非常关键,他在攻防两端都是国关于新疆,这个小知识你知道吗?生活不止眼前的苟且,还有诗和远方,新疆维吾尔自治区,被网友称为天堂遗落在人间的最后一处净土,也是诗和远方最为热门的去处之一。新疆天池新疆喀纳斯湖新疆地处东经73409618,北纬3英国计划建成世界上最大无人机空中高速公路据环球时报报道,英国计划在未来两年内建成世界上最大的无人机空中高速公路,并与空中之路(ProjectSkyway)的高速公路网计划联动,这一项目将在2024年之前连接雷丁牛津米尔顿小比例酱牛肉配方及详细做法小比例酱牛肉配方及详细做法腌料黄豆酱油100克花雕酒50克干黄酱50克黄豆酱50克高度白酒30克食盐15克五香粉2克。香料白芷3克桂皮3克甘草3克花椒2克小茴香1克干辣椒2克去籽草饭店最干净的6道菜,可以放心吃,厨师也推荐,早知道早受益饭店中的菜肴多种多样,且味道十分好吃,除了我们日常自己在家做饭以外,偶尔也会到饭店当中去换换口味,但是饭店又无法保证它是百分百干净卫生的,今天蓉儿就给大家来分享饭店中最干净的6道菜外面卖的锅巴不放心,不如自己在家做,香辣过瘾,越吃越想吃外面卖的锅巴不放心,不如自己在家做,香辣过瘾,越吃越想吃。说起锅巴,我就能想起小时候的味道,因为我从小就爱吃奶奶做的锅巴,吃起来不仅焦香酥脆,而且撒上自己爱吃的香料,简直是色香味俱初伏到!建议中老年人别心疼钱,这3款菊花营养还好喝,该喝就喝人到中年不由己可是道出了无数中年人的心声,更有甚者,还直接嘲讽道中年之后,狗都不如。之所以很多人这种想法,无非都是因为一个字钱。毕竟人到中年之后,无论是男性还是女性都可以说是家里的别再买大肠发圈鲨鱼夹了!这3款配饰才是真时髦姐妹们晚上好呀,这里是准时和你们见面的奈奈这几年奈奈发现,女孩子不仅仅是喜欢在脸上妆容上下功夫,还更喜欢在头上花心思除了365天都不重样的发型之外,还会戴上各式各样的头饰,超有巧思选对包包长高?最适合学生党的4款夏季包包,平价又时髦最近也写了蛮多穿搭分享,软妹子们是不是也淘到了很多好看的衣服捏有了漂亮衣服当然也要买好看的包包啦好看的衣服如果没有合适的包包来配的话,就像螺蛳粉里不加酸笋一样,是没有灵魂的!虽说包心目中那些帅到犯规的球星,有没有跟我一样始于颜值的呢?足球作为世界第一运动,球迷数量也是最多的。因为是一项男人的运动,相比而言男球迷还是占大多数。喝着酒,吹着牛B看会球再惬意不过了。当然女球迷也是有的,不过更多的还是奔着颜来的。身为一小屏旗舰来了!华硕ZenFone9官宣7月28日发布,有望对标苹果14说起华硕,可能大家更了解它家的电脑和板卡产品,以及最近在国内上市的ROG游戏手机6。但实际上在轻薄型智能手机上,华硕也有在推出相关的产品,比如ZenFone系列智能手机,目前都已经
世间最难懂的是人心俗话说,人心隔肚皮。隔着一层皮肤,别人的所思所想,都变得不可描述的事情。古人用,圣意难测来形容皇帝的心思你猜不准。所谓,圣意难测莫以今日宠忘却来日桀。有句话说,钱不是万能的,但是没岁月不饶人,珍惜每一天年轮,一圈圈,一年年。站在初春的路口望明天,千言万语只化为一句感恩,感恩一切!只有学会了感恩,懂得了知足,才能与快乐相遇,与幸福握手。只有怀着一颗感恩的心去面对所有,生活才会少了抱2022,愿所有美好如期而至人生,总有太多的来不及,一眨眼就是一天,一回头就是一年,一转身就是一辈子。在过去的时间里,我们经历过欢喜,也曾悔恨落泪但来日方长,生活是一本丰富的书,需要我们慢慢品读。愿你在脚步急真正聪明的人,会在朋友圈装穷文情感的守护者用最简单的文字,写尽人间冷暖,治愈孤寂的心灵。人世间,绝大多数人都不希望你过得好,超越他的生活。不论与谁相处,是怎样的关系,感情看上去有多深,都要留一手,而不是毫无保简简单单生活,快快乐乐做人人生在世,最好的活法是简简单单地好好生活,快快乐乐地做个好人,让我们自己开开心心过好我们生命中珍贵的每一天。现在知道如何在生活中保持平静和规律,恢复内外身心平衡对我们来说是非常重要牛奶靠边站补钙就该吃这5种菜一说到补钙食物,很多人都会想到牛奶虾皮豆浆奶片骨头汤其实,补钙食物并不局限于这些,每100克牛奶的钙含量大约为104毫克,而生活中不少的绿叶菜,其钙含量要比牛奶还高。下面我们就给大杨绛丰富自己,胜过取悦别人一个人真正的高贵,在于灵魂的丰盈。作者洞见yebo生活中,你有没有过类似的经历事事以他人为先,从来不考虑自己的想法总是因为别人的过错,责怪自己做得不好不敢拒绝他人的要求,一次次地放WiFi7有多快?1分钟居然能下300部片最近机哥遇到一件小事,还挺让人感慨的。就是八弟突然要借数据线,机哥在抽屉里找了半天,别说数据线了,连耳机线也没有。回想了一下,才意识到,我们正在跟各种线告别。原因当然不是因为环保,观热点从28岁武大靖长着50岁的脚,我们看到了什么武大靖,著名运动员,28岁的人却有着一双50岁的脚。遍布伤疤老茧,骨头变形武大靖不同寻常的脚引发了广泛关注。武大靖因为常年穿着冰刀鞋训练,他的脚严重变形,脚踝的地方经过长时间与鞋子关于国足改革的几点粗浅看法1。所有俱乐部球员实行工资制绩效制。(初定年限100w),绩效部分可以按照该球员一年的表现情况进行等级奖励分配,如出场次数,进球,传球,失误,代表国家队等等因素进行绩效分配。2。鼓谷爱凌姥姥是交通运输部退休干部,她对外孙女影响巨大2月8日,北京冬奥会自由式滑雪女子大跳台决赛,谷爱凌夺金,这是中国队雪上项目的首枚金牌。消息传来,交通运输部离退休干部局的微信群里热闹非凡,大家纷纷转发消息,热烈祝贺,并为之骄傲自