专栏电商日志财经减肥爱情
投稿投诉
爱情常识
搭配分娩
减肥两性
孕期塑形
财经教案
论文美文
日志体育
养生学堂
电商科学
头戴业界
专栏星座
用品音乐

百强AI论文出炉清华紧随谷歌排名第二,宁波工程学院成最大黑马

  编辑:LRS【新智元导读】谷歌仍然全球领先,OpenAI每两篇论文就有一篇进百大!
  人工智能领域的创新步伐越来越快,论文数量也呈爆炸式增长,甚至达到了人力无法阅读的程度。
  在2022年发表的海量论文中,哪些机构的影响力最大?哪些论文更值得读?
  最近外媒ZetaAlpha用经典的引用次数作为评估指标,收集整理了在2022年最高引的100篇论文,并分析了不同国家、机构在过去三年里发表的高引论文数量。美国仍然领先,中国第二
  按国家来划分的话,美国仍然占据领先地位,不过在Top100论文中所占的比例相比2020年来说大幅下降。
  中国排行第二,数据相比去年略有上涨;第三位是英国,DeepMind去年产出占英国总数的69,超过了前几年的60;新加坡和澳大利亚在AI领域的影响力也超出分析师的预期。
  按照组织来划分的话,可以看到谷歌始终是AI领域的最强者,紧随其后的是Meta、微软、加州大学伯克利分校、DeepMind和斯坦福大学,国内排行第一的是清华大学。
  作为MetaAI的带头人,YannLeCun也自豪地宣布Meta在行业内的影响力,并表示MetaAI更重视出版质量,而不是出版数量。
  至于同属于Alphabet的谷歌和DeepMind在列表中单独计算的问题,LeCun表示DeepMind一直坚称它们独立于谷歌运营,这很奇怪,谷歌员工无法访问DeepMind的代码库。
  尽管如今人工智能研究大多由工业界引领,单个学术机构产生的影响不大,但由于长尾效应,学术界整体来说还是和工业界持平的,当按照组织类型对数据进行聚合时,可以看到二者的影响力大体是相等的。
  如果回顾过去三年,统计各个机构总的研究成果数量,可以看到谷歌仍处于领先地位,但与其他机构相比差距要小得多,值得一提的是,清华大学紧随谷歌排行第二。
  OpenAI和DeepMind甚至没有进入前20名,当然,这些机构发表的文章数量较少,但每篇文章的影响力都很大。
  如果按照出版量进入Top100的比例来看,OpenAI独树一帜,在转化率上远超其他机构,基本上两篇论文中就有一篇成为年度百大论文。
  当然,从ChatGPT的火爆来看,OpenAI确实很擅长营销,一定程度上促进了引用量的提升,不可否认的是,他们的研究成果质量非常高。
  论文收集方法
  首先在ZetaAlpha平台上收集每年被引用最多的论文,然后手动检查第一个发表日期(通常是arXiv预印本)归类到对应的年份中。
  通过挖掘SemanticScholar上高引的人工智能论文来补充这个列表,其覆盖面更广,而且能够按引用次数进行排序,主要是从影响力很大的封闭来源出版商(例如《自然》、《爱思唯尔》、《施普林格》和其他杂志)那里获得额外的论文。
  然后将每篇论文在GoogleScholar上的引用次数作为代表性指标,并根据这个数字对论文进行排序,得出一年内排名前100位的论文。
  对于这些论文,使用GPT3提取作者、他们的附属机构和国家,并手动检查这些结果(如果国家在出版物中没有体现的话,采用该组织总部所在的国家)。
  拥有多个机构的作者的论文对每个附属机构各计数一次。2022年五强论文
  1。AlphaFoldProteinStructureDatabase:massivelyexpandingthestructuralcoverageofproteinsequencespacewithhighaccuracymodels
  论文链接:https:academic。oup。comnararticle50D1D4396430488
  发表机构:欧洲分子生物学实验室,DeepMind
  AlphaFoldDB:https:alphafold。ebi。ac。uk
  引用量:1331
  AlphaFold蛋白质结构数据库AlphaFoldDB是一个可公开访问的、广泛的、高准确度的蛋白质结构预测的数据库。
  在DeepMind的AlphaFoldv2。0的支持下,该数据库使已知蛋白质序列空间的结构覆盖面得到了空前的扩展。
  AlphaFoldDB提供了对预测的原子坐标、每个残基和成对的模型置信度估计以及预测的对齐误差的程序化访问和互动式可视化。
  AlphaFoldDB的初始版本包含了超过36万个预测结构,涵盖了21种模式生物的蛋白质组,未来将扩展到UniRef90数据集的大部分(超过1亿)代表性序列。
  2。ColabFold:makingproteinfoldingaccessibletoall
  论文链接:https:www。nature。comarticless41592022014881
  代码链接:https:github。comsokryptoncolabfold
  环境链接:https:colabfold。mmseqs。com
  引用量:1138
  ColabFold通过将MMSEQS2的快速同源搜索与AlphaFold2或Rosettafold相结合,从而加速了对蛋白质结构和复合物的预测。
  ColabFold在模型利用率上可以实现4060倍加速的搜索和优化,能够在仅具有一个图形处理单元的服务器上预测近1000个结构。
  ColabFold在GoogleColaboratory的基础上,成为了一个蛋白质折叠的免费且可访问的平台,也是一个可用的开源软件。
  3。AConvNetforthe2020s
  论文链接:https:arxiv。orgpdf2201。03545。pdf
  引用量:835
  视觉识别的Roaring20s(咆哮的20年代)始于视觉Transformer(ViTs)的引入,它迅速取代了ConvNets成为最先进的图像分类模型。
  另一方面,一个最简单的ViT在应用于通用计算机视觉任务时仍然面临着一些难题,如物体检测和语义分割。
  层次化Transformer(如SwinTransformers)重新引入了几个ConvNet先验,使得Transformer作为通用视觉模型骨干实际上是可行的,并在各种视觉任务中表现出显著的性能。
  然而,这种混合方法的有效性仍然主要归功于Transformers的内在优势,而不是Convolutions的内在归纳偏见。
  在这项工作中,研究人员重新审视了设计空间,并测试了纯ConvNet所能实现的极限。
  逐步将一个标准的ResNet现代化成ViT的设计,并在这一过程中发现了几个促成性能差异的关键组件,探索后发现了一个称为ConvNeXt的纯ConvNet模型系列。
  ConvNeXt完全由标准的ConvNet模块构成,在准确性和可扩展性方面与Transformer不相上下,在COCO检测和ADE20K分割方面取得了87。8的ImageNettop1准确性,并超过了SwinTransformers,同时保持了标准ConvNets的简单性和效率。
  4。HierarchicalTextConditionalImageGenerationwithCLIPLatents
  论文链接:https:arxiv。orgabs2204。06125
  引用量:718
  像CLIP这样的对比式模型(Contrastivemodels)已经被证明可以学习到稳健的图像表征,能够捕捉到语义和风格。
  为了利用这些表征来生成图像,研究人员提出了一个两阶段的模型:一个给定文本标题生成CLIP图像embedding的先验,以及一个以图像embedding为条件生成图像的解码器。
  实验证明可以显式地生成图像表征能够提高图像的多样性,在逼真度和标题的相似性方面损失最小,并且以图像表征为条件的解码器也能产生图像的变化,保留其语义和风格,同时改变图像表征中不存在的非必要细节。
  此外,CLIP的联合embedding空间使languageguided下的图像操作能够以zeroshot的方式进行。
  对解码器使用扩散模型,并对先验的自回归和扩散模型进行实验,发现后者在计算上更有效率,能够生成质量更高的样本。
  5。PaLM:ScalingLanguageModelingwithPathways
  论文链接:https:arxiv。orgpdf2204。02311。pdf
  引用量:426
  大型语言模型已被证明在各种自然语言任务中使用fewshot学习即可达到更高的性能,极大地减少了使模型适应特定应用所需的特定任务训练实例的数量。
  为了进一步了解scale对fewshot学习的影响,研究人员训练了一个5400亿参数、密集激活的Transformer语言模型PathwaysLanguageModel(PaLM)。
  使用Pathways(一个新的ML系统,能够在多个TPUPods上进行高效的训练)在6144个TPUv4芯片上训练得到PaLM,通过在数百个语言理解和生成基准上取得最先进的fewshot学习结果证明了scaling的好处。
  在其中一些任务上,PaLM540B实现了突破性的性能,在一套多步骤推理任务上超过了微调的最先进水平,并在最近发布的BIGbench基准上超过了人类的平均性能。
  大量的BIGbench任务显示了模型规模的不连续改进,也意味着当规模扩大到最大的模型时,性能陡然提高。
  PaLM在多语言任务和源代码生成方面也有很强的能力,这一点也在一系列基准测试中得到了证明。
  此外,研究人员还对偏见和毒性进行了全面的分析,并研究了与模型规模有关的训练数据记忆程度,最后讨论了与大型语言模型有关的伦理考虑,并讨论了潜在的缓解策略。2022年国内五强论文
  1。SwinTransformerV2:ScalingUpCapacityandResolution
  论文链接:https:arxiv。orgpdf2111。09883。pdf
  代码链接:https:github。commicrosoftSwinTransformer
  引用量:266
  大规模的NLP模型已经被证明可以显著提高语言任务的性能,而且没有饱和的迹象,同时还展示了像人类一样的惊人的fewshot能力。
  这篇论文旨在探索计算机视觉中的大规模模型,解决了大型视觉模型训练和应用中的三个主要问题,包括训练的不稳定性,预训练和微调之间的分辨率差距,以及对有标签数据的需求。
  研究人员提出了三种主要技术:
  1)一种与余弦注意相结合的残差后规范方法,以提高训练的稳定性;
  2)一种对数间隔的连续位置偏差方法,以有效地将使用低分辨率图像预训练的模型转移到具有高分辨率输入的下游任务中;
  3)一种自监督的预训练方法SimMIM,以减少对大量标记图像的需求。
  通过这些技术,成功地训练了一个30亿参数的SwinTransformerV2模型,这是迄今为止最大的稠密视觉模型,并使其能够用高达1,5361,536分辨率的图像进行训练。
  在4个代表性的视觉任务上创造了新的性能记录,包括ImageNetV2图像分类、COCO物体检测、ADE20K语义分割和Kinetics400视频动作分类。
  同时可以注意到该训练比谷歌的十亿级视觉模型中的训练效率要高得多,所消耗的有标签数据和训练时间要少40倍。
  2。EnsembleunsupervisedautoencodersandGaussianmixturemodelforcyberattackdetection
  之前的研究采用了具有降维功能的无监督机器学习来进行网络攻击检测,仅限于对高维和稀疏数据进行鲁棒的异常检测。
  大多数方法通常假设每个领域的参数是同质的,具有特定的高斯分布,忽视了数据偏度的鲁棒性测试。
  论文链接:https:www。sciencedirect。comsciencearticlepiiS0306457321003162
  引用量:145
  这篇论文提出使用连接到高斯混合模型(GMM)的无监督集合自编码器来适应多个领域,无需考虑每个领域的偏度(skewness)。
  在集成自编码器的隐藏空间中,利用了基于注意力的潜在表征和重建的最小误差的特征,使用期望最大化(EM)算法来估计GMM中的样本密度,当估计的样本密度超过训练阶段获得的学习阈值时,该样本被识别为与攻击异常有关的离群点。
  最后,对集成自编码器和GMM进行联合优化,将目标函数的优化转化为拉格朗日对偶问题,在三个公共数据集上进行的实验验证了所提出的模型的性能与所选择的异常检测基线相比有明显竞争力。
  论文共同一作为来自宁波工程学院的安鹏教授和同济大学的ZhiyuanWang。
  安鹏教授目前是宁波工程学院电子与信息工程学院副院长,2000年至2009年就读于清华大学工程物理系,获工学学士学位、工学博士学位;欧洲核子研究中心、意大利国家帕多瓦大学、德国海德堡大学访问学者,中国自动化学会认知计算与系统专业委员会委员、中国人工智能学会认知系统与信息处理专业委员会委员、中国指挥与控制学会青年工作委员会委员;主持并参与国家重点基础研究发展计划(973计划)、国家自然科学基金、国家星火计划项目等多项科研项目。
  3。ScalingUpYourKernelsto31x31:RevisitingLargeKernelDesigninCNNs
  论文链接:https:arxiv。orgabs2203。06717
  代码链接:https:github。commegviiresearchRepLKNet
  引用量:127
  文中回顾了现代卷积神经网络(CNN)中的大核设计。
  受视觉Transformer(ViTs)最新进展的启发,该论文证明了使用几个大的卷积内核代替一堆小的内核可能是一个更强大的范例。
  研究人员提出了五个指导方针,例如,应用重新参数化的大深度卷积,来设计高效的高性能大内核CNN。
  根据这些指导方针提出了RepLKNet,一个纯粹的CNN架构,其内核大小为31x31,与通常使用的3x3形成对比,RepLKNet极大地缩小了CNN和ViTs之间的性能差距,例如在ImageNet和一些典型的下游任务上,以较低的延迟实现了与SwinTransformer相当或更好的结果。
  RepLKNet对大数据和大模型也表现出很好的可扩展性,在ImageNet上获得了87。8的最高准确率,在ADE20K上获得了56。0的mIoU,在具有类似模型大小的最先进技术中是非常有竞争力的。
  该研究进一步表明,与小核CNN相比,大核CNN具有更大的有效接收场(receptivefields)和更高的形状偏差,而不是纹理偏差。
  4。TensoRF:TensorialRadianceFields
  论文链接:https:arxiv。orgabs2203。09517
  引用量:110
  文中提出了TensoRF,一种对辐射场(radiancefields)进行建模和重构的新方法。
  与纯粹使用MLP的NeRF不同,研究人员将场景的辐射场建模为一个4D张量,代表了一个具有每体素多通道特征(pervoxelmultichannelfeatures)的三维体素网格,其中心思想是将4D场景张量分解为多个紧凑的低秩张量成分。
  证明了在该框架中应用传统的CP分解,将张量分解为具有紧凑向量的rankonecomponents会获得比普通的NeRF更好的性能。
  为了进一步提高性能,文中还引入了一种新的矢量矩阵(VM)分解,放松了张量的两种模式的低秩约束,并将张量分解为紧凑的矢量和矩阵因子。
  除了更好的渲染质量,该模型与CP和VM分解相比,直接优化每象素特征的先前和同时进行的工作导致了显著的内存占用。
  实验证明,与NeRF相比,采用CP分解的TensoRF实现了快速重建(30分钟),具有更好的渲染质量,甚至更小的模型尺寸(4MB)。
  此外,采用VM分解的TensoRF进一步提高了渲染质量,并超过了以前最先进的方法,同时减少了重建时间(10分钟)并保留了紧凑的模型大小(75MB)。
  5。VideoMAE:MaskedAutoencodersareDataEfficientLearnersforSelfSupervisedVideoPreTraining
  论文链接:https:arxiv。orgabs2203。12602
  代码链接:https:github。comMCGNJUVideoMAE
  引用量:100
  为了在相对较小的数据集上实现更高的性能,通常需要在额外的大规模数据集上预训练视频Transformer。
  这篇论文表明视频掩码自动编码器(VideoMAE)是用于自监督视频预训练(SSVP)的数据高效学习器。
  受到最近的ImageMAE的启发,研究人员提出了具有极高掩码比例的定制视频管(videotube),这种简单的设计使视频重建成为一项更具挑战性的自监督任务,从而鼓励在这个预训练过程中提取更有效的视频表征。
  在SSVP上获得了三个重要的发现:
  (1)极高比例的掩码率(即90到95)仍然能产生VideoMAE的有利表现。时间上冗余的视频内容使得掩蔽率比图像更高。
  (2)VideoMAE在非常小的数据集(即大约3k4k的视频)上取得了非常高的性能,而没有使用任何额外的数据。
  (3)VideoMAE表明,对于SSVP来说,数据质量比数据数量更重要。
  预训练和目标数据集之间的领域迁移是一个重要问题。
  值得注意的是,VideoMAE与普通的ViT可以在Kinetics400上达到87。4,在SomethingSomethingV2上达到75。4,在UCF101上达到91。3,在HMDB51上达到62。6,而无需使用任何额外的数据。
  完整百强论文列表
  参考资料:
  https:www。zetaalpha。compostmustreadthe100mostcitedaipapersin2022
  https:twitter。comylecunstatus1631793362767577088

万物复苏春来到花开中国遍地香央视网消息立春之后,万物复苏的春天来到。下面让我们向暖而行,感受春的气息,领略花开中国。眼下,海南各地的三角梅,花开正艳,一团团一簇簇竞相绽放。三角梅是海南省的省花,在海南各地都很这个新发现,距今2。508亿年!记者从中国地质大学(武汉)获悉,该校宋海军教授团队在我国贵州省贵阳市及其周边发现一个距今2。508亿年的特异埋藏化石库贵阳生物群。相关研究成果10日发表在科学杂志上。宋海军介绍,贵延迟发布?苹果新StudioDisplay将缺席春季发布会CNMO新闻去年苹果春季发布会上发布了旗下最新显示器产品StudioDisplay系列,尽管在之后并未在市场上掀起换机潮,但后续产品的开发似乎已经从那时开始了。根据当时的消息这将是农旅融合引客来来源丽水日报初春,庆元县隆宫乡莲湖星空营地游人如织,众多游客到此感受春日暖阳。该营地是集露营基地观光旅游餐饮住宿等农文旅为一体的综合体项目,是该乡全力打造的首个农旅融合式共富工坊,扬州泰州盐城四日游之高邮篇这次驾车出行,本想专门看看泰州,因为一直有个走遍江苏13市的想法,眼下去了9个,若无疫情阻隔,应该早已如愿路上孩子说,新建了个大运河博物馆,要不咱先去扬州?那好吧。一路狂奔,看到高开门,迎春!蓄势3年,一朝开放。出境游重启,为旅游行业复苏按下快进键。联合国世界旅游组织(UNWTO)最新发布的2023年全球旅游业晴雨表预测,2023年全球国际游客抵达人数可能恢复到疫情前水116家非上市险企高管薪酬,最高近千万,多数低于三百万澎湃新闻记者胡志挺偿二代二期实施后,非上市保险公司董监高收入首次披露,哪些险企高管薪酬较高呢?据澎湃新闻不完全统计,截至目前,有约145家非上市保险公司在中国保险行业协会网站披露了世体除了布斯克茨以外,沙特还梦想着梅西的到来直播吧2月7日讯据世界体育报报道,近日,C罗效力的利雅得胜利向巴萨中场布斯克茨发出了邀请,除此以外,沙特方面还梦想着梅西的到来。卡塔尔成功举办了阿拉伯地区的首届足球世界杯,现在,沙吴易昺ATP排名首次进入前100这只是一个开始北京时间2月7日,在张之臻成为百大球员不到4个月后,吴易昺也跟随脚步,在本周首次打进世界排名前一百,位列No。97位。这是我从小就想要实现的目标。吴易昺在接受ATP官网采访时说,当火箭与76人3换2交易报价!据费城76人队记者KeithPompey报道,消息人士透露,76人后卫科克马兹不满自己在球队扮演的角色,已经向球队提出交易申请,希望在本赛季交易截止日前离开球队。科克马兹是2026格莱美红毯霉霉碧昂丝阿黛尔都钟情的珠宝,究竟有什么魅力一等到格莱美要颁奖,我就知道养眼时刻又来了!这不,美女帅哥齐聚一堂,眼睛都不知道该看谁了惊喜我最喜欢的,还是泰勒斯威夫特的造型。靛青色露腰短上衣,更显腿长比例好。小烟熏眼妆,加上红
iPhone14再翻车,灵动岛又火了,苹果真该学习国内厂商要说iPhone14系列最火的功能,无非就是灵动岛。苹果虽然在硬件上的创新比较匮乏,但是在软件打磨上还是会玩出一些花样。仅仅是一个灵动岛的功能,就让很多果粉玩得不亦乐乎。虽然说iP自动驾驶全面进入3。0时代,毫末打响2023年智能驾驶第一枪!气氛异常浓烈的跨年,既体现了人们希望跟2022年说再见的迫切心情,更承载了人们对于刚刚到来的2023年的期许和憧憬。毕竟,过去一年乃至三年有多难,大家对于2023年能够快速回归正常等不及苹果iPhone15?上半年留意这三款旗舰机,12256到手3999!从2022年底发布的一众新机的表现来看,2023年的手机圈还是看点十足的,包括每逢下半年更新换代的苹果iPhone,从最近的各方面消息来看,iPhone15系列的变化着实不小,不仅郑爽虐童再度升级!网友爆料郑爽一家生活困难连卫生巾都省着用!郑爽离开演艺圈已经很久了,但关于她的江湖传奇一直在继续上演。自从被迫退圈后,郑爽一家定居美国,在异国他乡低调抚养孩子。本以为她家以后的生活会这样一直趋向平淡,没想到近日张恒控诉郑爽洪金宝73岁生日坐轮椅出镜,混血妻子风韵犹存,网友不愧是港姐近日,演员洪天明在自己的社交平台更新了动态,配文生日快乐,身体健康。从视频中,我们得知,原来他是给父亲洪金宝过73岁寿辰。当天,他带着一家人去附近的一家农场,游玩小聚,给爸爸洪金宝苹果失守2万亿俱乐部解散从1万亿到2万亿,苹果用了两年多。而跌破2万亿,苹果也用了两年多。苹果的失守,也意味着美股正式告别市值2万亿美元的公司。在美国高通胀美联储疯狂加息的背景下,这一切并非无迹可寻。毕竟购药英雄在身边小善举解邻里燃眉之急万分感谢!这对我这种没有准备的人来说,真的太重要了!近日,在杭州西湖区蒋村街道府苑社区网格群里出现了这样的感谢,居民们纷纷跟赞,群内一片热闹。原来,社区一名在职党员在购药的同时,为电影长空之王定档五一,王一博演试飞员,歼20震撼亮相由刘晓世导演,桂冠刘晓世编剧,王一博胡军于适领衔主演,周冬雨特别主演的电影长空之王,9日发布定档海报,宣布进军五一档。海报上,翱翔天际的战斗机呈现出一种硬核而神秘的美感,试飞员稳坐美股以2008年来最大年度跌幅收官,2023年股市会反弹吗?不仅传统的圣诞反弹没有光临,美股2022年收官日也以跌势收场,标普500和纳斯达克100指数创2008年以来最大年度跌幅,2022年累计下跌分别为19。4和33。特斯拉12月单月跌老人洗澡非小事广东省农工党建议扩大助浴师从业人数规模2023年1月10至13日,政协第十三届广东省委员会第一次会议定在广州召开。农工党广东省委员会将提交关于推动社区长者助浴中心建设,构建老龄友好社会的建议提案。该提案建议,给予老年人京东科技发布产业回暖计划2023新年伊始,京东科技推出产业回暖计划,这一计划以7大类10项举措助力强信心稳经济促发展,旨在为企业纾困解难释放消费新潜力激发产业发展新动力,进一步推进复工复产产业回暖和城市烟
友情链接:快好找快生活快百科快传网中准网文好找聚热点快软网