明敏 发自 凹非寺 量子位 | 公众号 QbitAI 百度版ChatGPT底层算力支持,李彦宏老家阳泉 助一臂之力! 量子位获悉,百度阳泉智算中心 从2月底开始就布设了两个新机房 ,专门为自家大模型产品文心一言 提供计算推理的算力需求。 同样功能的机房,在百度保定计算集群,还有两个 。 北京、华南的云计算资源也会为文心一言提供支持。 其中,阳泉智算中心是亚洲单体最大的智算中心,算力规模可达4EFLOPS (每秒400亿亿次浮点计算)。 而就在最近,微软也表示为ChatGPT专门打造了超算集群,由上万块英伟达A100 组成,并专门为此调整了服务器架构。 那么百度的算力基础设施水平如何? 量子位刚刚从阳泉智算中心探访归来,给大家来波揭秘~每秒400亿亿次浮点计算 据百度介绍,阳泉智算中心在3月份刚刚完成升级。 它是目前亚洲最大单体智算中心,算力规模达4EFLOPS (每秒400亿亿次浮点计算),整个建筑面积约12万平方米。 一共包括13个模组,可承载约28万台 服务器。 智算中心采用CPU+GPU+XPU 三种计算架构。 其中XPU应该主要指百度自家的昆仑芯 ,其产品一代二代均已实现量产,落地规模在2万片以上。 计算能力上,基于天蝎机柜服务器、"冰山"冷存储服务器和X-MAN超级AI计算平台等,可支持10G、25G的通用计算网络接入 和100G的AI高速无损网络的交换机 。 每秒可完成2000万亿次 深度神经网络计算。 节能低碳方面,阳泉智算中心PUE可以低至1.08 。(这一数值大于1、越接近1表示能效水平越好) 在供电上,阳泉智算中心去除了传统的UPS(不间断电源),采用HVDC offline(高压直流离线)技术、分布式锂电池(BBS)供电技术,把供电效率从90%提升到99.5% 。 同时采用太阳能光伏发电(阳泉日照比较充足),在顶楼铺设太阳能光伏面板,直接并网发电给服务器使用。 散热方面,由于阳泉年平均气温在8-12度,昼夜温差大,智算中心可以直接利用当地气候条件散热。 据介绍,全年96%的时间可以使用室外冷空气实现免费冷却,换算过来一年里有14.6天才需要全部开冷水机组制冷,从而节省了大量的能源。 技术人员表示,智算中心会按需发电和散热,日常运维也是基于AI来实现的。 自21年4月以来,阳泉智算中心正式投入使用。在去年12月起,开始对外开放服务。 当时项目计划投资为47.08亿元。 目前,阳泉智算中心可以支持各种AI应用场景,如语音识别、图像处理、自然语言处理和机器学习。为百度搜索、社区、推广服务等提供算力支撑。云计算要借大模型的东风 无独有偶,微软也在近日公开了为ChatGPT专门打造的超算集群,包含了上万张英伟达A100 。 微软表示,他们给OpenAI提供这台超算已经有3年之久,而ChatGPT也正是基于这台超算提供的算力训练的。 此举背后,微软有两方面考量。 其一,吸引更多企业来使用Azure训练自己的大模型。微软执行副总裁Scott Guthrie表示: 虽然它是OpenAI的定制版,但同样具备某种通用性,任何企业都可以基于这种方式来训练自己的大语言模型。 其二,直接在Azure中提供OpenAI模型服务(Azure OpenAI Service)。 此前包括GPT-3、Codex和DALL·E 2等模型,都已经接入Azure。 至于纳德拉1月份立的"要把ChatGPT加入Azure服务"flag,目前也已经实现。 类比来看,百度想打的算盘,或许也不会局限在文心一言本身。 据介绍,为了支持文心一言的大规模智能算力需求,百度智能云 已经完成了三大配套云服务。3月份升级阳泉智算中心;2月,百度智能云升级了AI研发运营一体化(MLOps)能力;去年12月,百度发布了全栈自研的AI基础设施"AI大底座"(阳泉智算中心搭载了这一底座)。 前段时间李彦宏内部信中还提到: 文心一言将通过百度智能云对外界提供服务,根本性地改变 云计算 市场的游戏规则。 这里的意思是,大模型浪潮将改变传统云计算服务看算力、存储 的旧习惯,而是进入到看框架好不好、模型好不好,以及模型、框架、芯片、应用之间的协同的新游戏规则。 由此也可推理,百度寄希望于文心一言,向市场验证自家云计算能力,并吸引更多企业用户。 据介绍,百度搭建的"AI大底座"包括了百舸异构计算平台和AI中台两大部分。 百舸异构计算平台可以在AI计算、存储、加速、容器方面进行系统优化,承载数据处理、超大模型的推理和训练。 AI中台整合了飞桨深度学习框架和百度文心大模型,实现了从数据存储到模型训练、生产、部署、测试的全链路、批量化生产。 而百度智能云更具体的能力如何? 或许从文心一言上线后的表现就能略知一二了。 — 完 — 量子位 QbitAI · 头条号签约 关注我们,第一时间获知前沿科技动态