曾造出世界最大芯片的美国AI芯片明星创企CerebrasSystems,最新宣布完成2。5亿美元(约合16亿人民币)F轮融资。 此次融资由AlphawaveVentures和阿布扎比增长基金(ADG)领投。截至本轮融资,Cerebras的融资总额已达7。2亿美元(约合46亿人民币),公司估值超过40亿美元(约合256亿人民币)。 CerebrasSystemsWSE处理器 2019年8月,Cerebras的首颗晶圆级芯片WSE一问世便轰动全球科技圈,它由一整片晶圆制成,在46225mm面积上集成了1。2万亿个晶体管。其2021年推出的二代WSE2更进一步,采用7nm制程,创下集成2。6万亿个晶体管的新纪录。 相比之下,被业界视作云端AI芯片标杆的英伟达A100GPU,同样采用7nm制程,总共有540亿个晶体管。 接下来,Cerebras计划将此次融资用于扩大其全球业务和工程师团队,以及设计下一代基于台积电5nm节点的处理器。 本文福利:CerebrasSystems在HotChips2021上介绍巨型芯片WSE2的演讲PPT,可在公众号聊天栏回复关键词【芯东西191】获取。01。创业伙伴再上路,投资人称正在重新定义AI的可能性 CerebrasSystems位于美国加利福尼亚州,由AndrewFeldman、GaryLauterbach等人创建于2015年。 AndrewFeldman和GaryLauterbach分别是CerebrasSystems的首席执行官和首席技术官,两人的合作时间已经超过12年。 AndrewFeldman有着斯坦福大学的MBA学位,曾多次作为公司高管完成了收购和上市。GaryLauterbach则是行业中著名的计算机架构师,曾担任SPARC和UltraSPARC微处理器的首席架构师。 2007年,AndrewFeldman和GaryLauterbach就一起创办了微型服务器公司SeaMicro。2012年,SeaMicro被AMD以3。34亿美元收购,两人也一起加入了AMD。AndrewFeldman在AMD做了两年半的副总裁。 CerebrasSystems首席执行官AndrewFeldman(左)和首席技术官GaryLauterbach(右) CerebrasSystems创建至今已完成了6轮融资,总金额达7。2亿美元。早在2016年,CerebrasSystems完成了第一笔6450万美元的融资;次年1月,CerebrasSystems拿下2500万美元的B轮融资;6个月后,再次筹集6000万美元;2018年11月,完成8800万美元的D轮融资。 随着不断地融资,CerebrasSystems也从价值2。45亿美元的公司成为了新的AI芯片独角兽。Twitter、为Snap提供资金的Benchmark,传奇芯片设计师、AMD前CTOFredWeber、著名非营利实验室OpenAI的AI科学家、AlexNet的联合创建者IlyaSutskever等业界知名机构或大牛都对其进行了投资。 2019年,CerebrasSystems完成了E轮融资,公司估值约为24亿美元。如今,新的F轮融资为该公司又筹集了2。5亿美元的资金,而这相当于CerebrasSystems大约6的股份,其估值已超过40亿美元。 据科技媒体AnandTech报道,这2。5亿美元的融资将会支撑Cerebras未来23年的布局,包括在5nm节点上设计芯片和新的内存扩展方案等。目前CerebrasSystems在美国桑尼维尔、美国圣地亚哥、加拿大多伦多、日本东京等地拥有约400名员工,并希望到2022年底扩大到600人,主要增加工程师人数并专注于产品的全栈开发。 AlphawaveVentures的联合创始人兼董事长RickGerson称:CerebrasSystems正在重新定义人工智能的可能性,并在加快制药和生命科学等几个领域的创新方面有着一流的表现。我们很自豪能与Andrew和Cerebras的团队合作,支持他们将高性能AI计算引入全球新市场和地区。02。二代处理器具有2。6万亿个晶体管,性能提升超1倍 2019年,CerebrasSystems发布了其第一代WSE芯片,这款芯片具有40万个内核和1。2万亿个晶体管,使用台积电16nm工艺制程。 今年4月,CerebrasSystems推出了第二代处理器WSE2,具有破纪录的2。6万亿个晶体管(市场上最大的GPU只有540亿个晶体管)和85万颗AI优化内核,大小类似餐盘,采用台积电的7nm工艺。相比于第一代WSE处理器,WSE2在AI内核数量、晶体管数量、密度、内存带宽等参数上都有着一倍以上的提升。 Cerebras两代处理器参数对比(来源:AnandTech) 和当下的很多芯片不同,CerebrasSystems的WSE1和WSE2并不是用晶圆上的一小部分制成,而是将整个直径为300mm的晶圆加工成1颗芯片。虽然这种芯片体积较大,但是由于晶体管和内核的数量、互连优势,相比同等算力的GPU集群,其功耗和所占空间都更小。 传统的GPU集群如果想要达到同等算力,需要数十个几架承载数百甚至数千个GPU芯片。而CS2只有26英寸高,是标准数据中心机架的13。 CerebrasSystems的技术也在医药、天文、科研等多个领域发挥出了作用。 无论是美国阿贡国家实验室、劳伦斯利弗莫尔国家实验室、匹兹堡超算中心、爱丁堡大学超算中心等科研机构还是葛兰素史克、东京电子器件等厂商都成为了CerebrasSystems的忠实客户。03。参数规模提升100倍,还在云端提供深度学习服务 今年8月24日,CerebrasSystems还推出了世界上首个具备脑规模的AI解决方案。 人脑包含约100万亿个突触结构,而此前最大的人工智能硬件集群大约只有1万亿参数,类似于同等数量的突触,仅有人脑规模的1。而CerebrasSystems单一的CS2支持超过120万亿参数,在规模上达到了人脑水平,推动了AI神经网络技术的发展。 阿贡国家实验室副主任RickStevens谈道:Cerebras的发明将提高100倍的参数容量,它有可能改变行业。我们将首次能够探索大脑大小的模型,开辟了广阔的研究和洞察的新途径。 该解决方案包括四项核心技术,代号分别为WeightStreaming、MemoryX、SwarmX和Sparsity。 WeightStreaming可以让AI模型参数存储在芯片外,同时提供与芯片相同的训练和推理性能的能力,简化了工作负载分配模型。 MemoryX是一种新的内存扩展技术,可实现2。4PTAB的高性能内存,支持120万亿的参数模型。 SwarmX是一种高性能、AI优化的通信互连结构,可以互连多达1。63亿个AI内核,跨越192个CS2系统协同工作,训练单个神经网络。 Sparsity可以让用户选择模型的重量稀疏程度,减少模型处理所需的FLOP算力和时间。 9月16日,美国深度学习云服务商CirrascaleCloudServices宣布采用CS2系统和WSE2处理器。 在其应用中,8GPU服务器比CS2系统训练自然语言处理NLPBERT模型的时间慢9。5倍。而在训练精度上,用户需要超过120个GPU才能匹配单个CS2系统的训练精度。 CerebrasSystems系统在机房中04。结语:CerebrasSystems开拓巨型芯片路线获认可 需要指出的是,CerebrasSystems的WSE系列芯片并非单纯的放大芯片尺寸。大尺寸芯片需要芯片企业在互连、芯片封装、散热等方面都有着独特的技术和解决方案,这些技术方案也体现在了CerebrasSystems脑规模AI解决方案中。 虽然其芯片的尺寸较大,无法用于PC、移动设备等领域,但CerebrasSystems也向我们展示了巨型芯片的广阔应用前景,其产品可以在超算、云端等机构或企业的方案占据一席之地。而新一轮的融资代表了资本对这一技术路线的认可。