1月6日消息,AMD在CES2023展会上推出了下一代面向数据中心的APU产品InstinctMI300,其采用chiplet设计,拥有13个小芯片,晶体管数量高达1460亿个。 具体来说,InstinctMI300由13个小芯片整合而成,其中许多基于3D堆叠的,拥有24个Zen4CPU内核,并融合了CDNA3图形引擎和8个HBM3显存堆栈,容量达到了128GB。总体而言,该芯片拥有1460亿个晶体管,超过了英特尔的1000亿晶体管的PonteVecchio,成为了AMD投入生产的最大芯片。 从曝光的照片来看,MI300两侧的八个HBM3芯片。在这些HBM3芯片之间还放置了多个小块结构的硅片,以确保冷却解决方案在封装顶部拧紧时的稳定性。 MI300的计算部分由9个基于台积电5nm工艺制程的小芯片组成,这些小芯片包括了CPU和GPU内核,但AMD并未提供每个小芯片的详细信息。 由于Zen4内核通常部署为八个核芯,因此24核CPU则意味着有3个小芯片是CPU芯片,另外6个则是GPU芯片。GPU芯片使用AMD的CDNA3架构,这是AMD数据中心特定图形架构的第三个版本。AMD尚未明确CU数量。 这9个小芯片是通过3D封装堆叠在4个6nm小芯片上,这些芯片不仅仅是无源中介层这些芯片是有源的,可以处理IO和各种其他功能。 AMD代表展示了另一个MI300样品,该样品打磨了顶部模具,以揭示四个有源中介层模具的结构。可以清楚地看到内部结构,这些结构不仅可以在IO瓦片之间实现通信,还可以实现与HBM3堆栈接口的内存控制器之间的通信。但是这个样品禁止拍照,因此没法提供照片。 3D堆叠设计允许CPU、GPU和内存芯片之间实现令人难以置信的数据吞吐量,同时还允许CPU和GPU同时处理内存中的相同数据(零拷贝),从而节省功耗、提高性能并简化编程。看看该设备是否可以在没有标准DRAM的情况下使用会很有趣,正如我们在英特尔的XeonMaxCPU中看到的那样,它也采用了封装上的HBM。 AMD的代表不愿透露更多细节,因此不清楚AMD是否使用标准的TSV方法将上下芯片连接在一起,或者是否使用更先进的混合键合方法。AMD表示,将很快分享有关封装方面的更多详细信息。 AMD声称MI300提供的AI性能和每瓦性能是InstinctMI250的8倍和5倍(使用稀疏性FP8基准测试)。AMD还表示,它可以将ChatGPT和DALLE等超大型AI模型的训练时间从几个月减少到几周,从而节省数百万美元的电力。 当前一代的InstinctMI250为世界上第一台百万兆级超级计算机Frontier提供动力,InstinctMI300将为即将推出的美国新一代200亿亿次的ElCapitan超级计算机提供动力。 AMD表示,这些面向超级计算机的MI300芯片将昂贵且相对罕见这些不是大批量产品,因此它们不会像EPYCGenoa数据中心CPU那样广泛部署。但是,该技术将过滤到不同外形尺寸的多个变体。 该芯片还将与Nvidia的GraceHopperSuperchip竞争,后者是在同一基板上整合了HopperGPU和GraceCPU。这些芯片预计将于今年上市。基于Neoverse的GraceCPU基于Armv9指令集,配备了两个与Nvidia新品牌的NVLinkC2C互连技术融合在一起的芯片。AMD的方法旨在提供卓越的吞吐量和能源效率,因为将这些设备组合到单个封装中,通常比连接两个单独的设备时能够在单元之间实现更高的吞吐量。 MI300还将与英特尔的FalconShores竞争,后者将具有不同数量的计算模块,包括x86内核,GPU内核和内存,具有令人眼花缭乱的可能配置,但这些要到2024年才能到来。 在这里,我们可以看到MI300封装的底部,其中包含用于LGA安装系统的接触垫。AMD没有分享有关插座机制的细节,但我们肯定会很快了解更多信息该芯片目前正在AMD的实验室中,该公司预计将在2023年下半年交付InstinctMI300。ElCapitan超级计算机在2023年部署时将成为世界上最快的超级计算机。它目前正在按计划进行。 编译:芯智讯浪客剑来源:tomshardware