650亿参数大模型预训练方案开源可商用!LLaMA训练加速3
6月18日 无镇楼投稿 650亿参数大模型的预训练方案,发布即开源。
训练速度较传统方案提升38。
这就是由ColossalAI最新发布的类LLaMA基础大模型预训练方案。要知道,在“百模大战”背景下,谁拥有自家大模型,往往被视为核心竞争力。
在这个节点下,愿意开源大模型的公司少之又少。
但自己从头训练一个大模型,对技术、资金都有很高要求。
由此,ColossalAI最新的开源动作,可以说是应时势所需了。
并且它还不限制商业使用,开箱即用仅需4步。
具体项目有哪些内容?一起往下看
开源地址:https:github。comhpcaitechColossalAI
32张A100A800即可使用
实际上,自从Meta开源LLaMA后,掀起了一波微调项目热潮,如Alpaca、Vicuna、ColossalChat等都是在其基础上打造的。
但是LLaMA只开源了模型权重且限制商业使用,微调能够提升和注入的知识与能力也相对有限。
对于真正想要投身大模型浪潮的企业来说,训练自己的核心大模型非常重要。
开源社区也此前已献了一系列工作:
RedPajama:开源可商用类LLaMA数据集(无训练代码和模型)
OpenLLaMA:开源可商用类LLaMA7B13B模型,使用EasyLM基于JAX和TPU训练
Falcon:开源可商用类LLaMA7B40B模型(无训练代码)
但这些都还不够,因为对于最主流的PyTorchGPU生态,仍缺乏高效、可靠、易用的类LLaMA基础大模型预训练方案。
所以ColossalAI交出了最新的开源答卷。
仅需32张A100A800,即可搞定650亿参数类LLaMA大模型预训练,训练速度提升38。
而像原生PyTorch、FSDP等,则因显存溢出无法运行该任务。
HuggingFaceaccelerate、DeepSpeed、MegatronLM也未对LLaMA预训练进行官方支持。
开箱即用、4步搞定
而这一项目真正上手起来也很简易。共有四步:
1、安装ColossalAI
2、安装其他依赖项
3、数据集
4、运行命令
具体代码如下:
第一步、安装ColossalAI。
gitclonebexamplellamahttps:github。comhpcaitechColossalAI。git
cdColossalAI
installandenableCUDAkernelfusion
CUDAEXT1pipinstall。
第二步、安装其他依赖项。
cdexampleslanguagellama
installotherdependencies
pipinstallrrequirements。txt
useflashattention
pipinstallxformers
第三步、数据集。
默认数据集togethercomputerRedPajamaData1TSample将在首次运行时自动下载,也可通过d或dataset指定自定义数据集。
第四步、运行命令。
已提供7B和65B的测速脚本,仅需根据实际硬件环境设置所用多节点的hostname即可运行性能测试。
cdbenchmark65Bgeminiauto
bashbatch12seq2048flashattn。sh
对于实际的预训练任务,使用与速度测试一致,启动相应命令即可,如使用4节点8卡训练65B的模型。
colossalairunnprocpernode8hostfileYOURHOSTFILEmasteraddrYOURMASTERADDRpretrain。65l2048gb8a
如果使用ColossalAIgeminiauto并行策略,可便捷实现多机多卡并行训练,降低显存消耗的同时保持高速训练。
还可根据硬件环境或实际需求,选择流水并行张量并行ZeRO1等复杂并行策略组合。
其中,通过ColossalAI的BoosterPlugins,用户可以便捷自定义并行训练,如选择LowLevelZeRO、Gemini、DDP等并行策略。
Gradientcheckpointing通过在反向传播时重新计算模型的activation来减少内存使用。
通过引入Flashattention机制加速计算并节省显存。用户可以通过命令行参数便捷控制数十个类似的自定义参数,在保持高性能的同时为自定义开发保持了灵活性。
ColossalAI最新的ShardFormer极大降低了使用多维并行训练LLM的上手成本。
现已支持包括LLaMA的多种等主流模型,且原生支持Huggingfacetransformers模型库。
无需改造模型,即可支持多维并行(流水、张量、ZeRO、DDP等)的各种配置组合,能够在各种硬件配置上都发挥卓越的性能。
ColossalAI:大模型系统基础设施
带来如上新工作的ColossalAI,如今已是大模型趋势下的明星开发工具和社区了。
ColossalAI上述解决方案已在某世界500强落地应用,在千卡集群性能优异,仅需数周即可完成千亿参数私有大模型预训练。
上海AILab与商汤等新近发布的InternLM也基于ColossalAI在千卡实现高效预训练。
自开源以来,ColossalAI多次在GitHub热榜位列世界第一,获得GitHubStar超3万颗,并成功入选SC、AAAI、PPoPP、CVPR、ISC等国际AI与HPC顶级会议的官方教程,已有上百家企业参与共建ColossalAI生态。
它由加州伯克利大学杰出教授JamesDemmel和新加坡国立大学校长青年教授尤洋领导开发。
ColossalAI基于PyTorch,可通过高效多维并行、异构内存等,主打为AI大模型训练微调推理的开发与应用成本,降低GPU需求等。
其背后公司潞晨科技,近期获得数亿元A轮融资,已在成立18个月内已迅速连续完成三轮融资。
开源地址:https:github。comhpcaitechColossalAI
参考链接:https:www。hpcai。techbloglargemodelpretraining
完
(举报)
投诉 评论
电商巨头的明争暗斗,成为推动中国商业前进的动力随着电商巨头竞争而来的,是能拉动整个行业升级、变革、与创新的利好氛围。阿里和京东两大电商平台长期占据着国内电商市场的半壁江山。所谓一山不容二虎,两大电商价格战、品牌战、配……
给你一个品牌,如何让它像江小白、喜茶一样快速走红、脱颖而出要想让品牌快速走红,必须做好品牌运营。品牌运营对公司来说,到底有多重要?1、同样一双运动鞋,贴上Nikelogo后的价格与代工厂的价格相差十几倍;2、同样进入……
AI产品经理需要了解的语音交互评价指标本文主要从5大方面具体介绍了现在行业内对语音交互系统的常见评价指标,分别是语音识别、自然语言处理、语音合成、对话系统和整体用户数据指标。enjoy最近,在饭团“AI产品经……
用不可描述之事修炼的AI们让这个世界不仅是代码和关键词,还有更复杂也更简单的人性。这篇文章的最高期望,是希望能为你理解AI与现实间的关系提供一个新的脑洞;最低期望,就是不要被删掉。正在审查的……
saybyeto《产品经理日报》,sayhelloto《产品嗨,大家好,我是小编daisy。一周不见,可有人想念我的《产品经理日报》呢?我相信是有的,正如下图这位小伙伴在周一那天没看到PM日报就跑去天天问留言:说真的,当同事……
App耗电分析与优化文章作者结合自身经验分享了关于APP耗电优化的相关知识,希望能够给你带来帮助。虽然市面上出现了各种大容量的电池或者快充技术,但是目前在没有新材料的支撑下,都不可能完全解决……
信息流战争升级,今日头条的如意算盘不好打流量红利行将结束,“水落”则“石出”,在爆炸性的用户增长开始放缓、竞争对手玩法日趋成熟的时候,今日头条究竟还能不能获得竞争优势?已经十分热闹的信息流的战争看起来远没有停止……
如何看待”得到”的野蛮生长?匮乏饥饿之人,只求快餐果腹,食物从何而来并不重要,又何来精与不精?得到逻辑思维毫无疑问,逻辑思维的成功,为后续得到的发展提供了可观的用户,也为其核心用户“拍了照”,……
10万媚俗女王咪蒙打造课程时,为何承诺“3年后可申请退款”?咪蒙承诺“3年后可申请退款”的课程背后,到底暗含的是什么样的逻辑?上午收到一条推送“咪蒙课程上线喜马拉雅FM,听课三年后加薪不超50可申请退款”,反正我是不信“我会因为这……
支付宝、微信、银联的移动支付三国之战(吴篇)移动支付领域尚未一统,厮杀不断,尚未可知“谁笑到最后,谁笑得最好”。吴之微信:微信凭借着庞大的社交基础,借微信红包之势,迅速在线下移动支付端站稳脚跟,迅速分的市场第二大的……
AI:连漫画都看不懂,谈什么毁灭世界?任何事物都有其局限性,AI也并非无所不能。作为一个AI垂直自媒体的作者,我工作中的很大一部分就是替AI“带路”,然后告诉人类读者们,你们的这项和那项工作都要被AI替代了。……
资深运营总监带路,多维度提升运营能力,冲刺年终奖做运营是一种什么样的体验?打杂、加班多;苦哈哈设计出的运营方案,用户就是不买单;自学了许多套路招数,但总觉得知识很零散,成长缓慢为什么大部分运营人都被这种苦恼围绕?……