IT商业科技网

首页 > AI >

ChatGPT低成本复现流程开源!单张消费级显卡、1.62GB显存可体验

来源:丽娟    时间:2023-02-17 17:10:51    量子位

  原标题:ChatGPT低成本复现流程开源!单张消费级显卡、1.62GB显存可体验

  2023年2月17日讯:首个开源的ChatGPT低成本复现流程来了!

  预训练、奖励模型训练、强化学习训练,一次性打通。

  最小demo训练流程仅需1.62GB显存,随便一张消费级显卡都能满足了。单卡模型容量最多提升10.3倍

  相比原生PyTorch,单机训练速度最高可提升7.73倍,单卡推理速度提升1.42倍,仅需一行代码即可调用

  对于微调任务,可最多提升单卡的微调模型容量3.7倍同时保持高速运行,同样仅需一行代码。

  要知道,ChatGPT火是真的火,复现也是真的难。

  毕竟ChatGPT是不开源的,市面上至今没有开源预训练权重、完全开源的低成本训练流程,而且千亿级别大模型的训练本身就是个难题。

  但ChatGPT军备赛已经愈演愈烈,为了抓住趋势,如谷歌等都在打造对标竞品。快速复现ChatGPT是应趋势所需。

  开源加速方案Colossal-AI正是为此而来。

  并且在提供开源完整复现流程的同时,把成本降了下来!

  开源地址:https://github.com/hpcaitech/ColossalAI

  降显存开销是关键

  ChatGPT的效果好,主要是由于在训练过程中引入了人类反馈强化学习(RLHF),但这也直接导致ChatGPT的复现训练难度飙升。

  其训练流程主要分为三个阶段:

  1、监督微调:从Prompt库中采样,收集其人工回答,利用这些数据来微调预训练大语言模型;

  2、奖励模型:从Prompt库中采样,使用大语言模型生成多个回答,人工对这些回答进行排序后,训练奖励模型(RM),来拟合人类的价值判断。

  3、基于第一阶段的监督微调模型和第二阶段的奖励模型,利用强化学习算法对大语言模型进一步训练。

△RLHF的三个阶段

  对于ChatGPT训练而言,第三阶段是核心部分。

  OpenAI采用了强化学习中近端策略优化算法(PPO),借此引入奖励信号,使得语言模型生成内容更加符合人类评判标准。

  但强化学习的引入,也意味着更多模型调用

  例如,使用基于Actor-Critic(AC)结构的PPO算法,需要在训练时进行Actor、Critic两个模型的前向推理和反向传播,以及监督微调模型、奖励模型的多次前向推理。

  在ChatGPT基础的InstructGPT论文中,Actor和监督微调模型都使用了1750亿参数的GPT-3系列模型,Critic和奖励模型则使用了60亿参数的GPT-3系列模型。

  如此大规模的模型参数,意味着想要启动原始ChatGPT训练流程,需要数千GB的显存开销,单张GPU显然无法容纳,常见的数据并行技术也不能搞定。

  即便引入张量并行、流水并行对参数进行划分,也需要至少64张80GB的A100作为硬件基础。而且流水并行本身并不适合AIGC的生成式任务,bubble和调度复杂会导致效率受限。

  单张消费级显卡都能体验

  Colossal-AI基于ZeRO,Gemini, LoRA, Chunk-based内存管理等方法,提出了一系列单卡、单机多卡、大规模并行解决方案。

  对于基于GPT-3系列模型的ChatGPT,Colossal-AI能用原本一半的硬件资源启动1750亿参数模型训练,从64卡降低到32卡

  如果继续用64卡,则将训练时间压缩到更短,节省训练成本、加速产品迭代。

  而为了能让更大范围的开发者体验复现ChatGPT,除了1750亿参数版本外,Colossal-AI还提供单卡单机4/8卡的类ChatGPT版本,以降低硬件限制。

  要知道,在单机多卡服务器上,即便把显卡规格提升为A100 80GB,由于ChatGPT的复杂性和内存碎片,PyTorch最大也只能启动基于GPT-L(774M)这样的小模型ChatGPT。

  用PyTorch原生的DistributedDataParallel (DDP) 进行多卡并行扩展至4卡或8卡,性能提升有限。

  Colossal-AI最高可提升单机训练速度7.73倍,单卡推理速度1.42倍,还可继续扩大规模并行。

  为了尽可能降低训练成本和上手门槛,Colossal-AI还提供了在单张GPU上即可尝试的ChatGPT训练流程。

  相比于PyTorch在约10万元的A100 80GB上,最大仅能启动7.8亿参数模型,Colossal-AI将单卡容量提升10.3倍至80亿参数

  对于基于1.2亿参数小模型的ChatGPT训练,最低仅需1.62GB显存任意单张消费级GPU即可满足。

  此外,Colossal-AI也致力于降低基于预训练大模型的微调任务成本。以ChatGPT可选的开源基础模型OPT为例,相比PyTorch,Colossal-AI可将提升单卡微调模型容量3.7倍(原始计算量显著增大),同时保持高速运行。

  一行代码快速上手

  到了具体操作部分,如上复现流程中的多个步骤,基于Colossal-AI开源方案,都能实现一行代码快速上手。

  先看模型使用方面。

  尽管ChatGPT背后的大语言模型GPT-3.5不开源,但如GPT、OPT、BLOOM等主流开源模型可作为替代。

  Colossal-AI为Hugging Face社区的这些模型,提供了开箱即用的ChatGPT复现代码,可覆盖三个阶段的训练。

  以GPT为例,添加一行代码指定使用Colossal-AI作为系统策略即可快速使用。

  fromchatgpt.nnimportGPTActor, GPTCritic, RewardModel

  fromchatgpt.trainerimportPPOTrainer

  fromchatgpt.trainer.strategiesimportColossalAIStrategy

  strategy = ColossalAIStrategy(stage=3, placement_policy='cuda')

  withstrategy.model_init_context():

  actor = GPTActor().cuda()

  critic = GPTCritic().cuda()

  initial_model = deepcopy(actor).cuda()

  reward_model = RewardModel(deepcopy(critic.model)).cuda()

  trainer = PPOTrainer(strategy, actor, critic, reward_model, initial_model, ...)

  trainer.fit(prompts)

  使用下列命令,即可快速启动单卡、单机多卡、1750亿版本训练,并测试各种性能指标(包括最大显存占用、吞吐率和TFLOPS等):

  # 使用单机单卡训练GPT2-S,使用最小的batch size,Colossal-AI Gemini CPU策略

  torchrun --standalone --nproc_pero_node1benchmark_gpt_dummy.py --model s --strategy colossalai_gemini_cpu --experience_batch_size1--train_batch_size1

  # 使用单机4卡训练GPT2-XL,使用Colossal-AI Zero2策略

  torchrun --standalone --nproc_per_node4benchmark_gpt_dummy.py --model xl --strategy colossalai_zero2

  # 使用4机32卡训练GPT-3,使用Colossal-AI Gemini CPU策略

  torchrun --nnodes4--nproc_per_node8\

  --rdzv_id=$JOB_ID --rdzv_backend=c10d --rdzv_endpoint=$HOST_NODE_ADDR \

  benchmark_gpt_dummy.py --model175b --strategy colossalai_gemini_cpu --experience_batch_

  背后原理如何?

  核心方案还是Colossal-AI

  它从诞生起就面向大模型应用,可基于PyTorch高效快速部署AI大模型训练和推理,是这一领域的明星项目了,GitHub Star超八千颗,并成功入选SC、AAAI、PPoPP、CVPR等国际AI与HPC顶级会议的官方教程。

  目前,Colossal-AI已成功帮助一家世界五百强企业,开发具备在线搜索引擎能力增强的类ChatGPT聊天机器人模型

  此前,它们还为Stable Diffusion、OPT、AlphaFold等前沿模型,提供了多样高效的大规模多维并行分布式解决方案。

  主创人员为加州伯克利大学杰出教授James Demmel和新加坡国立大学校长青年教授尤洋。

△Colossal-AI与当今主要开源项目同期开源数据对比

  具体到细节原理上,LoRA、ZeRO+Gemini是关键。

  低成本微调的LoRA

  在微调部分,Colossal-AI支持使用低秩矩阵微调(LoRA)方法。

  LoRA方法认为大语言模型是过参数化的,其在微调中的参数改变量是一个低秩的矩阵,可以将其分解为两个更小的的矩阵的乘积,即

  在微调时,固定大模型参数,只调整低秩矩阵参数,从而显著减小训练参数量。在微调之后,进行推理部署之前,只需要将参数加回原有矩阵即可,即

  ,不增加模型的推理延迟。

△LoRA示意图,仅需训练A、B

  减少内存冗余的ZeRO+Gemini

  Colossal-AI 支持使用无冗余优化器 (ZeRO) 来优化内存使用,这种方法可以有效减少内存冗余,并且相比传统的数据并行策略,不会牺牲计算粒度和通信效率,同时可以大幅提高内存使用效率。

  为了进一步提升 ZeRO 的性能,Colossal-AI 引入了自动Chunk机制

  通过将运算顺序上连续的一组参数存入同一个 Chunk中(Chunk 是一段连续的内存空间),可以确保每个 Chunk 的大小相同,从而提高内存使用效率。

  使用Chunk 方式组织内存可以保证 PCI-e 和 GPU-GPU之间的网络带宽得到有效利用,减小通信次数,同时避免潜在的内存碎片。

△Chunk机制

  此外,Colossal-AI的异构内存空间管理器Gemini支持将优化器状态从 GPU 卸载到 CPU ,以节省 GPU 内存占用。

  可以同时利用 GPU 内存、CPU 内存(由 CPU DRAM 或 NVMe SSD内存组成)来突破单GPU内存墙的限制,进一步扩展了可训练模型规模。

△通过ZeRO+Gemini提升硬件的模型容量

  One More Thing

  尽管此次开源包含了复现ChatGPT的完整算法流程和必要软件系统,但想要走到实际应用落地,还至少需要数据、算力等方面的支持。

  参考开源大模型BLOOM、开源AI画画工具Stable Diffusion的经验,这背后都需要包括个人开发者、算力、数据模型等可能合作方的支持共建——

  此前,超过1000个科学家联合发起、耗时一年多炼出了号称和GPT-3一样强大的语言模型BLOOM。还有AI画画趋势的头号明星Stable Diffusion,也是由Stability AI、EleutherAI和LAION多方联合完成的。

  复现ChatGPT也是如此,Colossal-AI正在发起这一开发活动。

  如果你对这项工作感兴趣or有好的想法,可通过以下方式与他们取得联系:

  在GitHub发布issue或提交PR

  加入Colossal-AI用户微信或Slack群交流

  ”填写合作提案

  发送合作提案到邮箱contact@hpcaitech.com

  传送门:

  开源地址:

  https://github.com/hpcaitech/ColossalAI

  参考链接:

  https://www.hpc-ai.tech/blog/colossal-ai-chatgpt

【责任编辑:】

声明:来源非IT商业科技网的作品均转载自其它媒体,转载请尊重版权保留出处,一切法律责任自负。文章内容仅供阅读,不构成投资建议,请谨慎对待。投资者据此操作,风险自担。

频道精选
ARMGPU漏洞暴露安卓升级困局,谷歌Project Zero团队谴责厂商偷懒行

ARMGPU漏洞暴露安卓升级困局,谷歌Project Zero团队谴责厂商偷懒行

谷歌的ProjectZero团队的终极目标是消除世界上所有的零日漏洞,而鉴于近期爆发的ARMGPU漏洞
ARM 手机 GPU 漏洞 谷歌
决战辅助驾驶下半场 极狐、长城、小鹏等车企角逐城市NOA

决战辅助驾驶下半场 极狐、长城、小鹏等车企角逐城市NOA

今年下半年以来,小鹏、极狐、吉利、长城等车企纷纷推出搭载城市 NOA功能产品。
极狐 长城 小鹏 汽车
三星Galaxy S23 Ultra或搭载超声波指纹解锁:识别精度更高更安全

三星Galaxy S23 Ultra或搭载超声波指纹解锁:识别精度更高更安全

随着第二代骁龙8旗舰芯片的正式亮相,一大波搭载该芯片的顶级旗舰很快就将迎来第一波大混战
三星 通信 超声波
分手在即 网易给玩家发问卷调查:你还会玩暴雪游戏吗?

分手在即 网易给玩家发问卷调查:你还会玩暴雪游戏吗?

据官方介绍,2023年1月24日0时起,正式停止暴雪游戏产品的运营,关闭战网登录以及所有游戏服务器,同时关闭客户端下载。
网易 游戏 暴雪游戏
软银研发出以无人机探测灾害被埋者手机信号的技术

软银研发出以无人机探测灾害被埋者手机信号的技术

日本软银现公布了一项新技术,可通过小型无人机探测灾害中被沙土瓦砾掩埋者的智能手机信号并锁定位置。
软银 互联网 手机信号
马斯克:若推特被谷歌苹果下架 将生产属于自己的智能手机

马斯克:若推特被谷歌苹果下架 将生产属于自己的智能手机

据国外媒体报道,马斯克在推特回复网友称,如果谷歌和苹果将推特从应用商店中移除,他将生产一款自己的智能手机作为替代品。
马斯克 手机 谷歌 智能手机
消息称美国FTC可能提起诉讼,阻止微软以690亿美元收购动视暴雪

消息称美国FTC可能提起诉讼,阻止微软以690亿美元收购动视暴雪

据Politico周三援引三位知情人士的话报道,美国联邦贸易委员会(FTC)可能会提起反垄断诉讼,以阻止微软公司对视频游戏发行商动视暴雪公司以690亿美元进行收购。
微软 互联网 动视暴雪
挖台积电墙角 三星3nm喜迎4大客户:百度也有参与

挖台积电墙角 三星3nm喜迎4大客户:百度也有参与

三星也在想办法提升良率,不过更关键的还是如何拉到大客户,韩国媒体表示三星在这方面也不是没有进展,除了三星自己的芯片部门,还锁定了四大客户。
台积电 通信 百度 三星
两大服饰“抄袭惯犯”对簿公堂:江南布衣诉森马开庭,同病相

两大服饰“抄袭惯犯”对簿公堂:江南布衣诉森马开庭,同病相

昨日,江南布衣服饰与浙江森马服饰的案件开庭了。双方就著作权权属、侵权及不正当竞争纠纷,对簿公堂。
江南布衣 互联网 森马
氢燃料电池汽车在韩国已注册2.7万辆 在新能源汽车中占近2%

氢燃料电池汽车在韩国已注册2.7万辆 在新能源汽车中占近2%

据国外媒体报道,在发展新能源汽车的浪潮中,除了混合动力汽车和纯电动汽车,通过氢与氧的化学反应而产生电能进而驱动车辆的氢燃料电池汽车。
氢燃料 汽车 新能源汽车

2017-2019 Copyright © IT商业科技网 备案许可证号豫ICP备18040629号 豫公网安备110102003388号

技术支持:沿亮云科技