免费 GPU 或廉价算力
1. 显卡需求和推荐模型
使用 int4 + QLora 训练(效果并不会比Full-finetuning差多少,lora rank设置较大且应用到所有层)
8K 上下文时,显存16GB的显卡则可以训练 20B 以下模型,显存24GB的显卡则可以训练 32B(含)以下模型。
推荐微调 1-7B 模型。推荐性价比显卡:4090,计算能力和显存带宽都足够好,比L40等商业卡还好用。
2. 服务商
3. 其他
建议开通对象存储服务(百度云、阿里云等),将打包好的 Docker 训练镜像、训练结果、数据集、工作目录等持久化到对象存储中。
国内节点配置要点:
免费 GPU 或廉价算力
1. 显卡需求和推荐模型
使用 int4 + QLora 训练(效果并不会比Full-finetuning差多少,lora rank设置较大且应用到所有层)
8K 上下文时,显存16GB的显卡则可以训练 20B 以下模型,显存24GB的显卡则可以训练 32B(含)以下模型。
推荐微调 1-7B 模型。推荐性价比显卡:4090,计算能力和显存带宽都足够好,比L40等商业卡还好用。
2. 服务商
3. 其他
建议开通对象存储服务(百度云、阿里云等),将打包好的 Docker 训练镜像、训练结果、数据集、工作目录等持久化到对象存储中。
国内节点配置要点: