使用 Hugging Face Jobs 部署

使用 Hugging Face Jobs 与 Codex / Claude Code 一起微调 LFM 的部署,需使用 SKILL。

本指南介绍如何使用 Unslotharrow-up-rightLiquid LFM2.5 通过像 Claude Code & OpenAI Codex这样的编码代理进行快速 LLM 微调。与标准方法相比,Unsloth 提供约 2 倍更快的训练速度和约 60% 的显存使用减少。

您需要

安装技能

Claude Code

Claude Code 通过其 插件系统arrow-up-right.

  1. 添加市场:

/plugin marketplace add huggingface/skills
  1. 在以下位置浏览可用的技能: 发现 选项卡:

/plugin
  1. 安装模型训练技能:

/plugin install hugging-face-model-trainer@huggingface-skills

欲了解更多详情,请参阅 Claude Code 插件 文档arrow-up-right 以及 技能 文档arrow-up-right.

Codex

Codex 通过 AGENTS.mdarrow-up-right 文件和 .agents/skills/arrow-up-right 目录来发现技能。

使用以下命令安装单个技能 $skill-installer

欲了解更多详情,请参阅 Codex 技能 文档arrow-up-right 以及 AGENTS.md 指南arrow-up-right.

快速开始

技能安装完成后,请让您的编码代理训练一个模型。我们正在使用 Liquid LFM2.5

代理将基于技能中的一个 示例生成训练脚本arrow-up-right,将训练提交到 HF Jobs,并通过 Trackio 提供监控链接。

使用 Hugging Face Jobs

训练作业将在 Hugging Face Jobsarrow-up-right 上运行 — 完全托管的云 GPU。如果您熟悉 Google Colab 积分,Hugging Face Jobs 也提供类似的积分系统。它是按使用付费的结构,或者您可以事先获得积分。代理会:

  1. 生成带内联依赖项的 UV 脚本

  2. 通过 hf CLI

  3. 将其提交到 HF Jobs

  4. 报告作业 ID 和监控 URL

训练完成的模型会被推送到您的 Hugging Face Hub 仓库

示例训练脚本

trainer.push_to_hub()

使用 Hugging Face Jobs 进行训练的费用如下:
模型规模
推荐 GPU

大约 费用/小时

<1B 参数

~$0.40

t4-small

1-3B 参数

~$0.60

t4-medium

3-7B 参数

~$1.00

a10g-small

7-13B 参数

~$3.00

a10g-large 有关 Hugging Face 空间定价的完整概述,请查看本指南arrow-up-right.

此处

  • 与编码代理协作的提示 明确指定要使用的模型和数据集并包含 Hub ID(例如,, Qwen/Qwen2.5-0.5Btrl-lib/Capybara

  • )。代理将搜索并验证这些组合。

  • 如果您希望使用 Unsloth,请明确提及。否则代理会根据模型和预算自行决定框架。

  • 在启动大型作业前请先询问费用估算

  • 请求 Trackio 监控以获得实时损失曲线

提交后请让代理检查日志以查看作业状态

最后更新于

这有帮助吗?