🦥介绍 Unsloth Studio

使用 Unsloth Studio 在本地运行和训练 AI 模型。

今天,我们发布了 Unsloth Studio (测试版):一个开源、无代码的网页界面,用于在一个统一的 本地 界面中训练、运行和导出开放模型。

bolt快速开始star功能githubGithub

  • 在本地运行 GGUF 和 safetensor 模型于 Mac、Windows、Linux。

  • 训练 500+ 模型速度提升 2 倍,显存减少 70%(无精度损失)

  • 运行和训练文本、视觉、TTS 音频、嵌入模型

⭐ 功能

本地运行模型

搜索并运行 GGUF 和 safetensor 模型,具有 自愈工具 调用 / 网络搜索, 自动推理 参数调优, 代码执行API。上传图片、文档、音频、代码文件。

并排对比模型。由 llama.cpp + Hugging Face 提供支持,我们支持 多 GPU 推理 和大多数模型。

无代码训练

上传 PDF、CSV、JSON 文档或 YAML 配置并立即在 NVIDIA 上开始训练。Unsloth 的内核在 500+ 文本、视觉、TTS/音频和嵌入模型上优化 LoRA、FP8、FFT、PT。

微调最新的 LLM 如 Qwen3.5 和 NVIDIA Nemotron 3. 多 GPU 已自动工作,且新版本即将推出。

数据配方

数据配方 通过图节点工作流将您的文档转换为可用/合成数据集。上传非结构化或结构化文件,如 PDF、CSV 和 JSON。由 NVIDIA 提供支持的 Unsloth 数据配方 DataDesignerarrow-up-right,会自动将文档转换为您所需的格式。

可观测性

获得 完整可见性 以及对训练运行的控制。实时跟踪训练损失、梯度范数和 GPU 利用率,并按您的偏好自定义。

您甚至可以在手机等其他设备上查看训练进度。

导出 / 保存模型

导出任意模型,包括您微调的模型,为 safetensors 或 GGUF 格式,以便与 llama.cpp、vLLM、Ollama、LM Studio 等一起使用。

存储您的训练历史,以便您可以重新查看运行、再次导出并进行实验。

模型竞技场

与并 比较 2 个不同的 模型,例如一个基础模型和一个微调模型,以查看它们的输出差异。

只需加载您的第一个 GGUF/模型,然后第二个,就大功告成!推理将先为一个模型加载,然后为第二个模型加载。

隐私优先 + 安全

Unsloth Studio 可在您的计算机上 100% 离线和本地使用。

其基于令牌的认证,包括密码和 JWT 访问/刷新流程,可确保您的数据安全并由您掌控。

circle-exclamation

⚡ 快速开始

Unsloth Studio 可在 Windows、Linux、WSL 和 MacOS 上运行(目前仅限聊天)。

  • CPU: Unsloth 在没有 GPU 的情况下仍然可用,但仅用于 聊天 推理。

  • 训练: 在 NVIDIA GPU 上工作:RTX 30、40、50、Blackwell、DGX Spark/Station 等。

  • Mac: 与 CPU 类似——目前仅支持聊天功能。 MLX 训练即将推出。

  • 即将推出: 支持 Apple MLX, AMD,和 Intel.

  • 多 GPU: 已可工作,且即将有重大升级。

Windows、MacOS、Linux、WSL:

或者,使用我们的 Docker 镜像: unsloth/unsloth。阅读我们的 Docker 指南.

circle-exclamation

从源码 Git:

有关安装的更多详细信息,请访问 Unsloth Studio 安装 部分。 您还可以查看 NVIDIA 的 视频教程在此.

arrow-down-to-squareInstallationchevron-right

google Google Colab 笔记本

我们已创建一个 免费的 Google Colab 笔记本arrow-up-right ,以便您可以在 Colab 的 T4 GPU 上探索 Unsloth 的所有功能。您可以训练和运行大多数最多 22B 参数的模型,并在需要更大模型时切换到更大 GPU。只需点击“全部运行”,安装完成后界面应会弹出。

circle-exclamation

安装完成后,向下滚动到 开始 Unsloth Studio 并点击 打开 Unsloth Studio 在左侧白色框中显示:

seedling 工作流程

下面是 Unsloth Studio 的常见工作流程,可帮助您入门:

  1. 启动 Studio

  2. 从本地文件或受支持的集成加载模型。

  3. 从 PDF、CSV 或 JSONL 文件导入训练数据,或从头构建数据集。 数据配方.

  4. 中清理、优化并扩展您的数据集。

  5. 使用推荐预设开始训练或自行自定义配置。 与训练好的模型聊天并将其输出与基础模型进行比较。

本地保存或导出

video 到您已使用的技术栈。

您可以阅读我们对 Unsloth Studio 各个部分的深度解析:

comments-question 视频教程

常见问题 Unsloth 是否会收集或存储数据?

我们不会收集使用遥测。我们仅收集为兼容性所需的最少硬件信息,例如 GPU 类型和设备(例如 Mac)。Unsloth Studio 完全在本地离线运行。 Unsloth 现在是否在 AGPL-3.0 许可下? 不是。主 Unsloth 包仍然使用Apache 2.0 许可。只有某些可选组件,例如Unsloth Studio UI ,属于 AGPL-3.0

开源许可。 Unsloth 现在采用双重许可模式,代码库的某些部分使用 Apache 2.0 许可,而其他部分使用 AGPL-3.0 许可。这一结构有助于支持持续的 Unsloth 开发,同时保持项目开源并促进生态系统增长。 Studio 是否仅支持 LLM? 不是。Studio 支持一系列兼容 transformers 的模型家族,包括文本、多模态模型、文本转语音 、音频、嵌入

,以及 BERT 风格的模型。 我可以使用我自己的训练配置吗?

可以。导入 YAML 配置,Studio 会预填相关设置。 使用该界面需要训练模型吗?

不需要,您可以仅下载任何 GGUF 或模型,而无需对模型进行微调。

Unsloth 的未来

我们正在努力使开源 AI 尽可能易于访问。接下来 Unsloth 和 Unsloth Studio 将正式支持:多 GPU、Apple Silicon/MLX、AMD 和 Intel。提醒您这是 Unsloth Studio 的测试版,因此在接下来的几周里会有许多公告和改进。我们也在与 NVIDIA 密切合作,实现多 GPU 支持,以提供最佳且最简便的体验。

致谢:感谢名单(致谢)活动致谢))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))) 大力感谢 NVIDIA 和 Hugging Face 成为我们发布的一部分。同时也感谢所有早期 Unsloth Studio 测试者,我们非常感谢你们的时间和反馈。我们还要感谢 llama.cpp、PyTorch 以及 open model labs,为 Unsloth Studio 提供了实现所需的基础设施。

最后更新于

这有帮助吗?