🦥介绍 Unsloth Studio

使用 Unsloth Studio 在本地运行和训练 AI 模型。

今天,我们发布了 Unsloth Studio (测试版):一个开源、免代码的网页用户界面,用于在一个统一的 本地 界面中训练、运行和导出开源模型。

bolt快速开始star功能githubGithub

  • 本地运行 GGUF 和 safetensor 模型在 Mac、Windows、Linux 上。

  • 训练 500+ 模型速度提升 2 倍,显存减少 70%(无准确度损失)

  • 运行和训练文本、视觉、TTS 音频、嵌入模型

⭐ 功能亮点

本地运行模型

搜索并运行 GGUF 和 safetensor 模型,配合 自愈工具 调用 / 网络搜索, 自动推理 参数调优, 代码执行API。上传图片、文档、音频、代码文件。

并排对比模型。由 llama.cpp + Hugging Face 提供支持,我们兼容 多 GPU 推理 和大多数模型。

免代码训练

上传 PDF、CSV、JSON 文档或 YAML 配置并立即在 NVIDIA 上开始训练。Unsloth 的内核在 500+ 文本、视觉、TTS/音频和嵌入模型上优化 LoRA、FP8、FFT、PT。

微调最新的 LLM,如 Qwen3.5 和 NVIDIA Nemotron 3. 多 GPU 已自动生效,且即将推出新版。

数据配方

数据配方 通过图节点工作流将您的文档转换为可用/合成的数据集。上传非结构化或结构化文件,如 PDF、CSV 和 JSON。由 NVIDIA 提供支持的 Unsloth 数据配方 DataDesignerarrow-up-right,会自动将文档转换为您需要的格式。

可观测性

获得 完整可见性 并掌控您的训练运行。实时跟踪训练损失、梯度范数和 GPU 利用率,并按需自定义。

您甚至可以在手机等其他设备上查看训练进度。

导出 / 保存模型

导出任何模型,包括您微调后的模型,保存为 safetensors 或 GGUF,以便与 llama.cpp、vLLM、Ollama、LM Studio 等一起使用。

存储您的训练历史,因此您可以重新访问运行记录、再次导出并进行实验。

模型竞技场

与模型聊天并 比较两个不同的 模型,例如基模型和微调模型,以查看它们输出的差异。

只需加载第一个 GGUF/模型,然后加载第二个,就完成了!推理将先为一个模型加载,然后为第二个模型加载。

隐私优先 + 安全

Unsloth Studio 可在您的计算机上 100% 离线、本地使用。

其基于令牌的认证,包括密码和 JWT 访问 / 刷新流程,可确保您的数据安全并由您控制。

circle-exclamation

⚡ 快速开始

Unsloth Studio 可在 Windows、Linux、WSL 和 MacOS 上运行(目前仅限聊天)。

  • CPU: 即使没有 GPU,Unsloth 仍然可用,但只限于 聊天 推理。

  • 训练: 适用于 NVIDIA GPU:RTX 30、40、50、Blackwell、DGX Spark/Station 等。

  • Mac: 与 CPU 类似——目前仅支持聊天功能。 MLX 训练即将推出。

  • 即将到来: 支持 Apple MLX, AMD,以及 Intel.

  • 多 GPU: 已可用,且即将迎来重大升级。

Windows、MacOS、Linux、WSL:

我们的 Docker 镜像仍在开发中,今天晚些时候将可用: unsloth/unsloth。阅读我们的 Docker 指南.

circle-exclamation

从源码获取 Git:

有关安装的更多详细信息,请访问 Unsloth Studio 安装 部分。 您也可以查看 NVIDIA 的 视频教程在这里.

arrow-down-to-squareInstallationchevron-right

google Google Colab 笔记本

我们已经创建了一个 免费的 Google Colab 笔记本arrow-up-right ,以便您可以在 Colab 的 T4 GPU 上探索 Unsloth 的所有功能。您可以训练和运行大多数最多到 22B 参数的模型,并可为更大的模型切换到更大 GPU。只需点击“全部运行”,安装完成后 UI 应会弹出。

circle-exclamation

安装完成后,向下滚动到 启动 Unsloth Studio 并点击 打开 Unsloth Studio 在左侧白色框中显示:

seedling 工作流程

以下是一个常见的 Unsloth Studio 工作流程,以帮助您入门:

  1. 启动 Studio

  2. 从本地文件或受支持的集成加载模型。

  3. 从 PDF、CSV 或 JSONL 文件导入训练数据,或从头构建数据集。 数据配方.

  4. 中清理、精炼并扩展您的数据集。

  5. 使用推荐预设开始训练,或自行自定义配置。 与训练好的模型聊天并将其输出与基模型进行比较。

本地保存或导出

video 到您已使用的技术栈中。

您可以阅读我们针对 Unsloth Studio 每个部分的详细深度解析:

comments-question 视频教程

常见问题 Unsloth 会收集或存储数据吗?

我们不收集使用遥测。我们仅收集为兼容性所需的最少硬件信息,例如 GPU 类型和设备(如 Mac)。Unsloth Studio 在 100% 离线、本地运行。 Unsloth 现在是否在 AGPL-3.0 许可下? 不是。主要的 Unsloth 包仍然采用Apache 2.0 许可。只有某些可选组件,例如Unsloth Studio UI ,采用 AGPL-3.0

开源许可。 Unsloth 现在采取双重许可策略,代码库的某些部分采用 Apache 2.0 许可,而其他部分采用 AGPL-3.0 许可。此结构有助于支持持续的 Unsloth 开发,同时保持项目开源并促进生态系统成长。 Studio 只支持 LLM 吗? 不是。Studio 支持一系列兼容 transformers 的模型家族,包括文本、多模态模型、文本转语音 、音频、嵌入

,以及 BERT 风格模型。 我可以使用我自己的训练配置吗?

可以。导入 YAML 配置,Studio 将预填相关设置。 使用该 UI 是否必须训练模型?

不需要,您可以直接下载任何 GGUF 或模型,而无需对任何模型进行微调。

Unsloth 的未来

我们正在努力使开源 AI 尽可能可访问。下一步针对 Unsloth 和 Unsloth Studio,我们将正式支持:多 GPU、Apple Silicon/MLX、AMD 和 Intel。提醒一下,这是 Unsloth Studio 的测试版,因此在接下来的几周内预计会有大量公告和改进。我们也正与 NVIDIA 密切合作,针对多 GPU 支持以提供最佳且最简单的体验。

致谢名单(鸣谢)‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎)‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎"‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎"‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎‎\n非常感谢 NVIDIA 和 Hugging Face 成为我们发布的一部分。也感谢所有早期 Unsloth Studio 的测试者,我们非常感激你们的时间和反馈。我们还要感谢 llama.cpp、PyTorch 和 open model labs 提供了使 Unsloth Studio 成为可能的基础设施。

最后更新于

这有帮助吗?