🦥介绍 Unsloth Studio

使用 Unsloth Studio 在本地运行和训练 AI 模型。

今天,我们发布了 Unsloth Studio (测试版):一个开源的无代码 web 界面,用于在一个统一的 本地 界面中训练、运行和导出开源模型。

bolt快速开始star功能githubGithub

  • 本地运行 GGUF 和 safetensor 模型在 Mac、Windows、Linux 上。

  • 训练 500+ 模型速度提高 2 倍,显存减少 70%(无精度损失)

  • 运行和训练文本、视觉、TTS 音频、嵌入模型

circle-info

3 月 17 日 更新: 更稳定的安装说明 +

  • Claude Artifacts 可工作,因此 HTML 可以像在聊天中运行的贪吃蛇游戏一样被执行

  • 工具调用准确性提升 30%+(特别是小模型)+ 工具调用计时器

  • 工具 + 网络搜索输出可以保存 + 切换自动修复工具开/关

  • 大量错误修复 - Windows CPU 可用,Mac 更无缝、更快且安装更小

⭐ 特性

本地运行模型

搜索并运行 GGUF 和 safetensor 模型,带有 自我修复工具 调用 / 网络搜索, 自动推理 参数调优, 代码执行 (Bash + Python)、API(即将推出)。上传图片、文档、音频、代码。

并排对比模型。由 llama.cpp + Hugging Face 提供支持,我们支持 多 GPU 推理 和大多数模型。

无代码训练

上传 PDF、CSV、JSON 文档,或 YAML 配置并在 NVIDIA 上立即开始训练。Unsloth 的内核在 500+ 文本、视觉、TTS/音频和嵌入模型上优化 LoRA、FP8、FFT、PT。

微调最新的 LLM,例如 Qwen3.5 和 NVIDIA Nemotron 3. 多 GPU 自动工作,且会有新版本推出。

数据配方

数据配方 通过图节点工作流将你的文档转换为可用/合成的数据集。上传非结构化或结构化文件,如 PDF、CSV 和 JSON。由 NVIDIA Nemo 提供支持的 Unsloth 数据配方 数据设计器arrow-up-right会自动将文档转换为你想要的格式。

可观测性

获取 完整可视化 并控制你的训练运行。实时跟踪训练损失、梯度范数和 GPU 利用率,并可根据喜好自定义。

你甚至可以在手机等其他设备上查看训练进度。

导出 / 保存模型

导出任何模型,包括你微调的模型,导出为 safetensors 或 GGUF 以在 llama.cpp、vLLM、Ollama、LM Studio 等中使用。

存储你的训练历史,因此你可以重新查看运行、再次导出并进行实验。

模型竞技场

与并 比较 2 个不同的 模型,例如基础模型和微调模型,以查看它们的输出差异。

只需加载你的第一个 GGUF/模型,然后加载第二个,瞧!推理将先为一个模型加载,然后是第二个。

隐私优先 + 安全

Unsloth Studio 可以 100% 离线并在你的电脑本地使用。

其基于令牌的认证,包括密码和 JWT 访问/刷新流程,可保持你的数据安全并由你控制。

circle-exclamation

⚡ 快速开始

Unsloth Studio 可在 Windows、Linux、WSL 和 MacOS(目前仅限聊天)上运行。

  • CPU: Unsloth 在没有 GPU 的情况下仍然可用,但仅用于 聊天 推理。

  • 训练: 在 NVIDIA GPU 上可用:RTX 30、40、50、Blackwell、DGX Spark/Station 等。

  • Mac: 与 CPU 类似 - 目前仅支持聊天功能。 MLX 训练即将推出。

  • AMD: 聊天可用。使用 Unsloth Core进行训练。Studio 支持即将推出。

  • 即将到来: 对以下的训练支持 Apple MLX, AMD,以及 Intel.

  • 多 GPU: 已可用,且有一次重大升级正在进行中。

MacOS、Linux、WSL:

对于 MacOS,请确保你已安装 cmake 如果没有,请运行 brew install cmake.

Windows PowerShell:

Docker:

使用我们的官方 Docker 镜像: unsloth/unslotharrow-up-right 目前适用于 Windows、WSL 和 Linux。MacOS 支持即将推出。

启动 Unsloth

MacOS、Linux、WSL:

Windows:

circle-exclamation

有关安装的更多详细信息,请访问 Unsloth Studio 安装 部分。 你也可以查看 NVIDIA 的 视频教程在此处.

arrow-down-to-squareInstallationchevron-right

google Google Colab 笔记本

我们创建了一个 免费的 Google Colab 笔记本arrow-up-right ,让你可以在 Colab 的 T4 GPU 上探索 Unsloth 的所有功能。你可以训练和运行最多 22B 参数的大多数模型,并在需要更大模型时切换到更大的 GPU。只需点击“全部运行”,安装完成后界面应会弹出。

circle-exclamation

安装完成后,滚动到 启动 Unsloth Studio 并点击 打开 Unsloth Studio 在左侧白色框中显示:

circle-exclamation

seedling 工作流程

以下是 Unsloth Studio 的常见工作流程,帮助你入门:

  1. 从本地文件或受支持的集成中加载模型。

  2. 从 PDF、CSV 或 JSONL 文件导入训练数据,或从头构建数据集。

  3. 中清理、精炼并扩展你的数据集

  4. 使用推荐的预设开始训练或自行自定义配置。

到你已经使用的本地堆栈。

video 你可以阅读我们对 Unsloth Studio 各部分的详细深度解析:

视频教程

以下是 NVIDIA 制作的入门视频教程,帮助你开始使用 Studio:

comments-question 如何安装 Unsloth Studio 视频教程

常见问题 Unsloth 会收集或存储数据吗?

Unsloth 不会收集使用遥测。Unsloth 仅收集为兼容性所需的最少硬件信息,例如 GPU 类型和设备(例如 Mac)。Unsloth Studio 100% 离线并在本地运行。 如何使用我之前从 Hugging Face 下载的旧模型/现有模型? 可以,你可以使用之前从 Hugging Face 等下载的现有或旧模型或 GGUF。阅读我们的.

说明在此处 Unsloth Studio 是否支持兼容 OpenAI 的 API?

是的,对我们的数据配方是支持的。对于推理我们正在开发此功能,并希望尽快发布支持,可能就在本周,敬请关注! Unsloth 现在是否在 AGPL-3.0 许可下? Unsloth 使用 Apache 2.0 和 AGPL-3.0 的双重许可模式。核心 Unsloth 包仍然在arrow-up-rightApache 2.0 许可下,而某些可选组件,例如 Unsloth Studio UI 则在arrow-up-right.

AGPL-3.0

许可下。 这种结构有助于支持持续的 Unsloth 开发,同时保持项目开源并使更广泛的生态系统能够继续发展。 Studio 只支持 LLM 吗? 不是。Studio 支持一系列受支持的 transformers兼容的模型家族,包括文本、多模态模型、 文本到语音、音频、

嵌入 ,以及类 BERT 的模型。

我可以使用我自己的训练配置吗? 可以。导入 YAML 配置,Studio 会预填相关设置。

使用该界面是否必须训练模型?

不需要,你可以直接下载任何 GGUF 或模型,而无需对任何模型进行微调。

Unsloth 的未来

我们正在努力使开源 AI 尽可能易于访问。接下来对 Unsloth 和 Unsloth Studio,我们将发布对多 GPU、Apple Silicon/MLX、AMD 和 Intel 的官方支持。提醒一下,这是 Unsloth Studio 的测试版,因此在接下来的几周里请期待大量公告和改进。我们还在与 NVIDIA 密切合作以提供最佳且最简单的多 GPU 支持体验。

最后更新于

这有帮助吗?