🦥介绍 Unsloth Studio
使用 Unsloth Studio 在本地运行和训练 AI 模型。
今天,我们推出了 Unsloth Studio (测试版):一个开源的、无代码的网页界面,用于在一个统一的 本地 界面中训练、运行和导出开放模型。
在本地运行 GGUF 和 safetensor 模型于 Mac、Windows、Linux。
训练 500+ 模型速度提升 2 倍,显存减少 70%(无精度损失)
运行和训练文本、视觉、TTS 音频、嵌入模型
3 月 17 日更新: 新的更稳定安装说明 +
Claude Artifacts 可使 HTML 在聊天中像贪吃蛇游戏一样执行
+30% 更准确的工具调用,尤其对小模型 + 工具调用计时器
工具 + 网络搜索输出可保存 + 切换自动修复工具开/关
许多错误修复 - Windows CPU 可用,Mac 更无缝、更快且安装包更小

MacOS 和 CPU 适用于 聊天 GGUF 推理。MLX 训练即将推出。
无需数据集。 自动创建数据集 来自 PDF、CSV、JSON、DOCX、TXT 文件。
导出或保存 你的模型为 GGUF、16 位 safetensor 等格式。
自动推理参数 调优并编辑聊天模板。
⭐ 功能亮点
在本地运行模型
搜索并运行 GGUF 和 safetensor 模型,具备 自我修复工具 调用 / 网络搜索, 自动推理 参数调优, 代码执行 以及 API(即将推出)。上传图片、文档、音频、代码文件。
并排对比模型。由 llama.cpp + Hugging Face 提供支持,我们支持 多 GPU 推理 和大多数模型。

无代码训练
上传 PDF、CSV、JSON 文档或 YAML 配置并在 NVIDIA 上立即开始训练。Unsloth 的内核在 500+ 文本、视觉、TTS/音频和嵌入模型上优化 LoRA、FP8、FFT、PT。
微调最新的大型语言模型,例如 Qwen3.5 和 NVIDIA Nemotron 3. 多 GPU 已自动工作,且有新版本在开发中。

数据配方
数据配方 通过图节点工作流将你的文档转换为可用/合成数据集。上传非结构化或结构化文件,如 PDF、CSV 和 JSON。由 NVIDIA 提供支持的 Unsloth 数据配方 DataDesigner,可自动将文档转换为你所需的格式。


导出 / 保存模型
导出任何模型,包括你微调过的模型,至 safetensors 或 GGUF,以便与 llama.cpp、vLLM、Ollama、LM Studio 等一起使用。
存储你的训练历史,因此你可以重新查看运行、再次导出并进行实验。


请注意这是 测试版 的 Unsloth Studio 版本。请期待在未来几天和几周内出现许多改进、修复和新功能。我们正在积极处理的一个问题是预编译的 llama.cpp 二进制文件,以显著加快安装时间。
⚡ 快速开始
Unsloth Studio 可在 Windows、Linux、WSL 和 MacOS 上运行(目前仅限聊天)。
CPU: 即使没有 GPU,Unsloth 仍然可用,但仅用于 聊天 推理。
训练: 在 NVIDIA GPU 上工作:RTX 30、40、50、Blackwell、DGX Spark/Station 等。
Mac: 类似于 CPU —— 目前仅支持聊天功能。 MLX 训练即将推出。
AMD: 聊天功能可用。使用 Unsloth Core进行训练。Studio 支持即将到来。
即将推出: 对以下项的训练支持: Apple MLX, AMD,以及 Intel.
多 GPU: 已可使用,且将迎来重大升级。
MacOS、Linux 或 WSL 设置(一次性):
Windows PowerShell(一次性):
首次安装可能需要 5-10 分钟。这是正常的,因为 llama.cpp 需要编译二进制文件。我们正在准备预编译二进制文件,这样下次就不会花那么长时间。
然后在 MacOS、Linux 或 WSL 上完成设置后每次运行 Studio:
或用于 Windows Powershell:
Docker:
我们的 Docker 镜像 现在可用于 Studio!我们正在努力实现对 Mac 的兼容性 unsloth/unsloth。请阅读我们的 Docker 指南.
有关安装的更多详细信息,请访问 Unsloth Studio 安装 部分。 你也可以查看 NVIDIA 的 视频教程在此.
Installation Google Colab 笔记本
我们创建了一个 免费 Google Colab 笔记本 ,以便你可以在 Colab 的 T4 GPU 上探索 Unsloth 的所有功能。你可以训练和运行大多数高达 22B 参数的模型,并在需要更大模型时切换到更大的 GPU。只需点击“运行全部”,安装完成后界面应会弹出。
在 T4 GPU 上编译 llama.cpp 需要 30 分钟以上,因此我们建议使用更大的 GPU 以获得更快速度。
安装完成后,滚动到 启动 Unsloth Studio 并点击 打开 Unsloth Studio 在左侧白色框中显示:

有时 Studio 链接可能返回错误。这是因为 Google Colab 期望你停留在 Colab 页面;如果检测到不活动,可能会关闭 GPU 会话。
工作流程
以下是让你上手的常见 Unsloth Studio 工作流程:
从 安装说明.
启动 Studio
从本地文件或受支持的集成加载模型。
从 PDF、CSV 或 JSONL 文件导入训练数据,或从头构建数据集。 数据配方.
在
中清理、精炼并扩展你的数据集。
使用推荐预设开始训练,或自行自定义配置。 与训练好的模型聊天并将其输出与基础模型进行比较。
保存或导出
到本地你已在用的堆栈。
你可以阅读我们关于 Unsloth Studio 各部分的深入文章:
视频教程
以下是 NVIDIA 制作的入门视频教程:
如何安装 Unsloth Studio 视频教程 常见问题
Unsloth 会收集或存储数据吗? Unsloth 不会收集使用遥测。Unsloth 仅收集为兼容性所需的最少硬件信息,例如 GPU 类型和设备(例如 Mac)。Unsloth Studio 在本地 100% 离线运行。 如何使用我之前从 Hugging Face 下载的旧模型 / 现有模型?.
是的,你可以使用以前从 Hugging Face 等下载的现有或旧模型或 GGUF。请阅读我们的 此处说明
Unsloth Studio 是否支持 OpenAI 兼容的 API? 是的,对于我们的数据配方是支持的。对于推理我们正在开发中,并希望尽快(可能在本周)发布支持,敬请关注! Unsloth 现在是否采用 AGPL-3.0 许可?Unsloth 使用 Apache 2.0 和 AGPL-3.0 的双重许可模式。核心 Unsloth 包仍然以 Apache 2.0.
许可发布,而某些可选组件,例如 Unsloth Studio UI 则以
AGPL-3.0
许可发布。 这种结构有助于支持持续的 Unsloth 开发,同时保持项目开源并使更广泛的生态系统能够继续成长。 Studio 仅支持 LLM 吗? 不是。Studio 支持一系列受支持的transformers 兼容模型族,包括文本、多模态模型、文本到语音
、音频、 嵌入
,以及 BERT 风格模型。 我可以使用自己的训练配置吗?
可以。导入 YAML 配置,Studio 会预填相关设置。
使用该界面是否需要训练模型?
不需要,你可以直接下载任何 GGUF 或模型,无需对任何模型进行微调。
Unsloth 的未来方向是什么?

最后更新于
这有帮助吗?


