🦥介绍 Unsloth Studio
使用 Unsloth Studio 在本地运行和训练 AI 模型。
今天,我们发布了 Unsloth Studio (测试版):一个开源、免代码的网页用户界面,用于在一个统一的 本地 界面中训练、运行和导出开源模型。
本地运行 GGUF 和 safetensor 模型在 Mac、Windows、Linux 上。
训练 500+ 模型速度提升 2 倍,显存减少 70%(无准确度损失)
运行和训练文本、视觉、TTS 音频、嵌入模型

MacOS 和 CPU 适用于 聊天 GGUF 推理。MLX 训练即将推出。
无需数据集。 自动创建数据集 来自 PDF、CSV、JSON、DOCX、TXT 文件。
导出或保存 您的模型为 GGUF、16 位 safetensor 等格式。
自动推理参数 调优并编辑聊天模板。
⭐ 功能亮点
本地运行模型
搜索并运行 GGUF 和 safetensor 模型,配合 自愈工具 调用 / 网络搜索, 自动推理 参数调优, 代码执行 和 API。上传图片、文档、音频、代码文件。
并排对比模型。由 llama.cpp + Hugging Face 提供支持,我们兼容 多 GPU 推理 和大多数模型。

免代码训练
上传 PDF、CSV、JSON 文档或 YAML 配置并立即在 NVIDIA 上开始训练。Unsloth 的内核在 500+ 文本、视觉、TTS/音频和嵌入模型上优化 LoRA、FP8、FFT、PT。
微调最新的 LLM,如 Qwen3.5 和 NVIDIA Nemotron 3. 多 GPU 已自动生效,且即将推出新版。

数据配方
数据配方 通过图节点工作流将您的文档转换为可用/合成的数据集。上传非结构化或结构化文件,如 PDF、CSV 和 JSON。由 NVIDIA 提供支持的 Unsloth 数据配方 DataDesigner,会自动将文档转换为您需要的格式。


导出 / 保存模型
导出任何模型,包括您微调后的模型,保存为 safetensors 或 GGUF,以便与 llama.cpp、vLLM、Ollama、LM Studio 等一起使用。
存储您的训练历史,因此您可以重新访问运行记录、再次导出并进行实验。


请注意这是 测试版 的 Unsloth Studio 版本。请期待在接下来的几天和几周内出现大量改进、修复和新功能。我们正在积极解决的一个问题是预编译的 llama.cpp 二进制文件,以显著加快安装时间。
⚡ 快速开始
Unsloth Studio 可在 Windows、Linux、WSL 和 MacOS 上运行(目前仅限聊天)。
CPU: 即使没有 GPU,Unsloth 仍然可用,但只限于 聊天 推理。
训练: 适用于 NVIDIA GPU:RTX 30、40、50、Blackwell、DGX Spark/Station 等。
Mac: 与 CPU 类似——目前仅支持聊天功能。 MLX 训练即将推出。
即将到来: 支持 Apple MLX, AMD,以及 Intel.
多 GPU: 已可用,且即将迎来重大升级。
Windows、MacOS、Linux、WSL:
我们的 Docker 镜像仍在开发中,今天晚些时候将可用: unsloth/unsloth。阅读我们的 Docker 指南.
首次安装可能需要 5-10 分钟。这是正常的,因为 llama.cpp 需要编译二进制文件。我们正在制作预编译二进制文件,这样下次就不会花那么长时间。
从源码获取 Git:
有关安装的更多详细信息,请访问 Unsloth Studio 安装 部分。 您也可以查看 NVIDIA 的 视频教程在这里.
Installation Google Colab 笔记本
我们已经创建了一个 免费的 Google Colab 笔记本 ,以便您可以在 Colab 的 T4 GPU 上探索 Unsloth 的所有功能。您可以训练和运行大多数最多到 22B 参数的模型,并可为更大的模型切换到更大 GPU。只需点击“全部运行”,安装完成后 UI 应会弹出。
在 T4 GPU 上,llama.cpp 的编译将花费 40 分钟以上,因此我们建议使用更大的 GPU 以获得更快速度。
安装完成后,向下滚动到 启动 Unsloth Studio 并点击 打开 Unsloth Studio 在左侧白色框中显示:

工作流程
以下是一个常见的 Unsloth Studio 工作流程,以帮助您入门:
从 安装说明.
启动 Studio
从本地文件或受支持的集成加载模型。
从 PDF、CSV 或 JSONL 文件导入训练数据,或从头构建数据集。 数据配方.
在
中清理、精炼并扩展您的数据集。
使用推荐预设开始训练,或自行自定义配置。 与训练好的模型聊天并将其输出与基模型进行比较。
本地保存或导出
到您已使用的技术栈中。
您可以阅读我们针对 Unsloth Studio 每个部分的详细深度解析:
视频教程
常见问题 Unsloth 会收集或存储数据吗?
我们不收集使用遥测。我们仅收集为兼容性所需的最少硬件信息,例如 GPU 类型和设备(如 Mac)。Unsloth Studio 在 100% 离线、本地运行。 Unsloth 现在是否在 AGPL-3.0 许可下? 不是。主要的 Unsloth 包仍然采用Apache 2.0 许可。只有某些可选组件,例如Unsloth Studio UI ,采用 AGPL-3.0
开源许可。
Unsloth 现在采取双重许可策略,代码库的某些部分采用 Apache 2.0 许可,而其他部分采用 AGPL-3.0 许可。此结构有助于支持持续的 Unsloth 开发,同时保持项目开源并促进生态系统成长。
Studio 只支持 LLM 吗? 不是。Studio 支持一系列兼容 transformers 的模型家族,包括文本、多模态模型、文本转语音 、音频、嵌入
,以及 BERT 风格模型。 我可以使用我自己的训练配置吗?
可以。导入 YAML 配置,Studio 将预填相关设置。 使用该 UI 是否必须训练模型?
不需要,您可以直接下载任何 GGUF 或模型,而无需对任何模型进行微调。
Unsloth 的未来
我们正在努力使开源 AI 尽可能可访问。下一步针对 Unsloth 和 Unsloth Studio,我们将正式支持:多 GPU、Apple Silicon/MLX、AMD 和 Intel。提醒一下,这是 Unsloth Studio 的测试版,因此在接下来的几周内预计会有大量公告和改进。我们也正与 NVIDIA 密切合作,针对多 GPU 支持以提供最佳且最简单的体验。
致谢名单(鸣谢))""\n非常感谢 NVIDIA 和 Hugging Face 成为我们发布的一部分。也感谢所有早期 Unsloth Studio 的测试者,我们非常感激你们的时间和反馈。我们还要感谢 llama.cpp、PyTorch 和 open model labs 提供了使 Unsloth Studio 成为可能的基础设施。

最后更新于
这有帮助吗?


