🦥介绍 Unsloth Studio
使用 Unsloth Studio 在本地运行和训练 AI 模型。
今天,我们发布了 Unsloth Studio (测试版):一个开源的无代码 web 界面,用于在一个统一的 本地 界面中训练、运行和导出开源模型。
本地运行 GGUF 和 safetensor 模型在 Mac、Windows、Linux 上。
训练 500+ 模型速度提高 2 倍,显存减少 70%(无精度损失)
运行和训练文本、视觉、TTS 音频、嵌入模型
3 月 17 日 更新: 更稳定的安装说明 +
Claude Artifacts 可工作,因此 HTML 可以像在聊天中运行的贪吃蛇游戏一样被执行
工具调用准确性提升 30%+(特别是小模型)+ 工具调用计时器
工具 + 网络搜索输出可以保存 + 切换自动修复工具开/关
大量错误修复 - Windows CPU 可用,Mac 更无缝、更快且安装更小

MacOS 和 CPU 可用于 聊天 GGUF 推理。MLX 训练即将推出。
无需数据集。 自动创建数据集 自 PDF、CSV、JSON、DOCX、TXT 文件。
导出或保存 你的模型为 GGUF、16 位 safetensor 等格式。
自动推理参数 调优并编辑聊天模板。
⭐ 特性
本地运行模型
搜索并运行 GGUF 和 safetensor 模型,带有 自我修复工具 调用 / 网络搜索, 自动推理 参数调优, 代码执行 (Bash + Python)、API(即将推出)。上传图片、文档、音频、代码。
并排对比模型。由 llama.cpp + Hugging Face 提供支持,我们支持 多 GPU 推理 和大多数模型。

无代码训练
上传 PDF、CSV、JSON 文档,或 YAML 配置并在 NVIDIA 上立即开始训练。Unsloth 的内核在 500+ 文本、视觉、TTS/音频和嵌入模型上优化 LoRA、FP8、FFT、PT。
微调最新的 LLM,例如 Qwen3.5 和 NVIDIA Nemotron 3. 多 GPU 自动工作,且会有新版本推出。



导出 / 保存模型
导出任何模型,包括你微调的模型,导出为 safetensors 或 GGUF 以在 llama.cpp、vLLM、Ollama、LM Studio 等中使用。
存储你的训练历史,因此你可以重新查看运行、再次导出并进行实验。


请注意这是 测试版 的 Unsloth Studio 版本。预计在接下来的几天和几周内会有许多改进、修复和新功能。我们正在积极解决的一个问题是预编译的 llama.cpp 二进制文件,以显著加快安装时间。
⚡ 快速开始
Unsloth Studio 可在 Windows、Linux、WSL 和 MacOS(目前仅限聊天)上运行。
CPU: Unsloth 在没有 GPU 的情况下仍然可用,但仅用于 聊天 推理。
训练: 在 NVIDIA GPU 上可用:RTX 30、40、50、Blackwell、DGX Spark/Station 等。
Mac: 与 CPU 类似 - 目前仅支持聊天功能。 MLX 训练即将推出。
AMD: 聊天可用。使用 Unsloth Core进行训练。Studio 支持即将推出。
即将到来: 对以下的训练支持 Apple MLX, AMD,以及 Intel.
多 GPU: 已可用,且有一次重大升级正在进行中。
MacOS、Linux、WSL:
对于 MacOS,请确保你已安装 cmake 如果没有,请运行 brew install cmake.
Windows PowerShell:
Docker:
使用我们的官方 Docker 镜像: unsloth/unsloth 目前适用于 Windows、WSL 和 Linux。MacOS 支持即将推出。
启动 Unsloth
MacOS、Linux、WSL:
Windows:
首次安装可能需要 5-10 分钟。这是正常的,因为 llama.cpp 需要编译二进制文件。我们正在准备预编译二进制,以便下次不需要那么长时间。
有关安装的更多详细信息,请访问 Unsloth Studio 安装 部分。 你也可以查看 NVIDIA 的 视频教程在此处.
Installation Google Colab 笔记本
我们创建了一个 免费的 Google Colab 笔记本 ,让你可以在 Colab 的 T4 GPU 上探索 Unsloth 的所有功能。你可以训练和运行最多 22B 参数的大多数模型,并在需要更大模型时切换到更大的 GPU。只需点击“全部运行”,安装完成后界面应会弹出。
在 T4 GPU 上编译 llama.cpp 需要 30 分钟以上,因此我们建议使用更大的 GPU 以获得更快速度。
安装完成后,滚动到 启动 Unsloth Studio 并点击 打开 Unsloth Studio 在左侧白色框中显示:

有时 Studio 链接可能返回错误。这是因为 Google Colab 希望你停留在 Colab 页面;如果检测到不活动,它可能会关闭 GPU 会话。
工作流程
以下是 Unsloth Studio 的常见工作流程,帮助你入门:
从 安装说明.
从本地文件或受支持的集成中加载模型。
从 PDF、CSV 或 JSONL 文件导入训练数据,或从头构建数据集。
在 数据配方.
中清理、精炼并扩展你的数据集
使用推荐的预设开始训练或自行自定义配置。
与训练好的模型聊天并将其输出与基础模型进行比较。 保存或导出
到你已经使用的本地堆栈。
你可以阅读我们对 Unsloth Studio 各部分的详细深度解析:
视频教程
以下是 NVIDIA 制作的入门视频教程,帮助你开始使用 Studio:
如何安装 Unsloth Studio 视频教程
常见问题 Unsloth 会收集或存储数据吗?
Unsloth 不会收集使用遥测。Unsloth 仅收集为兼容性所需的最少硬件信息,例如 GPU 类型和设备(例如 Mac)。Unsloth Studio 100% 离线并在本地运行。 如何使用我之前从 Hugging Face 下载的旧模型/现有模型? 可以,你可以使用之前从 Hugging Face 等下载的现有或旧模型或 GGUF。阅读我们的.
说明在此处 Unsloth Studio 是否支持兼容 OpenAI 的 API?
是的,对我们的数据配方是支持的。对于推理我们正在开发此功能,并希望尽快发布支持,可能就在本周,敬请关注! Unsloth 现在是否在 AGPL-3.0 许可下? Unsloth 使用 Apache 2.0 和 AGPL-3.0 的双重许可模式。核心 Unsloth 包仍然在Apache 2.0 许可下,而某些可选组件,例如 Unsloth Studio UI 则在.
AGPL-3.0
许可下。
这种结构有助于支持持续的 Unsloth 开发,同时保持项目开源并使更广泛的生态系统能够继续发展。 Studio 只支持 LLM 吗? 不是。Studio 支持一系列受支持的 transformers兼容的模型家族,包括文本、多模态模型、 文本到语音、音频、
嵌入 ,以及类 BERT 的模型。
我可以使用我自己的训练配置吗? 可以。导入 YAML 配置,Studio 会预填相关设置。
使用该界面是否必须训练模型?
不需要,你可以直接下载任何 GGUF 或模型,而无需对任何模型进行微调。
Unsloth 的未来
我们正在努力使开源 AI 尽可能易于访问。接下来对 Unsloth 和 Unsloth Studio,我们将发布对多 GPU、Apple Silicon/MLX、AMD 和 Intel 的官方支持。提醒一下,这是 Unsloth Studio 的测试版,因此在接下来的几周里请期待大量公告和改进。我们还在与 NVIDIA 密切合作以提供最佳且最简单的多 GPU 支持体验。

最后更新于
这有帮助吗?


