🦥Unsloth Studio の紹介

Unsloth Studio で AI モデルをローカルに実行・学習。

本日、私たちは Unsloth Studio (ベータ版)を公開します。これは、オープンモデルの学習・実行・エクスポートを1つの統合 ローカル インターフェースで行える、オープンソースのノーコードWeb UIです。

boltクイックスタートstar機能githubGitHub

  • GGUF および safetensor モデルをローカルで実行 Mac、Windows、Linux。

  • VRAMを70%削減しながら、500以上のモデルを2倍高速に学習(精度低下なし)

  • テキスト、ビジョン、TTS音声、埋め込みモデルを実行・学習

circle-check

⭐ 機能

モデルをローカルで実行

GGUF および safetensor モデルを検索・実行 自己修復するツール 呼び出し / Web検索、 自動推論 パラメータ調整、 コード実行 (Bash + Python)、API(まもなく対応)。画像、ドキュメント、音声、コードをアップロードできます。

モデルを並べて比較。llama.cpp + Hugging Face によって、 マルチGPU推論 とほとんどのモデルに対応しています。

コードを実行 + ツール呼び出しを修復

Unsloth Studio では、LLMがJavaScriptだけでなくBashやPythonも実行できます。また、Claude Artifactsのようにプログラムをサンドボックス化するので、モデルはコードをテストし、ファイルを生成し、実際の計算で回答を検証できます。

例:Qwen3.5-4B は20以上のWebサイトを検索して出典を引用し、その思考のトレース内でWeb検索を行いました。

ノーコード学習

PDF、CSV、JSON のドキュメント、またはYAML設定をアップロードして、NVIDIA上で即座に学習を開始できます。Unsloth のカーネルは、500以上のテキスト、ビジョン、TTS/音声、埋め込みモデルにわたって LoRA、FP8、FFT、PT を最適化します。

次のような最新のLLMをファインチューニング Qwen3.5 および NVIDIA Nemotron 3. マルチGPU は自動で動作し、新バージョンも登場予定です。

データレシピ

データレシピ グラフノードのワークフローを通じて、ドキュメントを利用可能な / 合成データセットへ変換します。PDF、CSV、JSONのような非構造化または構造化ファイルをアップロードしてください。NVIDIA Nemo 搭載の Unsloth Data Recipes Data Designerarrow-up-rightが、ドキュメントを目的の形式に自動変換します。

オブザーバビリティ

獲得 完全な可視性 を学習実行に対して確保し、制御できます。学習損失、勾配ノルム、GPU使用率をリアルタイムで追跡し、好みに合わせてカスタマイズできます。

スマホなど、他のデバイスから学習の進行状況を表示することもできます。

モデルをエクスポート / 保存

あらゆるモデルをエクスポートできます。ファインチューニングしたモデルを含め、safetensors または GGUF に出力して、llama.cpp、vLLM、Ollama、LM Studio などで使用できます。

学習履歴を保存するので、実行を見返したり、再エクスポートしたり、試行錯誤したりできます。

モデルアリーナ

チャットして 2つの異なる モデル、たとえばベースモデルとファインチューニング済みモデルを比較し、それぞれの出力の違いを確認できます。

まず最初のGGUF/モデルを読み込み、次に2つ目を読み込むだけでOK! 推論ではまず1つ目のモデルを読み込み、その後2つ目を読み込みます。

プライバシー優先 + 安全性

Unsloth Studio は、100%オフラインで、ローカルのコンピュータ上で使用できます。暗号化されたパスワードや JWT のアクセス/リフレッシュフローを含むトークンベース認証により、データを安全に保ちます。

HF などから以前ダウンロードした既存 / 古いモデルや GGUF を使用できます。 こちらの手順.

circle-exclamation

⚡ クイックスタート

Unsloth Studio は Windows、Linux、WSL、MacOS で動作します(現在はチャットのみ)。

  • CPU: Unsloth は GPU なしでも動作しますが、 チャット 推論と データレシピ.

  • 学習: でのみ動作します。 NVIDIA:RTX 30、40、50、Blackwell、DGX Spark/Station など + Intel GPU

  • Mac: CPU と同様に、チャットと データレシピ のみが現在動作します。 MLX 学習はまもなく対応予定です。

  • AMD: チャットは動作します。 Unsloth Coreで学習してください。Studio 対応は近日公開予定です。

  • 近日対応: 以下の学習サポート: Apple MLX AMD。

  • マルチGPU: すでに動作しています。大幅なアップグレードも予定されています。

更新するには、以下の同じインストールコマンドを使用してください:

MacOS、Linux、WSL:

Windows PowerShell:

Unsloth を起動

Docker:

公式の Docker イメージ: unsloth/unslotharrow-up-right を使用してください。現在は Windows、WSL、Linux で動作します。MacOS 対応は近日公開予定です。

circle-check

インストールとアンインストールの詳細については、 Unsloth Studio インストール セクションをご覧ください。

arrow-down-to-squareInstallationchevron-right

google Google Colab ノートブック

私たちは 無料の Google Colab ノートブックarrow-up-right を作成しました。これにより、Colab の T4 GPU 上で Unsloth のすべての機能を試せます。22B パラメータまでのほとんどのモデルを学習・実行でき、より大きなモデルにはより大きな GPU に切り替えられます。'Run all' をクリックするだけで、インストール後にUIが表示されます。

インストールが完了したら、 Start Unsloth Studio までスクロールして、 Open Unsloth Studio を左側に表示されている白いボックス内でクリックしてください:

さらに下へスクロールすると、実際のUIが表示されます。

circle-exclamation

seedling ワークフロー

Unsloth Studio の一般的なワークフローは次のとおりです。

  1. 以下から Studio を起動 インストール手順.

  2. ローカルファイルまたは対応する統合からモデルを読み込みます。

  3. PDF、CSV、または JSONL ファイルから学習データを取り込むか、ゼロからデータセットを作成します。

  4. データセットをクリーンアップ、精緻化、拡張して データレシピ.

  5. 推奨プリセットで学習を開始するか、設定を自分でカスタマイズします。

  6. 学習済みモデルとチャットし、その出力をベースモデルと比較します。

  7. 保存またはエクスポート して、すでに使っているスタックへローカルに導入します。

Unsloth Studio の各セクションについての個別の詳細解説もご覧いただけます:

video ビデオチュートリアル

Studio を始めるための NVIDIA 作成のビデオチュートリアルはこちらです:

Unsloth Studio のインストール方法 ビデオチュートリアル

comments-question FAQ

Unsloth はデータを収集または保存しますか? Unsloth は利用状況のテレメトリを収集しません。Unsloth は、GPU の種類やデバイス(例:Mac)など、互換性に必要な最小限のハードウェア情報のみを収集します。Unsloth Studio は100%オフラインかつローカルで動作します。

以前 Hugging Face からダウンロードした古い / 既存のモデルはどう使えばよいですか? はい、以前 Hugging Face などからダウンロードした既存/古いモデルや GGUF を使用できます。これらは現在 Unsloth によって自動検出されるはずですが、そうでない場合は こちらの手順.

なぜ Unsloth では推論が時々遅くなるのですか? Unsloth は他のローカル推論アプリと同様に llama.cpp を基盤としているため、速度はほぼ同じであるはずです。場合によっては、Web検索、コード実行、自己修復するツール呼び出しをオンにしているために、Unsloth が遅く感じられることがあります。これらの機能はすべて推論を遅くする可能性があります。すべての機能をオフにしてもなお遅い場合は、GitHub の issue を作成してください!

Unsloth Studio は OpenAI 互換 API をサポートしていますか? はい、Data Recipes については対応しています。推論についても現在対応を進めており、早ければ今週中にもサポートをリリースできる見込みです。ご期待ください!

Unsloth は現在 AGPL-3.0 ライセンスですか? Unsloth は Apache 2.0 と AGPL-3.0 のデュアルライセンスモデルを採用しています。Unsloth のコアパッケージは引き続き Apache 2.0arrow-up-rightの下でライセンスされており、一方で Unsloth Studio UI などの一部のオプションコンポーネントは AGPL-3.0arrow-up-right.

でライセンスされています。この構成は、プロジェクトをオープンソースとして維持しつつ、Unsloth の継続的な開発を支え、より広いエコシステムの成長を後押しするものです。

Studio は LLM のみをサポートしていますか? いいえ。Studio は、テキスト、マルチモーダルモデル、 transformers 互換のモデルファミリーを幅広くサポートしており、 テキスト読み上げ、音声、 埋め込み、BERT スタイルのモデルを含みます。

独自の学習設定を使えますか? はい。YAML 設定をインポートすると、Studio が関連する設定を事前入力します。

コンテキスト長はどう調整できますか? llama.cpp のスマートな自動コンテキストにより、コンテキスト長の調整はもう不要です。必要なコンテキストだけを使用し、余計なものは読み込みません。ただし、使いたい場合に備えて、今後この機能も追加する予定です。

UI を使うにはモデルの学習が必要ですか? いいえ、どの GGUF やモデルでも、どのモデルもファインチューニングせずにダウンロードするだけで使えます。

Unsloth の今後

私たちは、オープンソースAIをできる限り利用しやすくするために全力で取り組んでいます。Unsloth と Unsloth Studio の次の展開として、マルチGPU、Apple Silicon/MLX、AMD の公式サポートを公開予定です。これは Unsloth Studio の BETA 版であることを忘れずに。今後数週間で多くの発表と改善があるはずです。また、最良かつ最もシンプルな体験を提供するため、マルチGPU対応について NVIDIA と緊密に連携しています。

謝辞

私たちのローンチに参加してくださった NVIDIA と Hugging Face に心から感謝します。また、Unsloth Studio の初期ベータテスターの皆さまにも感謝します。皆さまの時間とフィードバックに本当に感謝しています。さらに、Unsloth Studio を可能にしたインフラを提供してくださった llama.cpp、PyTorch、open model labs にも感謝します。

最終更新

役に立ちましたか?