🦥Unsloth Studio の紹介
Unsloth Studio で AI モデルをローカルに実行・学習。
本日、私たちは Unsloth Studio (ベータ版)を公開します。これは、オープンモデルの学習・実行・エクスポートを1つの統合 ローカル インターフェースで行える、オープンソースのノーコードWeb UIです。
GGUF および safetensor モデルをローカルで実行 Mac、Windows、Linux。
VRAMを70%削減しながら、500以上のモデルを2倍高速に学習(精度低下なし)
テキスト、ビジョン、TTS音声、埋め込みモデルを実行・学習
最新の更新情報は、こちらの 新しい変更履歴ページをご覧ください! ✨
3月27日: Unsloth にデスクトップのショートカットアイコンが追加されました。
推論が20〜30%高速化され、計算も正しく行われるようになりました。
Hugging Face、LM Studio などから ダウンロードされた古いモデルや既存のモデルを自動検出します。
CPU RAM が急増しなくなりました。
3月25日: Unsloth Studio を更新できるようになりました! 以下から更新してください: unsloth studio update
Windows CPU または GPU がシームレスに動作するようになりました。再インストールしてください!
アプリのショートカット。インストール後は、デスクトップ上のショートカットアイコンから起動できるようになりました。
事前コンパイル済み
llama.cppバイナリ - インストールが6倍高速に!インストールサイズを50%削減 (7GB以上の節約)、インストールは2倍高速化し、解決も高速化。PyPIサイズも50%小さくなりました。
ツール呼び出しが改善されました。 より優れた llama.cpp のパース、チャット内に生のツールマークアップなし、高速な推論、新しいツール出力パネル、タイマー。
MacOS と CPU で データレシピ が有効になり、複数ファイルのアップロードに対応しました。

データセットは不要です。 データセットを自動作成 し、 PDF、CSV、JSON、DOCX、TXT ファイルから生成します。
モデルをエクスポートまたは保存 して、GGUF、16-bit safetensor などへ。
自己修復するツール呼び出し /Web検索 + コード実行
推論パラメータの自動 調整とチャットテンプレートの編集。
⭐ 機能


ノーコード学習
PDF、CSV、JSON のドキュメント、またはYAML設定をアップロードして、NVIDIA上で即座に学習を開始できます。Unsloth のカーネルは、500以上のテキスト、ビジョン、TTS/音声、埋め込みモデルにわたって LoRA、FP8、FFT、PT を最適化します。
次のような最新のLLMをファインチューニング Qwen3.5 および NVIDIA Nemotron 3. マルチGPU は自動で動作し、新バージョンも登場予定です。

データレシピ
データレシピ グラフノードのワークフローを通じて、ドキュメントを利用可能な / 合成データセットへ変換します。PDF、CSV、JSONのような非構造化または構造化ファイルをアップロードしてください。NVIDIA Nemo 搭載の Unsloth Data Recipes Data Designerが、ドキュメントを目的の形式に自動変換します。

オブザーバビリティ
獲得 完全な可視性 を学習実行に対して確保し、制御できます。学習損失、勾配ノルム、GPU使用率をリアルタイムで追跡し、好みに合わせてカスタマイズできます。
スマホなど、他のデバイスから学習の進行状況を表示することもできます。

モデルをエクスポート / 保存
あらゆるモデルをエクスポートできます。ファインチューニングしたモデルを含め、safetensors または GGUF に出力して、llama.cpp、vLLM、Ollama、LM Studio などで使用できます。
学習履歴を保存するので、実行を見返したり、再エクスポートしたり、試行錯誤したりできます。

モデルアリーナ
チャットして 2つの異なる モデル、たとえばベースモデルとファインチューニング済みモデルを比較し、それぞれの出力の違いを確認できます。
まず最初のGGUF/モデルを読み込み、次に2つ目を読み込むだけでOK! 推論ではまず1つ目のモデルを読み込み、その後2つ目を読み込みます。

プライバシー優先 + 安全性
Unsloth Studio は、100%オフラインで、ローカルのコンピュータ上で使用できます。暗号化されたパスワードや JWT のアクセス/リフレッシュフローを含むトークンベース認証により、データを安全に保ちます。
HF などから以前ダウンロードした既存 / 古いモデルや GGUF を使用できます。 こちらの手順.

をご覧ください BETA 版の Unsloth Studio であることにご注意ください。今後数日〜数週間で、多くの改善、修正、新機能が追加される予定です。現在積極的に対応している課題の1つは、インストール時間を大幅に短縮するための事前コンパイル済み llama.cpp バイナリです。
⚡ クイックスタート
Unsloth Studio は Windows、Linux、WSL、MacOS で動作します(現在はチャットのみ)。
学習: でのみ動作します。 NVIDIA:RTX 30、40、50、Blackwell、DGX Spark/Station など + Intel GPU
Mac: CPU と同様に、チャットと データレシピ のみが現在動作します。 MLX 学習はまもなく対応予定です。
AMD: チャットは動作します。 Unsloth Coreで学習してください。Studio 対応は近日公開予定です。
近日対応: 以下の学習サポート: Apple MLX と AMD。
マルチGPU: すでに動作しています。大幅なアップグレードも予定されています。
更新するには、以下の同じインストールコマンドを使用してください:
MacOS、Linux、WSL:
Windows PowerShell:
Unsloth を起動
Docker:
公式の Docker イメージ: unsloth/unsloth を使用してください。現在は Windows、WSL、Linux で動作します。MacOS 対応は近日公開予定です。
事前コンパイル済み llama.cpp バイナリにより、初回インストールは6倍高速化し、サイズも50%削減されます。
インストールとアンインストールの詳細については、 Unsloth Studio インストール セクションをご覧ください。
Installation Google Colab ノートブック
私たちは 無料の Google Colab ノートブック を作成しました。これにより、Colab の T4 GPU 上で Unsloth のすべての機能を試せます。22B パラメータまでのほとんどのモデルを学習・実行でき、より大きなモデルにはより大きな GPU に切り替えられます。'Run all' をクリックするだけで、インストール後にUIが表示されます。
インストールが完了したら、 Start Unsloth Studio までスクロールして、 Open Unsloth Studio を左側に表示されている白いボックス内でクリックしてください:
さらに下へスクロールすると、実際のUIが表示されます。

現在は llama.cpp バイナリを事前コンパイルしているため、インストール速度が大幅に向上しています。
ときどき Studio のリンクがエラーを返すことがあります。これは、広告ブロッカーを使っている場合や、Mozilla または Google Colab が Colab ページに留まることを期待しているために発生します。非アクティブと検出されると、GPUセッションが終了する場合があります。それでも、少し下へスクロールすれば
ワークフロー
Unsloth Studio の一般的なワークフローは次のとおりです。
以下から Studio を起動 インストール手順.
ローカルファイルまたは対応する統合からモデルを読み込みます。
PDF、CSV、または JSONL ファイルから学習データを取り込むか、ゼロからデータセットを作成します。
データセットをクリーンアップ、精緻化、拡張して データレシピ.
推奨プリセットで学習を開始するか、設定を自分でカスタマイズします。
学習済みモデルとチャットし、その出力をベースモデルと比較します。
保存またはエクスポート して、すでに使っているスタックへローカルに導入します。
Unsloth Studio の各セクションについての個別の詳細解説もご覧いただけます:
ビデオチュートリアル
Studio を始めるための NVIDIA 作成のビデオチュートリアルはこちらです:
Unsloth Studio のインストール方法 ビデオチュートリアル
FAQ
Unsloth はデータを収集または保存しますか? Unsloth は利用状況のテレメトリを収集しません。Unsloth は、GPU の種類やデバイス(例:Mac)など、互換性に必要な最小限のハードウェア情報のみを収集します。Unsloth Studio は100%オフラインかつローカルで動作します。
以前 Hugging Face からダウンロードした古い / 既存のモデルはどう使えばよいですか? はい、以前 Hugging Face などからダウンロードした既存/古いモデルや GGUF を使用できます。これらは現在 Unsloth によって自動検出されるはずですが、そうでない場合は こちらの手順.
なぜ Unsloth では推論が時々遅くなるのですか? Unsloth は他のローカル推論アプリと同様に llama.cpp を基盤としているため、速度はほぼ同じであるはずです。場合によっては、Web検索、コード実行、自己修復するツール呼び出しをオンにしているために、Unsloth が遅く感じられることがあります。これらの機能はすべて推論を遅くする可能性があります。すべての機能をオフにしてもなお遅い場合は、GitHub の issue を作成してください!
Unsloth Studio は OpenAI 互換 API をサポートしていますか? はい、Data Recipes については対応しています。推論についても現在対応を進めており、早ければ今週中にもサポートをリリースできる見込みです。ご期待ください!
Unsloth は現在 AGPL-3.0 ライセンスですか? Unsloth は Apache 2.0 と AGPL-3.0 のデュアルライセンスモデルを採用しています。Unsloth のコアパッケージは引き続き Apache 2.0の下でライセンスされており、一方で Unsloth Studio UI などの一部のオプションコンポーネントは AGPL-3.0.
でライセンスされています。この構成は、プロジェクトをオープンソースとして維持しつつ、Unsloth の継続的な開発を支え、より広いエコシステムの成長を後押しするものです。
Studio は LLM のみをサポートしていますか?
いいえ。Studio は、テキスト、マルチモーダルモデル、 transformers 互換のモデルファミリーを幅広くサポートしており、 テキスト読み上げ、音声、 埋め込み、BERT スタイルのモデルを含みます。
独自の学習設定を使えますか? はい。YAML 設定をインポートすると、Studio が関連する設定を事前入力します。
コンテキスト長はどう調整できますか? llama.cpp のスマートな自動コンテキストにより、コンテキスト長の調整はもう不要です。必要なコンテキストだけを使用し、余計なものは読み込みません。ただし、使いたい場合に備えて、今後この機能も追加する予定です。
UI を使うにはモデルの学習が必要ですか? いいえ、どの GGUF やモデルでも、どのモデルもファインチューニングせずにダウンロードするだけで使えます。
Unsloth の今後
私たちは、オープンソースAIをできる限り利用しやすくするために全力で取り組んでいます。Unsloth と Unsloth Studio の次の展開として、マルチGPU、Apple Silicon/MLX、AMD の公式サポートを公開予定です。これは Unsloth Studio の BETA 版であることを忘れずに。今後数週間で多くの発表と改善があるはずです。また、最良かつ最もシンプルな体験を提供するため、マルチGPU対応について NVIDIA と緊密に連携しています。
謝辞
私たちのローンチに参加してくださった NVIDIA と Hugging Face に心から感謝します。また、Unsloth Studio の初期ベータテスターの皆さまにも感謝します。皆さまの時間とフィードバックに本当に感謝しています。さらに、Unsloth Studio を可能にしたインフラを提供してくださった llama.cpp、PyTorch、open model labs にも感謝します。

最終更新
役に立ちましたか?

