🦥Unsloth Studioの紹介
Unsloth StudioでAIモデルをローカルに実行・学習します。
本日、私たちは Unsloth Studio (ベータ版)をリリースします。これは、オープンモデルの学習、実行、エクスポートを1つにまとめた、オープンソースのノーコードWeb UIです。 ローカル インターフェース。
GGUFを実行 および safetensor モデルをローカルで Mac、Windows、Linuxで。
70%少ないVRAMで500以上のモデルを2倍高速に学習(精度低下なし)
テキスト、画像、TTS音声、埋め込みモデルを実行・学習
3月18日の更新: 新しい1行インストールコマンド!
Windowsが修正されました。 再インストールしてください.
MacOSとCPUで新たに Data Recipes が有効になりました。(エクスポートは今週予定)
Data Recipes で複数ファイルのアップロードが可能になりました
Intel GPU で学習できるようになりました
3月17日の更新:
Claude Artifacts が動作するため、チャット内でHTMLを蛇ゲームのように実行できます
ツール呼び出しの精度が30%向上、特に小規模モデルで向上 + ツール呼び出し用タイマー
ツール + Web検索の出力を保存可能 + 自動修復ツールのオン/オフ切り替え
多くのバグ修正 - Windows CPUで動作、Macはよりスムーズに、より高速でより小さなインストール

MacOS と CPU で動作 チャット GGUF推論と Data Recipes。MLX学習は近日対応予定。
データセットは不要です。 データセットを自動生成 PDF、CSV、JSON、DOCX、TXT ファイルから。 エクスポートまたは保存
あなたのモデルをGGUF、16-bit safetensorなどに。 自己修復ツール呼び出し
調整とチャットテンプレートの編集。 ⭐ 機能
モデルをローカルで実行
GGUFを検索して実行
および safetensor モデルを 自己修復ツール 呼び出し / Web検索、 自動推論 パラメータ調整、 (Bash + Python)、API(まもなく対応)。画像、ドキュメント、音声、コードをアップロードできます。 自動推論パラメータ モデルを並べて比較
。llama.cpp + Hugging Face によって動作し、マルチGPU推論 およびほとんどのモデルをサポートします。 コードを実行 + ツール呼び出しを修復


PDF、CSV、JSON
ドキュメント、またはYAML設定をアップロードして、NVIDIA上で即座に学習を開始できます。Unslothのカーネルは、500以上のテキスト、画像、TTS/音声、埋め込みモデル全体でLoRA、FP8、FFT、PTを最適化します。 次のような最新のLLMを微調整
Qwen3.5 や NVIDIA Nemotron 3 マルチGPU. は自動的に動作し、新バージョンも近日公開予定です。 グラフノードのワークフローを通じて、ドキュメントを使える / 合成データセットに変換します。PDF、CSV、JSON のような非構造化または構造化ファイルをアップロードしてください。NVIDIA Nemo 搭載の Unsloth Data Recipes

Data Recipes
Data Recipes Data Designer が、ドキュメントを希望の形式に自動変換します。可観測性

得る
完全な可視性 を学習実行に対して確保し、制御できます。学習損失、勾配ノルム、GPU使用率をリアルタイムで追跡し、好みに合わせてカスタマイズできます。 スマートフォンなどの他のデバイスで学習進捗を確認することもできます。
モデルのエクスポート / 保存

任意のモデルをエクスポート
、微調整済みモデルを含め、safetensors または GGUF にして llama.cpp、vLLM、Ollama、LM Studio などで使用できます。学習履歴を保存するので、実行を見直したり、再エクスポートしたり、実験したりできます。
モデルアリーナ

チャットして
2つの異なる モデルを比較し、ベースモデルと微調整済みモデルなどの出力の違いを確認できます。 まず最初の GGUF/モデルを読み込み、次に2つ目を読み込むだけです。すると、まず1つ目のモデルで推論が始まり、その後2つ目のモデルが読み込まれます。
プライバシー優先 + セキュア

Unsloth Studio は100%オフラインで、コンピューター上でローカルに使用できます。暗号化されたパスワードや JWT のアクセス / リフレッシュフローを含むトークンベース認証により、データは安全に保たれます。
以前に HF などからダウンロードした既存 / 古いモデルや GGUF を使用できます。
手順はこちら こちらは.

ベータ 版の Unsloth Studio であることにご注意ください。今後数日から数週間で、多くの改善、修正、新機能が追加される予定です。現在対応中の課題の1つは、インストール時間を大幅に短縮するための llama.cpp の事前コンパイル済みバイナリです。 ⚡ クイックスタート
Unsloth Studio は Windows、Linux、WSL、MacOS で動作します(現在はチャットのみ)。
CPU:
GPUなしでも Unsloth は動作しますが、 推論と チャット のみです。 Data Recipes.
学習: で動作します NVIDIA:RTX 30、40、50、Blackwell、DGX Spark/Station など + Intel GPU
Mac: CPUと同様 - チャットと Data Recipes のみ現在動作します。 MLX 学習はまもなく対応予定です。
AMD: チャットは動作します。 Unsloth Coreで学習してください。Studio対応は近日公開予定です。
近日公開: 以下の学習対応 Apple MLX と AMD。
マルチGPU: すでに動作しており、大幅アップグレードが進行中です。
MacOS、Linux、WSL:
Windows PowerShell:
Unslothを起動
MacOS、Linux、WSL:
Windows:
Docker:
公式の Dockerイメージ: unsloth/unsloth を使用してください。現在、Windows、WSL、Linuxで動作します。MacOS対応は近日公開予定です。
初回インストールには5〜10分かかる場合があります。これは llama.cpp がバイナリをコンパイルする必要があるためで、正常です。次回は時間がかからないよう、事前コンパイル済みバイナリに取り組んでいます。
インストールの詳細については、 Unsloth Studio インストール セクションをご覧ください。 NVIDIA の 動画チュートリアルはこちら.
Installation Google Colab ノートブック
私たちは 無料の Google Colab ノートブック を作成しました。これにより、Colab の T4 GPU で Unsloth のすべての機能を試せます。最大22Bパラメータまでのほとんどのモデルを学習・実行でき、より大きなモデルにはより大きいGPUへ切り替えられます。'Run all' をクリックするだけで、インストール後にUIが表示されるはずです。
インストールが完了したら、 Start Unsloth Studio までスクロールして、 Open Unsloth Studio を左側に表示されている白いボックス内でクリックしてください:

T4 GPU では llama.cpp のコンパイルに30分以上かかるため、より速くするにはより大きなGPUの使用を推奨します。
場合によっては Studio リンクがエラーを返すことがあります。これは Google Colab が Colab ページにとどまることを期待しているためで、非アクティブと判断されるとGPUセッションが終了することがあります。
ワークフロー
Unsloth Studio の通常のワークフローは次のとおりです:
Studio を起動 インストール手順から.
ローカルファイルまたは対応する統合からモデルを読み込みます。
PDF、CSV、JSONL ファイルから学習データを取り込むか、ゼロからデータセットを作成します。
データセットをクリーンアップ、改善、拡張し、 Data Recipes.
推奨プリセットで学習を開始するか、自分で設定をカスタマイズします。
学習済みモデルとチャットし、その出力をベースモデルと比較します。
保存またはエクスポート して、すでに使っているスタックにローカルで組み込みます。
Unsloth Studio の各セクションについての個別の詳細解説もお読みいただけます:
動画チュートリアル
Studio を始めるために NVIDIA が作成した動画チュートリアルはこちらです:
Unsloth Studio のインストール方法 動画チュートリアル
FAQ
Unsloth はデータを収集または保存しますか? Unsloth は利用状況のテレメトリを収集しません。Unsloth は、GPUの種類やデバイス(例:Mac)など、互換性に必要な最小限のハードウェア情報のみを収集します。Unsloth Studio は100%オフラインでローカルに動作します。
以前 Hugging Face からダウンロードした古い / 既存モデルはどう使えばいいですか? はい、以前 Hugging Face などからダウンロードした既存または古いモデルや GGUF を使用できます。私たちの こちらは.
Unsloth Studio は OpenAI 互換 API をサポートしていますか? はい、Data Recipes ではサポートしています。推論については現在対応中で、早ければ今週中にもサポートを提供できる見込みです。ご期待ください!
Unsloth は現在 AGPL-3.0 の下でライセンスされていますか? Unsloth は Apache 2.0 と AGPL-3.0 のデュアルライセンスモデルを採用しています。コアの Unsloth パッケージは引き続き Apache 2.0の下でライセンスされており、Unsloth Studio UI などの一部のオプションコンポーネントは AGPL-3.0.
の下でライセンスされています。この構成は、プロジェクトをオープンソースのまま維持しつつ、Unsloth の継続的な開発を支え、より広いエコシステムの成長を促すのに役立ちます。
Studio は LLM のみをサポートしていますか?
いいえ。Studio は、テキスト、マルチモーダルモデル、 transformers 互換のモデルファミリーを幅広くサポートしており、 テキスト読み上げ、音声、 埋め込み、BERT 形式のモデルを含みます。
独自の学習設定を使えますか? はい。YAML設定をインポートすると、Studio が関連設定を自動入力します。
コンテキスト長はどう調整できますか? llama.cpp の賢い自動コンテキストにより、コンテキスト長の調整は不要になりました。これは余分なものを読み込まず、必要なコンテキストだけを使用します。ただし、必要な場合に使えるよう、まもなくこの機能も追加します。
UIを使うためにモデルを学習する必要がありますか? いいえ、どの GGUF やモデルも、どのモデルも微調整せずにダウンロードするだけで使えます。
Unsloth の未来
私たちは、オープンソースAIをできるだけ利用しやすくするために全力で取り組んでいます。Unsloth と Unsloth Studio の次の展開として、マルチGPU、Apple Silicon/MLX、AMD の公式サポートをリリースします。これは Unsloth Studio のベータ版であるため、今後数週間で多くの発表と改善がある予定です。さらに、最高で最もシンプルな体験を提供するため、NVIDIA と密接に連携してマルチGPU対応を進めています。
謝辞
リリースに参加してくれた NVIDIA と Hugging Face に心から感謝します。また、Unsloth Studio の初期ベータテスターの皆さんにも感謝します。皆さんの時間とフィードバックに本当に感謝しています。さらに、llama.cpp、PyTorch、そして open model labs が、Unsloth Studio を可能にした基盤を提供してくれたことにも感謝します。

最終更新
役に立ちましたか?

