🦥Unsloth Studioの紹介

Unsloth StudioでAIモデルをローカルに実行・学習します。

本日、私たちは Unsloth Studio (ベータ版)をリリースします。これは、オープンモデルの学習、実行、エクスポートを1つにまとめた、オープンソースのノーコードWeb UIです。 ローカル インターフェース。

boltクイックスタートstar機能githubGitHub

  • GGUFを実行 および safetensor モデルをローカルで Mac、Windows、Linuxで。

  • 70%少ないVRAMで500以上のモデルを2倍高速に学習(精度低下なし)

  • テキスト、画像、TTS音声、埋め込みモデルを実行・学習

circle-check

モデルをローカルで実行

GGUFを検索して実行

および safetensor モデルを 自己修復ツール 呼び出し / Web検索、 自動推論 パラメータ調整、 (Bash + Python)、API(まもなく対応)。画像、ドキュメント、音声、コードをアップロードできます。 自動推論パラメータ モデルを並べて比較

。llama.cpp + Hugging Face によって動作し、マルチGPU推論 およびほとんどのモデルをサポートします。 コードを実行 + ツール呼び出しを修復

Unsloth Studio では、LLM が JavaScript だけでなく Bash と Python も実行できます。また、Claude Artifacts のようにプログラムをサンドボックス化するため、モデルはコードをテストし、ファイルを生成し、実際の計算で答えを検証できます。

例:Qwen3.5-4B は20以上のWebサイトを検索して出典を引用し、思考トレース内でWeb検索を行いました。

ノーコード学習

PDF、CSV、JSON

ドキュメント、またはYAML設定をアップロードして、NVIDIA上で即座に学習を開始できます。Unslothのカーネルは、500以上のテキスト、画像、TTS/音声、埋め込みモデル全体でLoRA、FP8、FFT、PTを最適化します。 次のような最新のLLMを微調整

Qwen3.5 や NVIDIA Nemotron 3 マルチGPU. は自動的に動作し、新バージョンも近日公開予定です。 グラフノードのワークフローを通じて、ドキュメントを使える / 合成データセットに変換します。PDF、CSV、JSON のような非構造化または構造化ファイルをアップロードしてください。NVIDIA Nemo 搭載の Unsloth Data Recipes

得る

完全な可視性 を学習実行に対して確保し、制御できます。学習損失、勾配ノルム、GPU使用率をリアルタイムで追跡し、好みに合わせてカスタマイズできます。 スマートフォンなどの他のデバイスで学習進捗を確認することもできます。

モデルのエクスポート / 保存

任意のモデルをエクスポート

、微調整済みモデルを含め、safetensors または GGUF にして llama.cpp、vLLM、Ollama、LM Studio などで使用できます。学習履歴を保存するので、実行を見直したり、再エクスポートしたり、実験したりできます。

モデルアリーナ

チャットして

2つの異なる モデルを比較し、ベースモデルと微調整済みモデルなどの出力の違いを確認できます。 まず最初の GGUF/モデルを読み込み、次に2つ目を読み込むだけです。すると、まず1つ目のモデルで推論が始まり、その後2つ目のモデルが読み込まれます。

プライバシー優先 + セキュア

Unsloth Studio は100%オフラインで、コンピューター上でローカルに使用できます。暗号化されたパスワードや JWT のアクセス / リフレッシュフローを含むトークンベース認証により、データは安全に保たれます。

以前に HF などからダウンロードした既存 / 古いモデルや GGUF を使用できます。

手順はこちら こちらは.

circle-exclamation

Unsloth Studio は Windows、Linux、WSL、MacOS で動作します(現在はチャットのみ)。

CPU:

  • GPUなしでも Unsloth は動作しますが、 推論と チャット のみです。 Data Recipes.

  • 学習: で動作します NVIDIA:RTX 30、40、50、Blackwell、DGX Spark/Station など + Intel GPU

  • Mac: CPUと同様 - チャットと Data Recipes のみ現在動作します。 MLX 学習はまもなく対応予定です。

  • AMD: チャットは動作します。 Unsloth Coreで学習してください。Studio対応は近日公開予定です。

  • 近日公開: 以下の学習対応 Apple MLX AMD。

  • マルチGPU: すでに動作しており、大幅アップグレードが進行中です。

MacOS、Linux、WSL:

Windows PowerShell:

Unslothを起動

MacOS、Linux、WSL:

Windows:

Docker:

公式の Dockerイメージ: unsloth/unslotharrow-up-right を使用してください。現在、Windows、WSL、Linuxで動作します。MacOS対応は近日公開予定です。

circle-exclamation

インストールの詳細については、 Unsloth Studio インストール セクションをご覧ください。 NVIDIA の 動画チュートリアルはこちら.

arrow-down-to-squareInstallationchevron-right

google Google Colab ノートブック

私たちは 無料の Google Colab ノートブックarrow-up-right を作成しました。これにより、Colab の T4 GPU で Unsloth のすべての機能を試せます。最大22Bパラメータまでのほとんどのモデルを学習・実行でき、より大きなモデルにはより大きいGPUへ切り替えられます。'Run all' をクリックするだけで、インストール後にUIが表示されるはずです。

インストールが完了したら、 Start Unsloth Studio までスクロールして、 Open Unsloth Studio を左側に表示されている白いボックス内でクリックしてください:

circle-exclamation

seedling ワークフロー

Unsloth Studio の通常のワークフローは次のとおりです:

  1. ローカルファイルまたは対応する統合からモデルを読み込みます。

  2. PDF、CSV、JSONL ファイルから学習データを取り込むか、ゼロからデータセットを作成します。

  3. データセットをクリーンアップ、改善、拡張し、 Data Recipes.

  4. 推奨プリセットで学習を開始するか、自分で設定をカスタマイズします。

  5. 学習済みモデルとチャットし、その出力をベースモデルと比較します。

  6. 保存またはエクスポート して、すでに使っているスタックにローカルで組み込みます。

Unsloth Studio の各セクションについての個別の詳細解説もお読みいただけます:

video 動画チュートリアル

Studio を始めるために NVIDIA が作成した動画チュートリアルはこちらです:

Unsloth Studio のインストール方法 動画チュートリアル

comments-question FAQ

Unsloth はデータを収集または保存しますか? Unsloth は利用状況のテレメトリを収集しません。Unsloth は、GPUの種類やデバイス(例:Mac)など、互換性に必要な最小限のハードウェア情報のみを収集します。Unsloth Studio は100%オフラインでローカルに動作します。

以前 Hugging Face からダウンロードした古い / 既存モデルはどう使えばいいですか? はい、以前 Hugging Face などからダウンロードした既存または古いモデルや GGUF を使用できます。私たちの こちらは.

Unsloth Studio は OpenAI 互換 API をサポートしていますか? はい、Data Recipes ではサポートしています。推論については現在対応中で、早ければ今週中にもサポートを提供できる見込みです。ご期待ください!

Unsloth は現在 AGPL-3.0 の下でライセンスされていますか? Unsloth は Apache 2.0 と AGPL-3.0 のデュアルライセンスモデルを採用しています。コアの Unsloth パッケージは引き続き Apache 2.0arrow-up-rightの下でライセンスされており、Unsloth Studio UI などの一部のオプションコンポーネントは AGPL-3.0arrow-up-right.

の下でライセンスされています。この構成は、プロジェクトをオープンソースのまま維持しつつ、Unsloth の継続的な開発を支え、より広いエコシステムの成長を促すのに役立ちます。

Studio は LLM のみをサポートしていますか? いいえ。Studio は、テキスト、マルチモーダルモデル、 transformers 互換のモデルファミリーを幅広くサポートしており、 テキスト読み上げ、音声、 埋め込み、BERT 形式のモデルを含みます。

独自の学習設定を使えますか? はい。YAML設定をインポートすると、Studio が関連設定を自動入力します。

コンテキスト長はどう調整できますか? llama.cpp の賢い自動コンテキストにより、コンテキスト長の調整は不要になりました。これは余分なものを読み込まず、必要なコンテキストだけを使用します。ただし、必要な場合に使えるよう、まもなくこの機能も追加します。

UIを使うためにモデルを学習する必要がありますか? いいえ、どの GGUF やモデルも、どのモデルも微調整せずにダウンロードするだけで使えます。

Unsloth の未来

私たちは、オープンソースAIをできるだけ利用しやすくするために全力で取り組んでいます。Unsloth と Unsloth Studio の次の展開として、マルチGPU、Apple Silicon/MLX、AMD の公式サポートをリリースします。これは Unsloth Studio のベータ版であるため、今後数週間で多くの発表と改善がある予定です。さらに、最高で最もシンプルな体験を提供するため、NVIDIA と密接に連携してマルチGPU対応を進めています。

謝辞

リリースに参加してくれた NVIDIA と Hugging Face に心から感謝します。また、Unsloth Studio の初期ベータテスターの皆さんにも感謝します。皆さんの時間とフィードバックに本当に感謝しています。さらに、llama.cpp、PyTorch、そして open model labs が、Unsloth Studio を可能にした基盤を提供してくれたことにも感謝します。

最終更新

役に立ちましたか?