# Unsloth Studio の紹介

本日、私たちは **Unsloth Studio** （ベータ版）を発表します。オープンソースのノーコードWeb UIで、オープンモデルの学習・実行・エクスポートを1つの統合 **ローカル** インターフェースで行えます。

<a href="#quickstart" class="button primary" data-icon="bolt">クイックスタート</a><a href="#features" class="button secondary" data-icon="star">機能</a><a href="https://github.com/unslothai/unsloth" class="button secondary" data-icon="github">GitHub</a>

* **GGUFを実行** およびsafetensorモデルをローカルで **Mac**、Windows、Linux上で。
* VRAMを70%削減しながら500以上のモデルを2倍高速に学習（精度低下なし）
* テキスト、画像、TTS音声、埋め込みモデルを実行・学習

{% hint style="success" %}
**最新の更新情報は、こちらの** [**新しい変更履歴ページをご覧ください**](https://unsloth.ai/docs/jp/xin-zhe/changelog)**!** ✨
{% endhint %}

<div data-with-frame="true"><figure><img src="https://735611837-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2FxV1PO5DbF3ksB51nE2Tw%2Fmore%20cropped%20ui%20for%20homepage.png?alt=media&#x26;token=f75942c9-3d8d-4b59-8ba2-1a4a38de1b86" alt=""><figcaption></figcaption></figure></div>

* **MacOS** と **CPU** で [チャット](#run-models-locally) GGUF推論と [データレシピ](https://unsloth.ai/docs/jp/xin-zhe/studio/data-recipe)に対応しています。MLX学習は近日公開予定です。
* データセットは不要です。 [**データセットを自動生成**](https://unsloth.ai/docs/jp/xin-zhe/studio/data-recipe) 元に **PDF、CSV、JSON、DOCX、TXT** ファイル。
* [エクスポートまたは保存](https://unsloth.ai/docs/jp/xin-zhe/studio/export) あなたのモデルをGGUF、16-bit safetensorなどへ。
* [**自己修復型ツール呼び出し**](https://unsloth.ai/docs/jp/xin-zhe/chat#auto-healing-tool-calling) ／Web検索 + [**コード実行**](https://unsloth.ai/docs/jp/xin-zhe/chat#code-execution)
* [推論パラメータの自動](https://unsloth.ai/docs/jp/xin-zhe/chat#auto-parameter-tuning) 調整とチャットテンプレートの編集。

## ⭐ 機能

{% columns %}
{% column %}

### **モデルをローカルで実行**

[GGUFを検索して実行](https://unsloth.ai/docs/jp/xin-zhe/studio/chat) およびsafetensorモデルを [自己修復型ツール](https://unsloth.ai/docs/jp/xin-zhe/chat#auto-healing-tool-calling) 呼び出し／Web検索、 [自動推論](https://unsloth.ai/docs/jp/xin-zhe/chat#auto-parameter-tuning) パラメータ調整、 [**コード実行**](https://unsloth.ai/docs/jp/xin-zhe/chat#code-execution) （Bash + Python）、API（まもなく対応）。画像、ドキュメント、音声、コードをアップロードできます。

[モデルを並べて比較](#model-arena)。llama.cpp + Hugging Face により、私たちは **マルチGPU推論** およびほとんどのモデルに対応しています。
{% endcolumn %}

{% column %}

<div data-with-frame="true"><figure><img src="https://735611837-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2FFeQ0UUlnjXkDdqhcWglh%2Fskinny%20studio%20chat.png?alt=media&#x26;token=c2ee045f-c243-4024-a8e4-bb4dbe7bae79" alt=""><figcaption></figcaption></figure></div>
{% endcolumn %}
{% endcolumns %}

{% columns %}
{% column %}

### コードを実行 + ツール呼び出しを修復

Unsloth Studioでは、LLMがJavaScriptだけでなくBashとPythonも実行できます。また、Claude Artifactsのようにプログラムをサンドボックス化するため、モデルはコードのテスト、ファイル生成、実際の計算による回答検証ができます。

例：Qwen3.5-4Bは20以上のWebサイトを検索し、ソースを引用しました。Web検索は思考トレースの内部で行われています。
{% endcolumn %}

{% column %}

<div data-with-frame="true"><figure><img src="https://735611837-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2FXPQGEEr1YoKofrTatAKK%2Ftoolcallingif.gif?alt=media&#x26;token=25d68698-fb13-4c46-99b2-d39fb025df08" alt=""><figcaption></figcaption></figure></div>
{% endcolumn %}
{% endcolumns %}

{% columns %}
{% column %}

### **ノーコード学習**

[PDF、CSV、JSONをアップロード](#data-recipes) ドキュメント、またはYAML設定をアップロードして、NVIDIA上で即座に学習を開始できます。Unslothのカーネルは、500以上のテキスト、画像、TTS/音声、埋め込みモデル全体でLoRA、FP8、FFT、PTを最適化します。

次のような最新LLMをファインチューニング [Qwen3.5](https://unsloth.ai/docs/jp/moderu/qwen3.5/fine-tune) およびNVIDIA [Nemotron 3](https://unsloth.ai/docs/jp/moderu/nemotron-3). [マルチGPU](https://unsloth.ai/docs/jp/ji-ben/multi-gpu-training-with-unsloth) は自動的に動作し、さらに新しいバージョンも登場予定です。
{% endcolumn %}

{% column %}

<div data-with-frame="true"><figure><img src="https://735611837-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2FRjAfHShyL7MfHfq6BStl%2Fonboarding%20updated.png?alt=media&#x26;token=7cdde1a0-8f8c-4d25-9414-e28f35f211cd" alt=""><figcaption></figcaption></figure></div>
{% endcolumn %}
{% endcolumns %}

{% columns %}
{% column %}

### データレシピ

[**データレシピ**](https://unsloth.ai/docs/jp/xin-zhe/studio/data-recipe) グラフノードのワークフローを通じて、あなたのドキュメントを利用可能な／合成データセットに変換します。PDF、CSV、JSONなどの非構造化または構造化ファイルをアップロードしてください。NVIDIA Nemoを搭載したUnsloth Data Recipes [Data Designer](https://github.com/NVIDIA-NeMo/DataDesigner)が、ドキュメントを自動で希望の形式に変換します。
{% endcolumn %}

{% column %}

<div data-with-frame="true"><figure><img src="https://735611837-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2Fcc9T0V8WsyjcuOE2sIVV%2Fdata%20recipes%20longer.png?alt=media&#x26;token=5ae33e8d-09b1-45e0-8f5c-40dca8bbcf0c" alt=""><figcaption></figcaption></figure></div>
{% endcolumn %}
{% endcolumns %}

{% columns %}
{% column %}

### 可観測性

完全な可視性 [を得て、学習実行を制御できます。学習損失、勾配ノルム、GPU使用率をリアルタイムで追跡し、好みに合わせてカスタマイズできます。](https://unsloth.ai/docs/jp/xin-zhe/start#training-progress) スマートフォンなど他のデバイスで学習の進捗を確認することもできます。

モデルのエクスポート／保存
{% endcolumn %}

{% column %}

<div data-with-frame="true"><figure><img src="https://735611837-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2FCIrWHN1JzfaFNOoavmZS%2Fobserve%20new.png?alt=media&#x26;token=21fdbc5b-a073-437a-b487-b5bdff4716f6" alt=""><figcaption></figcaption></figure></div>
{% endcolumn %}
{% endcolumns %}

{% columns %}
{% column %}

### 任意のモデルをエクスポート

[**、ファインチューニング済みモデルも含めて、safetensorsまたはGGUFへエクスポートし、llama.cpp、vLLM、Ollama、LM Studioなどで使用できます。**](https://unsloth.ai/docs/jp/xin-zhe/studio/export)学習履歴を保存するので、実行を再確認したり、再エクスポートしたり、試行錯誤できます。

モデルアリーナ
{% endcolumn %}

{% column %}

<div data-with-frame="true"><figure><img src="https://735611837-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2F8UHzGTHF9q6LWrJy8Y4r%2FScreenshot%202026-03-15%20at%203.02.02%E2%80%AFAM.png?alt=media&#x26;token=cb5e78f8-481a-4c9f-9361-db53e6e0ec37" alt=""><figcaption></figcaption></figure></div>
{% endcolumn %}
{% endcolumns %}

{% columns %}
{% column %}

### チャットして

2つの異なる [モデルを比較](https://unsloth.ai/docs/jp/xin-zhe/chat#model-arena) できます。ベースモデルとファインチューニング済みモデルなどを比較して、出力の違いを確認できます。

まず最初のGGUF／モデルを読み込み、その後に2つ目を読み込むだけです。すると、じゃーん！ 推論はまず1つ目のモデルを読み込み、その後に2つ目を読み込みます。
{% endcolumn %}

{% column %}

<div align="center" data-with-frame="true"><figure><img src="https://735611837-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2FVgnE7eMPQk2vaFboJ4BU%2Fmodel%20arena%20closeup.png?alt=media&#x26;token=8b0a910b-440c-4859-a846-0060e61e157b" alt=""><figcaption></figcaption></figure></div>
{% endcolumn %}
{% endcolumns %}

{% columns %}
{% column %}

### プライバシーファースト + 安全

Unsloth Studioは、100%オフラインかつローカルでコンピュータ上で使用できます。暗号化されたパスワードとJWTのアクセス／リフレッシュフローを含むトークンベース認証により、データの安全性を保ちます。

以前HFなどからダウンロードした既存／古いモデルやGGUFも使用できます。 [こちらの手順をご覧ください](https://unsloth.ai/docs/jp/xin-zhe/chat#using-old-existing-gguf-models).
{% endcolumn %}

{% column %}

<div data-with-frame="true"><figure><img src="https://735611837-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2F15gRLbMDX1ReKdHBBl1G%2FScreenshot%202026-03-15%20at%203.54.51%E2%80%AFAM.png?alt=media&#x26;token=ca096807-54c2-4d8c-bdc1-c1bb0055469b" alt=""><figcaption></figcaption></figure></div>
{% endcolumn %}
{% endcolumns %}

{% hint style="warning" %}
ご注意ください。これは **ベータ** 版のUnsloth Studioです。今後数日から数週間で、多くの改善、修正、新機能が追加される予定です。
{% endhint %}

## ⚡ クイックスタート

Unsloth StudioはWindows、Linux、WSL、MacOSで動作します（現在はチャットのみ）。

* **CPU：** GPUなしでもUnslothは動作しますが、 [チャット](#run-models-locally) 推論と [データレシピ](https://unsloth.ai/docs/jp/xin-zhe/studio/data-recipe).
* **学習のみです：** 対応しています **NVIDIA**：RTX 30、40、50、Blackwell、DGX Spark/Stationなど + **Intel** GPU
* **Mac：** CPUと同様に、チャットと [データレシピ](https://unsloth.ai/docs/jp/xin-zhe/studio/data-recipe) のみ現在対応しています。 **MLX** 学習はまもなく対応予定です。
* **AMD：** チャットは動作します。学習は [Unsloth Core](https://unsloth.ai/docs/jp/meru/install/amd)で行えます。Studio対応は近日公開予定です。
* **近日対応：** 次への学習対応： **Apple MLX** と **AMD。**
* **マルチGPU：** すでに動作しており、大幅アップグレードも予定されています。

更新するには、以下の同じインストールコマンドを使用してください：

### **MacOS、Linux、WSL：**

```bash
curl -fsSL https://unsloth.ai/install.sh | sh
```

### **Windows PowerShell：**

```bash
irm https://unsloth.ai/install.ps1 | iex
```

#### Unslothを起動

```bash
unsloth studio -H 0.0.0.0 -p 8888
```

### Docker：

公式の **Dockerイメージ**: [`unsloth/unsloth`](https://hub.docker.com/r/unsloth/unsloth) を使用してください。現在はWindows、WSL、Linuxで動作します。MacOS対応は近日公開予定です。

{% code overflow="wrap" expandable="true" %}

```bash
docker run -d -e JUPYTER_PASSWORD="mypassword" \
  -p 8888:8888 -p 8000:8000 -p 2222:22 \
  -v $(pwd)/work:/workspace/work \
  --gpus all \
  unsloth/unsloth
```

{% endcode %}

{% hint style="success" %}
**初回インストールは、事前コンパイル済みllama.cppバイナリにより、今では6倍高速でサイズも50%削減されています。**
{% endhint %}

**インストールとアンインストールの詳細については、** [**Unsloth Studioインストール**](https://unsloth.ai/docs/jp/xin-zhe/studio/install) **セクションをご覧ください。**

{% content-ref url="studio/install" %}
[install](https://unsloth.ai/docs/jp/xin-zhe/studio/install)
{% endcontent-ref %}

### <i class="fa-google">:google:</i> Google Colabノートブック

私たちは [無料のGoogle Colabノートブック](https://colab.research.google.com/github/unslothai/unsloth/blob/main/studio/Unsloth_Studio_Colab.ipynb) を作成しました。ColabのT4 GPU上でUnslothのすべての機能を試せます。22Bパラメータまでのほとんどのモデルを学習・実行でき、より大きなモデルにはより大きなGPUへ切り替えられます。'Run all'をクリックするだけで、インストール後にUIが表示されるはずです。

{% columns %}
{% column %}
{% embed url="<https://colab.research.google.com/github/unslothai/unsloth/blob/main/studio/Unsloth_Studio_Colab.ipynb>" %}

インストールが完了したら、 **Unsloth Studioを開始** までスクロールして **Unsloth Studioを開く** を左側に表示される白いボックス内でクリックしてください：

**さらに下へスクロールすると、実際のUIが表示されます。**
{% endcolumn %}

{% column %}

<div data-with-frame="true"><figure><img src="https://735611837-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2FkYitMrK55Ic6eIGqiKEJ%2FScreenshot%202026-03-16%20at%2011.21.16%E2%80%AFPM.png?alt=media&#x26;token=4388c309-a598-41f3-9301-e434c334ac1c" alt=""><figcaption></figcaption></figure></div>
{% endcolumn %}
{% endcolumns %}

{% hint style="warning" %}
現在、インストールをさらに高速化するためにllama.cppバイナリを事前コンパイルしています。

場合によってはStudioのリンクがエラーを返すことがあります。これは、広告ブロッカーを使っているか、MozillaまたはGoogle ColabがColabページに留まることを期待しているためです。非アクティブだと検出されると、GPUセッションが終了することがあります。それでも、少し下へスクロールすれば問題ありません&#x20;
{% endhint %}

## <i class="fa-seedling">:seedling:</i> ワークフロー

Unsloth Studioの通常のワークフローを以下に示します。まずはこれで始めてみてください：

1. Studioを起動 [インストール手順から](https://unsloth.ai/docs/jp/xin-zhe/studio/install).
2. ローカルファイルまたは対応する統合先からモデルを読み込みます。
3. PDF、CSV、JSONLファイルから学習データを取り込むか、ゼロからデータセットを作成します。
4. データセットをクリーンアップ、精緻化、拡張します [データレシピ](https://unsloth.ai/docs/jp/xin-zhe/studio/data-recipe).
5. 推奨プリセットで学習を開始するか、設定を自分でカスタマイズします。
6. 学習済みモデルとチャットし、その出力をベースモデルと比較します。
7. [保存またはエクスポート](#export-save-models) して、すでに使用しているスタックへローカルに反映します。

Unsloth Studioの各セクションについて、個別の詳しい解説を読むことができます：

{% columns %}
{% column width="50%" %}
{% content-ref url="studio/start" %}
[start](https://unsloth.ai/docs/jp/xin-zhe/studio/start)
{% endcontent-ref %}

{% content-ref url="studio/export" %}
[export](https://unsloth.ai/docs/jp/xin-zhe/studio/export)
{% endcontent-ref %}
{% endcolumn %}

{% column width="50%" %}
{% content-ref url="studio/data-recipe" %}
[data-recipe](https://unsloth.ai/docs/jp/xin-zhe/studio/data-recipe)
{% endcontent-ref %}

{% content-ref url="studio/chat" %}
[chat](https://unsloth.ai/docs/jp/xin-zhe/studio/chat)
{% endcontent-ref %}
{% endcolumn %}
{% endcolumns %}

## <i class="fa-video">:video:</i> ビデオチュートリアル

{% hint style="warning" %}
動画で紹介されているUnsloth Studioのバージョンは古く、現在のバージョンを反映していません。
{% endhint %}

{% columns fullWidth="true" %}
{% column %}
{% embed url="<https://www.youtube.com/watch?v=mmbkP8NARH4>" %}

Studioを使い始めるための、NVIDIA制作のビデオチュートリアルはこちらです：
{% endcolumn %}

{% column %}
{% embed url="<https://youtu.be/1lEDuRJWHh4?si=GHaS77ZZPOGjn3GJ>" %}

Unsloth Studioのインストール方法 ビデオチュートリアル
{% endcolumn %}
{% endcolumns %}

## <i class="fa-comments-question">:comments-question:</i> FAQ

**Unslothはデータを収集または保存しますか？**\
Unslothは利用テレメトリを収集しません。Unslothが収集するのは、GPUの種類やデバイス（例：Mac）など、互換性のために必要な最小限のハードウェア情報のみです。Unsloth Studioは100%オフラインでローカルに動作します。

**以前Hugging Faceからダウンロードした古い／既存のモデルはどう使えばいいですか？**\
はい、以前Hugging Faceなどからダウンロードした既存／古いモデルやGGUFを使えます。これらは現在、Unslothによって自動検出されるはずですが、されない場合は [こちらの手順をご覧ください](https://unsloth.ai/docs/jp/xin-zhe/chat#using-old-existing-gguf-models).

**なぜUnslothでは推論が遅くなることがあるのですか？**\
Unslothは他のローカル推論アプリと同様にllama.cppで動作するため、速度はおおむね同じはずです。場合によっては、Web検索、コード実行、自己修復型ツール呼び出しをオンにしているために遅くなることがあります。これらの機能はすべて推論を遅くする可能性があります。すべての機能をオフにしてもなお遅い場合は、GitHub issueを作成してください！

**Unsloth StudioはOpenAI互換APIをサポートしていますか？**\
はい、Data Recipesでは対応しています。推論については現在対応中で、今週中にもサポートをリリースできることを期待しています。お楽しみに！

**Unslothは現在AGPL-3.0ライセンスですか？**\
UnslothはApache 2.0とAGPL-3.0のデュアルライセンスモデルを採用しています。コアのUnslothパッケージは引き続き [**Apache 2.0**](https://github.com/unslothai/unsloth?tab=Apache-2.0-1-ov-file)の下でライセンスされており、Unsloth Studio UIのような一部のオプションコンポーネントは [**AGPL-3.0**](https://github.com/unslothai/unsloth?tab=AGPL-3.0-2-ov-file).

でライセンスされています。この構成は、プロジェクトをオープンソースのまま維持しつつ、Unslothの継続的な開発を支え、より広いエコシステムの成長を後押しします。

**StudioはLLMのみをサポートしていますか？**\
いいえ。Studioは幅広い対応 `transformers` 互換のモデルファミリーをサポートしており、テキスト、マルチモーダルモデル、 [text-to-speech](https://unsloth.ai/docs/jp/ji-ben/text-to-speech-tts-fine-tuning)、音声、 [embeddings](https://unsloth.ai/docs/jp/ji-ben/embedding-finetuning)、BERT系モデルを含みます。

**自分の学習設定を使えますか？**\
はい。YAML設定を読み込むと、Studioが関連する設定をあらかじめ入力します。

**コンテキスト長はどう調整できますか？**\
llama.cppのスマートな自動コンテキストにより、コンテキスト長の調整はもはや不要です。必要なコンテキストだけを使用し、余計なものは読み込みません。ただし、使いたい場合に備えて、近いうちにこの機能も追加する予定です。

**UIを使うためにモデルを学習する必要がありますか？**\
いいえ、どのGGUFやモデルでも、いずれのモデルもファインチューニングせずにダウンロードするだけで使えます。

#### Unslothの未来

私たちは、オープンソースAIをできるだけ使いやすくするために全力で取り組んでいます。今後のUnslothとUnsloth Studioでは、マルチGPU、Apple Silicon/MLX、AMDへの公式対応をリリース予定です。改めて、これはUnsloth Studioのベータ版であるため、今後数週間で多くの発表と改善があることをご期待ください。最良で最も簡単な体験を提供するため、NVIDIAともマルチGPU対応で緊密に取り組んでいます。

#### 謝辞

ローンチに参加してくださったNVIDIAとHugging Faceに心より感謝します。また、Unsloth Studioの初期ベータテスターの皆さんにも感謝します。皆さんの時間とフィードバックに深く感謝しています。さらに、Unsloth Studioを可能にしたインフラを提供してくださったllama.cpp、PyTorch、open model labsにも感謝申し上げます。

<figure><img src="https://735611837-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2FLsNFO8j8Sdovm8x2gY2n%2Fsloth%20painting.png?alt=media&#x26;token=650b3dc4-0bd4-4d30-9443-c23f67bfef7a" alt="" width="375"><figcaption></figcaption></figure>
