Unsloth Studioの始め方
ファインチューニングスタジオ、データレシピ、モデルのエクスポート、チャットの始め方ガイドです。
Unsloth Studio は、コードを書かずに LLM をファインチューニングできる、ローカルのブラウザベースGUIです。モデルの読み込み、データセットの整形、ハイパーパラメータ設定、ライブ学習の監視を扱う、すっきりしたインターフェースで学習パイプラインを包み込みます。
Unsloth Studio のセットアップ
まず、ローカルインストールまたはクラウドオプションのいずれかを使って Unsloth Studio を起動します。 インストール手順 に従ってセットアップするか、 無料の Colab ノートブックを使用してください。ローカルセットアップの場合は、次を実行します:
unsloth studio -H 0.0.0.0 -p 8888その後、 http://localhost:8888 をブラウザで開きます。
初回起動時には、アカウントを保護するためのパスワードを作成し、後で再度サインインする必要があります。
その後、モデル、データセット、基本設定を選ぶ簡単なオンボーディングウィザードが表示されます。いつでもスキップして、すべて手動で設定できます。

Studio - クイックスタート
Unsloth Studio のホームページには 4 つの主要エリアがあります: モデル, データセット, パラメータ、および 学習/設定
モデルとデータの簡単なセットアップ Hugging Face またはローカルファイルから
柔軟な学習方法 QLoRA、LoRA、フルファインチューニングなど、既定値が入力済み
便利な設定ツール 分割、列マッピング、ハイパーパラメータ、YAML設定用
優れた学習可視化 ライブ進捗、GPU統計、チャート、起動状況付き

1. モデルと手法を選択
モデル種類
ユースケースに合うモダリティを選択します:
テキスト
チャット、指示追従、補完
Vision
画像 + テキスト(VLM)
Audio
音声 / 音声理解
埋め込み
文埋め込み、検索
学習手法
3 つの手法があり、ピル型セレクタで切り替えます:
QLoRA
4ビット量子化されたベースモデル + LoRAアダプタ
最小
LoRA
フル精度のベースモデル + LoRAアダプタ
中
フルファインチューニング
すべての重みを学習
最大
Hugging Face モデル名を入力するか、コンボボックスから Hub を直接検索できます。 ~/.unsloth/studio/models に保存されたローカルモデルと、Hugging Face のキャッシュ内のモデルも一覧に表示されます。
GGUF形式のモデルは学習対象外です - 推論専用です。
モデルを選ぶと、Studio はバックエンドからその設定を自動取得し、すべてのハイパーパラメータに対して適切な既定値を自動入力します。
HuggingFace トークン
モデルがゲート付きの場合(例:Llama、Gemma)、Hugging Face のアクセス トークンをここに貼り付けてください。トークンはリアルタイムで検証され、無効な場合はその場でエラーが表示されます。
2. データセット
2 つのタブを切り替えて、データの取得元を選択します:
HuggingFace Hub - Hub に対するライブ検索です。各結果の最終更新日が表示されます。
ローカル - ドラッグ&ドロップするかクリックして、次のような非構造化または構造化ファイルをアップロードします:
PDF,DOCX,JSONL,JSON,CSV、またはParquet形式。以前アップロードしたデータセットは一覧に表示され、自動で更新されます。
詳細な データセットガイドはこちら.
Prompt Studio がデータをどう解釈して整形するか:

auto
Unsloth に形式を自動判別させる
alpaca
instruction / input / output columns
chatml
OpenAI スタイル messages array
sharegpt
ShareGPT スタイルの会話
分割とスライス
サブセット - データセットカードから自動的に入力されます。
学習分割 / 評価分割 - 使用する分割を選択します。評価分割を設定すると、 Eval Loss チャートが学習中に有効になります。
データセットスライス - 迅速な実験のために、行範囲(開始インデックス / 終了インデックス)に学習を任意で制限できます。
列マッピング
Studio がデータセットの列を正しい役割に自動マッピングできない場合は、 データセットプレビューダイアログ が開きます。サンプル行を表示し、各列を instruction, input, output, 画像などに割り当てられます。可能な場合は推奨マッピングが事前入力されます。
3. ハイパーパラメータ
パラメータは折りたたみ可能なセクションにグループ化されています。詳細な LoRA ハイパーパラメータガイド はこちら:
🧠Hyperparameters Guide最大ステップ数
0
0 は、代わりにエポックを使用することを意味します
コンテキスト長
2048
オプション:512 → 32768
学習率
2e-4
LoRA 設定
(フルファインチューニング選択時は非表示)
ランク
16
スライダー 4–128
Alpha
32
スライダー 4–256
ドロップアウト
0.05
LoRA バリアント
LoRA
LoRA / RS-LoRA / LoftQ
対象モジュール
すべてオン
q_proj, k_proj, v_proj, o_proj, gate_proj, up_proj, down_proj
画像データセットを持つ Vision モデルでは、4 つの追加チェックボックスが表示されます。ファインチューニング対象:
Vision レイヤー
言語レイヤー
Attention モジュール
MLP モジュール
学習ハイパーパラメータ
3 つのタブに整理されています:
エポック
3
バッチサイズ
4
勾配蓄積
8
Weight Decay
0.01
オプティマイザ
AdamW 8-bit
LR スケジューラ
linear
ウォームアップステップ
5
Gradient Checkpointing
unsloth
ランダムシード
3407
保存ステップ
0
評価ステップ
0
Packing
false
補完で学習
false
W&B を有効化
false
W&B プロジェクト
llm-finetuning
TensorBoard を有効化
false
TensorBoard ディレクトリ
runs
ログ頻度
10
Unsloth Gradient Checkpointing: unsloth は、Unsloth 独自のメモリ効率の高い実装を使用し、標準の PyTorch オプションに比べて VRAM 使用量を大幅に削減できます。推奨される既定値です。
4. 学習と設定
右下のカードには 3 つの設定管理ボタンと、 学習開始 ボタンがあります。
アップロード
以前保存した .yaml 設定ファイルを読み込む
保存
現在の設定を YAML にエクスポート
リセット
すべてのパラメータをモデルの既定値に戻す
モデルとデータセットの両方が設定されるまで、学習開始ボタンは無効のままです。検証エラーはその場で表示されます。たとえば、評価分割を選ばずに評価ステップを設定した場合や、テキスト専用モデルをVisionデータセットに割り当てた場合などです。
読み込み画面
をクリックすると、 学習開始、バックエンドがすべてを準備している間に全画面オーバーレイが表示されます。

オーバーレイには、ライブなフェーズ更新付きのアニメーション端末が表示されます:
青:モデル / データセットをダウンロード中
琥珀色:モデル / データセットを読み込み中
青:設定中
緑:学習中
いつでも × ボタンでキャンセルできます。停止される前に確認ダイアログが表示されます。
学習進捗と可観測性
最初の学習ステップが始まるとオーバーレイは閉じられ、ライブ学習ビューが表示されます。進捗バーのステップが 100% に達するとファインチューニングは完了です。経過時間とトークン数を確認できます。


各チャートには設定(歯車アイコン)があります:
表示ウィンドウ
直近 N ステップのスライダー
EMA 平滑化
0.6
生データを表示
オン
平滑化を表示
オン
平均線を表示
オン
スケール(系列ごと)
Linear / Log
外れ値クリップ
クリップなし / p99 / p95

設定ファイル
すべての学習設定は YAML ファイルとして保存・再読み込みできます。ファイル名は自動的に次の形式になります:

YAML は 3 つのセクションに分かれています:
これにより、実行の再現、設定の共有、実験のバージョン管理が簡単になります。
データレシピ - クイックスタート
Unsloth Data Recipes では、PDF や CSV などの文書をアップロードして、利用可能なデータセットに変換できます。グラフノードワークフローを使って、視覚的にデータセットを作成・編集できます。
レシピページが主要な入口です。レシピはブラウザ内にローカル保存されるため、後で保存した作業に戻れます。ここから空のレシピを作成するか、ガイド付き学習レシピを開けます。

Data Recipes は同じ基本手順に従います。レシピページを開き、レシピを作成または選択し、エディタでワークフローを構築し、検証してプレビューを実行し、出力が適切なら完全なデータセットを実行します。シードデータと生成ブロックを追加し、ワークフローを検証し、サンプル出力をプレビューしてから、完全なデータセット構築を実行します。Unsloth Data Recipes は NVIDIA の DataDesigner.
一目でわかる通常のワークフローは次のようになります:
レシピページを開く。
新しいレシピを作成するか、既存のものを開く。
ブロックを追加してデータセットのワークフローを定義する。
クリック 検証 して、設定の問題を早めに検出する。
プレビューを実行して、サンプル行を素早く確認する。
レシピの準備ができたら、完全なデータセット構築を実行する。
進捗と出力をグラフまたは 実行 ビューで確認して、詳細を把握する。
結果のデータセットを Studio で選択し、モデルをファインチューニングする。
エクスポート - クイックスタート
Unsloth Studio の「エクスポート」を使って、モデルを GGUF、Safetensors、または LoRA としてエクスポート、保存、変換し、Unsloth、llama.cpp、Ollama、vLLM などでのデプロイ、共有、ローカル推論に利用できます。学習済みチェックポイントをエクスポートするか、既存のモデルを変換できます。

Unsloth Studio を使ったモデルのエクスポートに関する詳細なチュートリアル / ガイドはこちらで読めます:
Model Export チャット - クイックスタート
Unsloth Studio Chat では、モデルをコンピュータ上で 100% オフラインで実行できます。Hugging Face またはローカルファイルから、GGUF や safetensors などのモデル形式を実行します。
ダウンロード + 実行 GGUF、ファインチューニング済みアダプタ、safetensors などの
比較 異なるモデルの 出力を横並びで
アップロード プロンプト内の文書、画像、音声
調整 推論 設定を調整:temperature、top-p、top-k、システムプロンプトなど

Unsloth Studio を使ったモデルの実行に関する詳細なチュートリアル / ガイドはこちらで読めます:
Studio Chat 動画チュートリアル
Studio を始めるための NVIDIA 作成の動画チュートリアルはこちらです:
Unsloth Studio のインストール方法 動画チュートリアル
動画で示されている Unsloth Studio のバージョンは古く、現在のバージョンを反映していません。
詳細設定
CLI コマンド
Unsloth CLI(cli.py)では、次のコマンドが利用できます:
プロジェクト構成
API リファレンス
すべてのエンドポイントには有効な JWT が必要です Authorization: Bearer <token> ヘッダー(ただし /api/auth/* と /api/health).
GET
/api/health
ヘルスチェック
GET
/api/system
システム情報(GPU、CPU、メモリ)
POST
/api/auth/signup
アカウント作成(初回実行時はセットアップトークンが必要)
POST
/api/auth/login
ログインして JWT トークンを受け取る
POST
/api/auth/refresh
期限切れのアクセストークンを更新する
GET
/api/auth/status
認証が初期化されているか確認する
POST
/api/train/start
学習ジョブを開始する
POST
/api/train/stop
実行中の学習ジョブを停止する
POST
/api/train/reset
学習状態をリセットする
GET
/api/train/status
現在の学習状態を取得する
GET
/api/train/metrics
学習メトリクス(損失、LR、ステップ)を取得する
GET
/api/train/stream
リアルタイムの学習進捗のSSEストリーム
GET
/api/models/
利用可能なモデルを一覧表示する
POST
/api/inference/chat
推論用のチャットメッセージを送信する
GET
/api/datasets/
データセットを一覧表示・管理する
最終更新
役に立ちましたか?

