Unsloth Studio を始める
ファインチューニングスタジオ、データレシピ、モデルのエクスポート、チャットの使い方を始めるためのガイド。
Unsloth Studioは、コードを書かずにLLMを微調整するためのローカルかつブラウザベースのGUIです。モデルの読み込み、データセットのフォーマット、ハイパーパラメータの設定、ライブのトレーニング監視を扱うクリーンなインターフェースでトレーニングパイプラインをラップします。
Unsloth Studioのセットアップ
まず、ローカルインストールまたはクラウドオプションのいずれかを使ってUnsloth Studioを起動します。次の インストール手順 に従うか、私たちの 無料のColab ノートブックを使用してください。ローカルセットアップの場合は次を実行します:
uunsloth studio -H 0.0.0.0 -p 8888その後、開いてください http://localhost:8888 をブラウザで開きます。
最初の起動時にはアカウントを保護するためのパスワードを作成し、後で再度サインインする必要があります。
その後、モデル、データセット、基本設定を選ぶ簡単なオンボーディングウィザードが表示されます。いつでもスキップして手動で設定することもできます。

Studio - クイックスタート
Unsloth Studioのホームページには4つの主要エリアがあります: モデル, データセット, パラメータ、および トレーニング/設定
モデルとデータの簡単なセットアップ Hugging Faceまたはローカルファイルから
柔軟なトレーニングの選択肢 QLoRA、LoRA、またはフルファインチューニングのような方法(デフォルトが入力済み)
役立つ設定ツール 分割、カラムマッピング、ハイパーパラメータ、YAML設定のためのツール
優れたトレーニング可視化 ライブ進捗、GPU統計、チャート、起動状況など

1. モデルと方法を選択
モデルタイプ
ユースケースに合うモダリティを選んでください:
テキスト
チャット、指示に従うタスク、補完
ビジョン
画像+テキスト(VLM)
オーディオ
音声/オーディオ理解
埋め込み
文の埋め込み、検索
トレーニング方式
ピルセレクタで切り替えられる3つの方式があります:
QLoRA
4ビット量子化されたベースモデル+LoRAアダプタ
最小
LoRA
フル精度ベースモデル+LoRAアダプタ
中程度
フルファインチューニング
すべての重みが学習されます
最大
コンボボックスに任意のHugging Faceモデル名を入力するか、ハブを直接検索できます。ローカルに保存されたモデルは ~/.unsloth/studio/models やHugging Faceのキャッシュもリストに表示されます。
GGUF形式のモデルはトレーニング対象外です - 推論専用です。
モデルを選択すると、Studioは自動的にバックエンドからその構成を取得し、すべてのハイパーパラメータに対して妥当なデフォルト値を事前入力します。
HuggingFaceトークン
モデルが制限付き(例:Llama、Gemma)の場合は、ここにHugging Faceアクセス・トークンを貼り付けてください。トークンはリアルタイムで検証され、無効な場合はインラインでエラーが表示されます。
2. データセット
ソース
データの取得元を選ぶには2つのタブを切り替えます:
HuggingFace Hub - ハブに対するライブ検索。各結果に最終更新日が表示されます。
ローカル - ファイルをドラッグアンドドロップするかクリックして、次のような非構造化または構造化ファイルをアップロードします:
PDF,DOCX,JSONL,JSON,CSV、またはParquet形式。以前にアップロードしたデータセットは自動的に更新されるリストに表示されます。
Prompt Studioにデータの解釈とフォーマット方法を指示してください:
自動
Unslothにフォーマットを自動検出させます
alpaca
指示(instruction) / 入力 / 出力 カラム
chatml
OpenAIスタイル メッセージ 配列
sharegpt
ShareGPTスタイルの会話
分割とスライシング
サブセット - データセットカードから自動的に入力されます。
Train split / Eval split - 使用するスプリットを選択します。Evalスプリットを設定するとトレーニング中に Eval Loss チャートが有効になります。
データセットスライス - 短時間の実験のために行範囲(開始インデックス/終了インデックス)でトレーニングを制限することがオプションで可能です。
カラムマッピング
Studioがデータセットのカラムを正しい役割に自動的にマップできない場合、 データセットプレビューダイアログ が開きます。サンプル行を表示し、各カラムを 指示(instruction), 入力, 出力, 画像などに割り当てることができます。可能な場合は提案マッピングが事前入力されます。
3. ハイパーパラメータ
パラメータは折りたたみ可能なセクションにグループ化されています。詳細なLoRAハイパーパラメータガイドはここでご覧いただけます:
🧠Hyperparameters Guide最大ステップ数
0
0 代わりにエポックを使用することを意味します
コンテキスト長
2048
オプション:512 → 32768
学習率
2e-4
LoRA設定
(フルファインチューニングが選択されている場合は非表示)
ランク
16
スライダー 4–128
アルファ
32
スライダー 4–256
ドロップアウト
0.05
LoRAバリアント
LoRA
LoRA / RS-LoRA / LoftQ
ターゲットモジュール
すべてオン
q_proj, k_proj, v_proj, o_proj, gate_proj, up_proj, down_proj
について ビジョン 画像データセットを持つモデルでは、追加で4つのチェックボックスが表示されます:
ビジョン層をファインチューニング
言語層をファインチューニング
アテンションモジュールをファインチューニング
MLPモジュールをファインチューニング
トレーニングハイパーパラメータ
3つのタブに整理されています:
| パラメータ | デフォルト | |---|---| | エポック数 | 3 | | バッチサイズ | 4 | | 勾配蓄積(Gradient Accumulation) | 8 | | 重み減衰(Weight Decay) | 0.01 | | オプティマイザ | AdamW 8ビット |
| パラメータ | デフォルト | |---|---| | LRスケジューラ | 線形 | | ウォームアップステップ | 5 | | 勾配チェックポイント(Gradient Checkpointing) | unsloth | | ランダムシード | 3407 | | セーブステップ | 0 | | 評価ステップ | 0 | | パッキング | false | | 補完での学習(Train on Completions) | false |
| パラメータ | デフォルト | |---|---| | W&Bを有効化 | false | | W&Bプロジェクト | llm-finetuning | | TensorBoardを有効化 | false | | TensorBoardディレクトリ | runs | | ログ頻度 | 10 |
Unslothの勾配チェックポイント機能: unsloth はUnsloth独自のメモリ効率の良い実装を使用しており、標準のPyTorchオプションと比べてVRAM使用量を大幅に削減できる場合があります。推奨されるデフォルトです。
4. トレーニングと設定
右下のカードには3つの設定管理ボタンと トレーニング開始 ボタンがあります。
アップロード
以前に保存した .yaml 設定ファイルを読み込みます
保存
現在の設定をYAMLとしてエクスポートします
リセット
すべてのパラメータをモデルのデフォルトに戻します
トレーニング開始ボタンは、モデルとデータセットの両方が設定されるまで無効のままです。バリデーションエラーはインラインで表示されます — 例えば、評価スプリットを選ばずに評価ステップを設定した場合や、テキスト専用モデルにビジョンデータセットを組み合わせた場合などです。
読み込み画面
をクリックすると、バックエンドがすべてを準備している間、フルページのオーバーレイが表示されます。 トレーニング開始オーバーレイはライブのフェーズ更新を示すアニメーションターミナルを表示します:

青:モデル/データセットをダウンロード中
琥珀色:モデル/データセットを読み込み中
青:設定中
緑:トレーニング中
いつでも隅の
× ボタンでキャンセルできます。キャンセルする前に確認ダイアログが表示されます。 トレーニングの進行と可観測性
最初のトレーニングステップが到着するとオーバーレイは閉じられ、ライブトレーニングビューが表示されます。進捗バーのステップが100%に達するとファインチューニングプロセスは完了します。経過時間とトークン数を確認できます。
ステータスパネル


オプション
最後Nステップのスライダー
EMA平滑化
生データを表示
0.6
オン
平滑化を表示
平均線を表示
平滑化を表示
スケール(シリーズごと)
平滑化を表示
線形/対数
外れ値クリッピング
クリップなし/p99/p95
設定ファイル

すべてのトレーニング設定はYAMLファイルとして保存および再読み込みできます。ファイル名は自動的に次のように命名されます:
{model}_{method}_{dataset}_{timestamp}.yaml

training:
データレシピ - クイックスタート
Unslothデータレシピ
では、PDFやCSVのようなドキュメントをアップロードして、利用可能なデータセットに変換できます。グラフノードのワークフローを使って視覚的にデータセットを作成・編集できます。 レシピページが主要な入口です。レシピはブラウザにローカル保存されるので、後で保存した作業に戻れます。ここから空のレシピを作成するか、ガイド付きの学習レシピを開くことができます。
データレシピは同様の基本的な流れに従います。レシピページを開き、レシピを作成または選択し、エディタでワークフローを構築し、それを検証してプレビューを実行し、出力が正しければフルデータセットを実行します。シードデータと生成ブロックを追加し、ワークフローを検証し、サンプル出力をプレビューしてからフルデータセットのビルドを実行します。UnslothデータレシピはNVIDIAの

DataDesigner によって動作します.
一目で見て一般的なワークフローは次のようになります:
レシピページを開く。
新しいレシピを作成するか既存のレシピを開く。
データセットワークフローを定義するブロックを追加する。
クリック 検証 して設定の問題を早期に検出する。
プレビューを実行してサンプル行を素早く確認する。
レシピが準備できたらフルデータセットビルドを実行する。
進捗と出力をグラフや 実行(Executions) ビューでライブに確認します。
結果のデータセットを選択して Studio モデルを微調整します。
エクスポート - クイックスタート
Unsloth Studioの「エクスポート」を使って、モデルをGGUF、Safetensors、またはLoRAにエクスポート、保存、変換してデプロイ、共有、またはUnsloth、llama.cpp、Ollama、vLLMなどでのローカル推論に使用できます。訓練済みチェックポイントをエクスポートするか、既存の任意のモデルを変換できます。

Unsloth Studioでのモデルエクスポートに関する詳細なチュートリアル/ガイドはここで読むことができます:
Model Export チャット - クイックスタート
Unsloth Studio はモデルを100%オフラインであなたのコンピュータ上で実行することを可能にします。Hugging FaceからのGGUFやsafetensors、またはローカルファイルからのモデル形式を実行できます。
ダウンロード+実行 GGUF、ファインチューンされたアダプタ、safetensorsなど任意のモデルを実行します。
比較 異なるモデルの 出力を並べて比較
アップロード プロンプト内でドキュメント、画像、音声を使用
チューニング 推論の設定(temperature、top-p、top-k、system promptなど) Unsloth Studioでモデルを実行する方法に関する詳細なチュートリアル/ガイドはここで読むことができます:

ビデオチュートリアル
Studio Chat Unsloth Studioの使い方を始めるためのビデオチュートリアルが2本あります!
ビデオで示されているUnsloth Studioのバージョンは古く、現在のバージョンを反映していない場合があります。
NVIDIAが作成したStudioの入門ビデオチュートリアルはこちらです:
インストールからStudioの使用までの完全なステップバイステップビデオチュートリアルはこちらです:
詳細設定
CLIコマンド
Unsloth CLI(
cli.py)は次のコマンドを提供します:使用法: cli.py [COMMAND]
new-ui-prototype/
すべてのエンドポイントは有効なJWTを要求します
Authorization: Bearer <token> ヘッダー(ただし /api/auth/* および /api/health を除く)).
GET
を除く)
ヘルスチェック
GET
/api/system
システム情報(GPU、CPU、メモリ)
POST
/api/auth/signup
アカウント作成(初回実行時はセットアップトークンが必要)
POST
/api/auth/login
ログインしてJWTトークンを受け取る
POST
/api/auth/refresh
アクセストークンの有効期限を更新する
GET
/api/auth/status
認証が初期化されているか確認する
POST
/api/train/start
トレーニングジョブを開始する
POST
/api/train/stop
実行中のトレーニングジョブを停止する
POST
/api/train/reset
トレーニング状態をリセットする
GET
/api/train/status
現在のトレーニング状況を取得する
GET
/api/train/metrics
トレーニングのメトリクスを取得する(損失、学習率、ステップ)
GET
/api/train/stream
リアルタイムのトレーニング進捗のSSEストリーム
GET
/api/models/
利用可能なモデルを一覧表示する
POST
/api/inference/chat
推論のためにチャットメッセージを送信する
GET
/api/datasets/
データセットの一覧/管理
最終更新
役に立ちましたか?

