Unsloth Studio を始める
ファインチューニングスタジオ、データレシピ、モデルのエクスポート、チャットの始め方ガイド。
Unsloth Studio は、コードを書くことなく LLM をファインチューニングできる、ローカルのブラウザベース GUI です。モデルの読み込み、データセットの整形、ハイパーパラメータ設定、ライブでの学習監視をまとめて扱う、すっきりしたインターフェースで学習パイプラインを包み込んでいます。
Unsloth Studio をセットアップする
まず、ローカルインストールかクラウド विकल्पのいずれかを使って Unsloth Studio を起動します。 インストール手順 をあなたの環境に合わせて確認するか、 無料の Colab ノートブックを使ってください。ローカル環境では、次を実行します:
unsloth studio -H 0.0.0.0 -p 8888次に http://localhost:8888 をブラウザで開きます。
初回起動時には、アカウントを保護するためのパスワードを作成し、後で再度サインインする必要があります。
その後、モデル、データセット、基本設定を選ぶための簡単な導入ウィザードが表示されます。いつでもスキップして、すべて手動で設定できます。

Studio - クイックスタート
Unsloth Studio のホームページには 4 つの主要な領域があります: モデル, データセット, パラメータ、および トレーニング/設定
Hugging Face やローカルファイルから、モデルとデータを簡単にセットアップ Hugging Face やローカルファイルから
柔軟な学習方法の選択 QLoRA、LoRA、フルファインチューニングなどを、既定値を埋めた状態で利用可能
便利な設定ツール 分割、列マッピング、ハイパーパラメータ、YAML 設定用
優れた学習可視化 ライブ進捗、GPU 状態、チャート、起動状況付き

1. モデルと手法を選択
モデルタイプ
用途に合うモダリティを選択します:
テキスト
チャット、指示追従、補完
Vision
画像 + テキスト(VLM)
Audio
音声 / 音声理解
Embeddings
文埋め込み、検索
学習手法
3 つの手法があり、ピル型セレクタで切り替えられます:
QLoRA
4-bit 量子化済みベースモデル + LoRA アダプタ
最小
LoRA
フル精度ベースモデル + LoRA アダプタ
中程度
フルファインチューニング
すべての重みを学習
最大
任意の Hugging Face モデル名を入力するか、コンボボックスから Hub を直接検索します。 ~/.unsloth/studio/models に保存されたローカルモデルや、Hugging Face キャッシュ内のモデルも一覧に表示されます。
GGUF 形式のモデルは学習対象から除外されます。推論専用です。
モデルを選ぶと、Studio がバックエンドから自動的に設定を取得し、すべてのハイパーパラメータに適切な既定値を事前入力します。
HuggingFace トークン
モデルがゲート付き(例: Llama、Gemma)の場合は、ここに Hugging Face のアクセストークンを貼り付けてください。トークンはリアルタイムで検証され、無効な場合はインラインでエラーが表示されます。
2. データセット
2 つのタブを切り替えて、データの取得元を選択します:
HuggingFace Hub - Hub に対するライブ検索。各結果には最終更新日が表示されます。
ローカル - ドラッグ&ドロップ、またはクリックしてファイルをアップロードします。非構造化または構造化ファイルの例:
PDF,DOCX,JSONL,JSON,CSV、またはParquet形式。以前アップロードしたデータセットは、自動更新される一覧に表示されます。
詳細な データセットガイドはこちら.
Prompt Studio では、データをどのように解釈し整形するかを次のようにします:

auto
Unsloth にフォーマットを自動検出させる
alpaca
instruction / input / output 列
chatml
OpenAI 形式 messages 配列
sharegpt
ShareGPT 形式の会話
分割とスライシング
Subset - データセットカードから自動的に入力されます。
Train split / Eval split - 使用する split を選択します。eval split を設定すると、 Eval Loss チャートが学習中に有効になります。
データセットスライス - 必要に応じて、行範囲(開始インデックス / 終了インデックス)に学習を制限して、素早く実験できます。
列マッピング
Studio がデータセットの列を正しい役割に自動対応付けできない場合は、 データセットプレビュー ダイアログ が開きます。サンプル行を表示し、各列を instruction, input, output, 画像などに割り当てられます。推奨マッピングは可能な限り事前入力されます。
3. ハイパーパラメータ
パラメータは折りたたみ可能なセクションに分かれています。詳細な LoRA ハイパーパラメータガイド はこちら:
🧠Hyperparameters Guide最大ステップ数
0
0 は、代わりに Epochs を使用することを意味します
コンテキスト長
2048
オプション: 512 → 32768
学習率
2e-4
LoRA 設定
(フルファインチューニング選択時は非表示)
ランク
16
スライダー 4–128
Alpha
32
スライダー 4–256
Dropout
0.05
LoRA バリアント
LoRA
LoRA / RS-LoRA / LoftQ
対象モジュール
すべてオン
q_proj, k_proj, v_proj, o_proj, gate_proj, up_proj, down_proj
For Vision 画像データセットを持つモデルでは、4 つの追加チェックボックスが表示されます。ファインチューニングする項目:
Vision レイヤー
言語レイヤー
Attention モジュール
MLP モジュール
学習ハイパーパラメータ
3 つのタブに整理されています:
Epochs
3
バッチサイズ
4
勾配蓄積
8
Weight Decay
0.01
オプティマイザ
AdamW 8-bit
LR スケジューラ
linear
ウォームアップステップ
5
Gradient Checkpointing
unsloth
乱数シード
3407
保存ステップ
0
評価ステップ
0
Packing
false
補完で学習
false
W&B を有効化
false
W&B プロジェクト
llm-finetuning
TensorBoard を有効化
false
TensorBoard ディレクトリ
runs
ログ頻度
10
Unsloth Gradient Checkpointing: unsloth は Unsloth 独自のメモリ効率の高い実装を使用し、標準の PyTorch オプションと比べて VRAM 使用量を大幅に削減できます。推奨の既定値です。
4. トレーニングと設定
右下のカードには 3 つの設定管理ボタンと 学習開始 ボタンがあります。
アップロード
以前保存した .yaml 設定ファイルを読み込む
保存
現在の設定を YAML にエクスポート
リセット
すべてのパラメータをモデルの既定値に戻す
モデルとデータセットの両方が設定されるまで、学習開始ボタンは無効のままです。検証エラーはインラインで表示されます。たとえば、eval split を選ばずに eval steps を設定した場合や、テキスト専用モデルと Vision データセットを組み合わせた場合などです。
読み込み画面
をクリックすると 学習開始、バックエンドがすべてを準備している間、全画面オーバーレイが表示されます。

オーバーレイには、各フェーズの更新をリアルタイムで表示するアニメーション端末が出ます:
青: モデル / データセットをダウンロード中
琥珀: モデル / データセットを読み込み中
青: 設定中
緑: 学習中
いつでも × ボタンでキャンセルできます。停止の前に確認ダイアログが表示されます。
学習進捗と可観測性
最初の学習ステップが始まると、オーバーレイは閉じられ、ライブ学習ビューが表示されます。進捗バーのステップが 100% に達すると、ファインチューニング प्रक्रियाは完了です。経過時間とトークンを確認できます。


各チャートには設定(歯車アイコン)があり、以下を含みます:
表示範囲
直近 N ステップ スライダー
EMA 平滑化
0.6
生データを表示
オン
平滑化を表示
オン
平均線を表示
オン
スケール(系列ごと)
線形 / 対数
外れ値のクリップ
クリップなし / p99 / p95

設定ファイル
すべての学習設定は YAML ファイルとして保存・再読み込みできます。ファイル名は自動的に次の形式になります:

YAML は 3 つのセクションに分かれています:
これにより、実行の再現、設定の共有、実験のバージョン管理が簡単になります。
データレシピ - クイックスタート
Unsloth Data Recipes では、PDF や CSV などのドキュメントをアップロードして、使えるデータセットに変換できます。グラフノードのワークフローを通じて、視覚的にデータセットを作成・編集できます。
レシピページが主な入口です。レシピはブラウザ内にローカル保存されるため、後で保存した作業に戻れます。ここから空のレシピを作成するか、ガイド付き学習レシピを開けます。

Data Recipes は同じ基本的な流れで進みます。レシピページを開き、レシピを作成または選択し、エディタでワークフローを構築し、検証してプレビューを実行し、出力が良ければデータセット全体を実行します。シードデータと生成ブロックを追加し、ワークフローを検証し、サンプル出力をプレビューしてから、データセット全体の構築を実行します。Unsloth Data Recipes は NVIDIA の DataDesigner.
一目で見ると、通常のワークフローは次のようになります:
レシピページを開く。
新しいレシピを作成するか、既存のものを開く。
ブロックを追加してデータセットのワークフローを定義する。
クリック 検証 して設定の問題を早期に見つける。
プレビューを実行してサンプル行を素早く確認する。
レシピの準備ができたら、データセット全体の構築を実行する。
進捗と出力はグラフ上または 実行 ビューで詳細を確認する。
結果のデータセットを Studio で選択し、モデルをファインチューニングする。
エクスポート - クイックスタート
Unsloth Studio の「エクスポート」を使って、モデルを GGUF、Safetensors、または LoRA にエクスポート、保存、変換し、Unsloth、llama.cpp、Ollama、vLLM などでの展開、共有、ローカル推論に利用できます。学習済みチェックポイントをエクスポートするか、既存のモデルを変換できます。

Unsloth Studio を使ったモデルのエクスポートに関する詳細なチュートリアル / ガイドはこちらをご覧ください:
Model Export チャット - クイックスタート
Unsloth Studio Chat では、モデルをコンピュータ上で 100% オフラインで実行できます。Hugging Face またはローカルファイルから、GGUF や safetensors などのモデル形式を実行します。
ダウンロード + 実行 GGUF、ファインチューニング済みアダプタ、safetensors など、任意のモデルを
比較 異なるモデルの 出力を並べて表示
アップロード プロンプトにドキュメント、画像、音声を含める
調整 推論 設定: temperature、top-p、top-k、system prompt など

Unsloth Studio を使ったモデルの実行に関する詳細なチュートリアル / ガイドはこちらをご覧ください:
Studio Chat 動画チュートリアル
Studio の使い始めに役立つ、NVIDIA 作成の動画チュートリアルはこちらです:
Unsloth Studio のインストール方法 動画チュートリアル
動画で示されている Unsloth Studio のバージョンは古く、現在のバージョンを反映していません。
詳細設定
CLI コマンド
Unsloth CLI (cli.py)には以下のコマンドがあります:
プロジェクト構成
API リファレンス
すべてのエンドポイントには有効な JWT Authorization: Bearer <token> ヘッダーが必要です(ただし /api/auth/* と /api/health).
GET
/api/health
ヘルスチェック
GET
/api/system
システム情報(GPU、CPU、メモリ)
POST
/api/auth/signup
アカウント作成(初回起動時はセットアップトークンが必要)
POST
/api/auth/login
ログインして JWT トークンを受け取る
POST
/api/auth/refresh
期限切れのアクセストークンを更新する
GET
/api/auth/status
認証が初期化済みか確認する
POST
/api/train/start
学習ジョブを開始
POST
/api/train/stop
実行中の学習ジョブを停止
POST
/api/train/reset
学習状態をリセット
GET
/api/train/status
現在の学習ステータスを取得
GET
/api/train/metrics
学習メトリクスを取得(損失、LR、ステップ数)
GET
/api/train/stream
リアルタイムの学習進捗のSSEストリーム
GET
/api/models/
利用可能なモデルを一覧表示
POST
/api/inference/chat
推論のためにチャットメッセージを送信
GET
/api/datasets/
データセットの一覧表示 / 管理
最終更新
役に立ちましたか?

