boltUnsloth Studio を始める

ファインチューニングスタジオ、データレシピ、モデルのエクスポート、チャットの始め方ガイド。

Unsloth Studio は、コードを書くことなく LLM をファインチューニングできる、ローカルのブラウザベース GUI です。モデルの読み込み、データセットの整形、ハイパーパラメータ設定、ライブでの学習監視をまとめて扱う、すっきりしたインターフェースで学習パイプラインを包み込んでいます。

boltStudiohat-chefデータレシピbox-isometricエクスポートcomment-dotsチャットvideo動画

Unsloth Studio をセットアップする

まず、ローカルインストールかクラウド विकल्पのいずれかを使って Unsloth Studio を起動します。 インストール手順 をあなたの環境に合わせて確認するか、 無料の Colab ノートブックを使ってください。ローカル環境では、次を実行します:

unsloth studio -H 0.0.0.0 -p 8888

次に http://localhost:8888 をブラウザで開きます。

初回起動時には、アカウントを保護するためのパスワードを作成し、後で再度サインインする必要があります。

その後、モデル、データセット、基本設定を選ぶための簡単な導入ウィザードが表示されます。いつでもスキップして、すべて手動で設定できます。

bolt Studio - クイックスタート

Unsloth Studio のホームページには 4 つの主要な領域があります: モデル, データセット, パラメータ、および トレーニング/設定

  • Hugging Face やローカルファイルから、モデルとデータを簡単にセットアップ Hugging Face やローカルファイルから

  • 柔軟な学習方法の選択 QLoRA、LoRA、フルファインチューニングなどを、既定値を埋めた状態で利用可能

  • 便利な設定ツール 分割、列マッピング、ハイパーパラメータ、YAML 設定用

  • 優れた学習可視化 ライブ進捗、GPU 状態、チャート、起動状況付き

1. モデルと手法を選択

モデルタイプ

用途に合うモダリティを選択します:

種類
用途

テキスト

チャット、指示追従、補完

Vision

画像 + テキスト(VLM)

Audio

音声 / 音声理解

Embeddings

文埋め込み、検索

学習手法

3 つの手法があり、ピル型セレクタで切り替えられます:

手法
説明
VRAM

QLoRA

4-bit 量子化済みベースモデル + LoRA アダプタ

最小

LoRA

フル精度ベースモデル + LoRA アダプタ

中程度

フルファインチューニング

すべての重みを学習

最大

任意の Hugging Face モデル名を入力するか、コンボボックスから Hub を直接検索します。 ~/.unsloth/studio/models に保存されたローカルモデルや、Hugging Face キャッシュ内のモデルも一覧に表示されます。

circle-exclamation

モデルを選ぶと、Studio がバックエンドから自動的に設定を取得し、すべてのハイパーパラメータに適切な既定値を事前入力します。

HuggingFace トークン

モデルがゲート付き(例: Llama、Gemma)の場合は、ここに Hugging Face のアクセストークンを貼り付けてください。トークンはリアルタイムで検証され、無効な場合はインラインでエラーが表示されます。

2. データセット

2 つのタブを切り替えて、データの取得元を選択します:

  • HuggingFace Hub - Hub に対するライブ検索。各結果には最終更新日が表示されます。

  • ローカル - ドラッグ&ドロップ、またはクリックしてファイルをアップロードします。非構造化または構造化ファイルの例: PDF, DOCX, JSONL, JSON, CSV、または Parquet 形式。以前アップロードしたデータセットは、自動更新される一覧に表示されます。

詳細な データセットガイドはこちら.

Prompt Studio では、データをどのように解釈し整形するかを次のようにします:

形式
使用する場面

auto

Unsloth にフォーマットを自動検出させる

alpaca

instruction / input / output

chatml

OpenAI 形式 messages 配列

sharegpt

ShareGPT 形式の会話

分割とスライシング

  • Subset - データセットカードから自動的に入力されます。

  • Train split / Eval split - 使用する split を選択します。eval split を設定すると、 Eval Loss チャートが学習中に有効になります。

  • データセットスライス - 必要に応じて、行範囲(開始インデックス / 終了インデックス)に学習を制限して、素早く実験できます。

列マッピング

Studio がデータセットの列を正しい役割に自動対応付けできない場合は、 データセットプレビュー ダイアログ が開きます。サンプル行を表示し、各列を instruction, input, output, 画像などに割り当てられます。推奨マッピングは可能な限り事前入力されます。

3. ハイパーパラメータ

パラメータは折りたたみ可能なセクションに分かれています。詳細な LoRA ハイパーパラメータガイド はこちら:

🧠Hyperparameters Guidechevron-right
パラメータ
既定値
注記

最大ステップ数

0

0 は、代わりに Epochs を使用することを意味します

コンテキスト長

2048

オプション: 512 → 32768

学習率

2e-4

LoRA 設定

(フルファインチューニング選択時は非表示)

パラメータ
既定値
注記

ランク

16

スライダー 4–128

Alpha

32

スライダー 4–256

Dropout

0.05

LoRA バリアント

LoRA

LoRA / RS-LoRA / LoftQ

対象モジュール

すべてオン

q_proj, k_proj, v_proj, o_proj, gate_proj, up_proj, down_proj

For Vision 画像データセットを持つモデルでは、4 つの追加チェックボックスが表示されます。ファインチューニングする項目:

Vision レイヤー

言語レイヤー

Attention モジュール

MLP モジュール

学習ハイパーパラメータ

3 つのタブに整理されています:

パラメータ
既定値

Epochs

3

バッチサイズ

4

勾配蓄積

8

Weight Decay

0.01

オプティマイザ

AdamW 8-bit

circle-info

Unsloth Gradient Checkpointing: unsloth は Unsloth 独自のメモリ効率の高い実装を使用し、標準の PyTorch オプションと比べて VRAM 使用量を大幅に削減できます。推奨の既定値です。

4. トレーニングと設定

右下のカードには 3 つの設定管理ボタンと 学習開始 ボタンがあります。

ボタン
操作

アップロード

以前保存した .yaml 設定ファイルを読み込む

保存

現在の設定を YAML にエクスポート

リセット

すべてのパラメータをモデルの既定値に戻す

モデルとデータセットの両方が設定されるまで、学習開始ボタンは無効のままです。検証エラーはインラインで表示されます。たとえば、eval split を選ばずに eval steps を設定した場合や、テキスト専用モデルと Vision データセットを組み合わせた場合などです。

読み込み画面

をクリックすると 学習開始、バックエンドがすべてを準備している間、全画面オーバーレイが表示されます。

オーバーレイには、各フェーズの更新をリアルタイムで表示するアニメーション端末が出ます:

  • 青: モデル / データセットをダウンロード中

  • 琥珀: モデル / データセットを読み込み中

  • 青: 設定中

  • 緑: 学習中

いつでも × ボタンでキャンセルできます。停止の前に確認ダイアログが表示されます。

学習進捗と可観測性

最初の学習ステップが始まると、オーバーレイは閉じられ、ライブ学習ビューが表示されます。進捗バーのステップが 100% に達すると、ファインチューニング प्रक्रियाは完了です。経過時間とトークンを確認できます。

ステータスパネル

左列には次が表示されます:

  • Epoch - 現在の小数付き epoch(例: Epoch 1.23)

  • 進捗バー - ステップベースで、パーセンテージ付き

  • 主要メトリクス:

    • Loss - 学習損失、小数点以下 4 桁

    • LR - 科学表記での現在の学習率

    • Grad Norm - 勾配ノルム

    • モデル - 学習中のモデル

    • 手法 - QLoRA / LoRA / フル

  • タイミング行 - 経過時間、ETA、1 秒あたりのステップ数、処理済みトークン総数

GPU モニター

右列には、数秒ごとに取得されるライブ GPU 統計が表示されます:

  • 使用率 - パーセンテージバー

  • 温度 - °C バー

  • VRAM - 使用済み / 総 GB

  • 電力 - 消費 / 制限(ワット)

学習の停止

を使います 学習停止 進捗カード右上のボタン。ダイアログで 2 つの選択肢が表示されます:

  • 停止して保存 - 停止前にチェックポイントを保存

  • キャンセル - チェックポイントなしで即停止

チャート

学習が進むにつれて 4 つのライブチャートが更新されます:

  1. Training Loss - 生値に加え、EMA で平滑化した線と移動平均の基準線

  2. 学習率 - LR スケジュール曲線

  3. Gradient Norm - ステップごとの勾配ノルム

  4. Eval Loss - eval split を設定した場合のみ表示

各チャートには設定(歯車アイコン)があり、以下を含みます:

オプション
既定値

表示範囲

直近 N ステップ スライダー

EMA 平滑化

0.6

生データを表示

オン

平滑化を表示

オン

平均線を表示

オン

スケール(系列ごと)

線形 / 対数

外れ値のクリップ

クリップなし / p99 / p95

設定ファイル

すべての学習設定は YAML ファイルとして保存・再読み込みできます。ファイル名は自動的に次の形式になります:

YAML は 3 つのセクションに分かれています:

これにより、実行の再現、設定の共有、実験のバージョン管理が簡単になります。

hat-chef データレシピ - クイックスタート

Unsloth Data Recipes では、PDF や CSV などのドキュメントをアップロードして、使えるデータセットに変換できます。グラフノードのワークフローを通じて、視覚的にデータセットを作成・編集できます。

レシピページが主な入口です。レシピはブラウザ内にローカル保存されるため、後で保存した作業に戻れます。ここから空のレシピを作成するか、ガイド付き学習レシピを開けます。

Data Recipes は同じ基本的な流れで進みます。レシピページを開き、レシピを作成または選択し、エディタでワークフローを構築し、検証してプレビューを実行し、出力が良ければデータセット全体を実行します。シードデータと生成ブロックを追加し、ワークフローを検証し、サンプル出力をプレビューしてから、データセット全体の構築を実行します。Unsloth Data Recipes は NVIDIA の DataDesignerarrow-up-right.

一目で見ると、通常のワークフローは次のようになります:

  1. レシピページを開く。

  2. 新しいレシピを作成するか、既存のものを開く。

  3. ブロックを追加してデータセットのワークフローを定義する。

  4. クリック 検証 して設定の問題を早期に見つける。

  5. プレビューを実行してサンプル行を素早く確認する。

  6. レシピの準備ができたら、データセット全体の構築を実行する。

  7. 進捗と出力はグラフ上または 実行 ビューで詳細を確認する。

  8. 結果のデータセットを Studio で選択し、モデルをファインチューニングする。

box-isometric エクスポート - クイックスタート

Unsloth Studio の「エクスポート」を使って、モデルを GGUF、Safetensors、または LoRA にエクスポート、保存、変換し、Unsloth、llama.cpp、Ollama、vLLM などでの展開、共有、ローカル推論に利用できます。学習済みチェックポイントをエクスポートするか、既存のモデルを変換できます。

Unsloth Studio を使ったモデルのエクスポートに関する詳細なチュートリアル / ガイドはこちらをご覧ください:

box-isometricModel Exportchevron-right

comment-dots チャット - クイックスタート

Unsloth Studio Chat では、モデルをコンピュータ上で 100% オフラインで実行できます。Hugging Face またはローカルファイルから、GGUF や safetensors などのモデル形式を実行します。

  • ダウンロード + 実行 GGUF、ファインチューニング済みアダプタ、safetensors など、任意のモデルを

  • 比較 異なるモデルの 出力を並べて表示

  • アップロード プロンプトにドキュメント、画像、音声を含める

  • 調整 推論 設定: temperature、top-p、top-k、system prompt など

Unsloth Studio を使ったモデルの実行に関する詳細なチュートリアル / ガイドはこちらをご覧ください:

comment-dotsStudio Chatchevron-right

video 動画チュートリアル

Studio の使い始めに役立つ、NVIDIA 作成の動画チュートリアルはこちらです:

Unsloth Studio のインストール方法 動画チュートリアル

circle-exclamation

詳細設定

CLI コマンド

Unsloth CLI (cli.py)には以下のコマンドがあります:

プロジェクト構成

API リファレンス

すべてのエンドポイントには有効な JWT Authorization: Bearer <token> ヘッダーが必要です(ただし /api/auth/*/api/health).

手法
エンドポイント
説明

GET

/api/health

ヘルスチェック

GET

/api/system

システム情報(GPU、CPU、メモリ)

POST

/api/auth/signup

アカウント作成(初回起動時はセットアップトークンが必要)

POST

/api/auth/login

ログインして JWT トークンを受け取る

POST

/api/auth/refresh

期限切れのアクセストークンを更新する

GET

/api/auth/status

認証が初期化済みか確認する

POST

/api/train/start

学習ジョブを開始

POST

/api/train/stop

実行中の学習ジョブを停止

POST

/api/train/reset

学習状態をリセット

GET

/api/train/status

現在の学習ステータスを取得

GET

/api/train/metrics

学習メトリクスを取得(損失、LR、ステップ数)

GET

/api/train/stream

リアルタイムの学習進捗のSSEストリーム

GET

/api/models/

利用可能なモデルを一覧表示

POST

/api/inference/chat

推論のためにチャットメッセージを送信

GET

/api/datasets/

データセットの一覧表示 / 管理

最終更新

役に立ちましたか?