boltUnsloth Studio を始める

ファインチューニングスタジオ、データレシピ、モデルのエクスポート、チャットの使い方を始めるためのガイド。

Unsloth Studioは、コードを書かずにLLMを微調整するためのローカルかつブラウザベースのGUIです。モデルの読み込み、データセットのフォーマット、ハイパーパラメータの設定、ライブのトレーニング監視を扱うクリーンなインターフェースでトレーニングパイプラインをラップします。

boltStudiohat-chefデータレシピbox-isometricエクスポートcomment-dotsチャットvideoビデオ

Unsloth Studioのセットアップ

まず、ローカルインストールまたはクラウドオプションのいずれかを使ってUnsloth Studioを起動します。次の インストール手順 に従うか、私たちの 無料のColab ノートブックを使用してください。ローカルセットアップの場合は次を実行します:

uunsloth studio -H 0.0.0.0 -p 8888

その後、開いてください http://localhost:8888 をブラウザで開きます。

最初の起動時にはアカウントを保護するためのパスワードを作成し、後で再度サインインする必要があります。

その後、モデル、データセット、基本設定を選ぶ簡単なオンボーディングウィザードが表示されます。いつでもスキップして手動で設定することもできます。

bolt Studio - クイックスタート

Unsloth Studioのホームページには4つの主要エリアがあります: モデル, データセット, パラメータ、および トレーニング/設定

  • モデルとデータの簡単なセットアップ Hugging Faceまたはローカルファイルから

  • 柔軟なトレーニングの選択肢 QLoRA、LoRA、またはフルファインチューニングのような方法(デフォルトが入力済み)

  • 役立つ設定ツール 分割、カラムマッピング、ハイパーパラメータ、YAML設定のためのツール

  • 優れたトレーニング可視化 ライブ進捗、GPU統計、チャート、起動状況など

1. モデルと方法を選択

モデルタイプ

ユースケースに合うモダリティを選んでください:

タイプ
ユースケース

テキスト

チャット、指示に従うタスク、補完

ビジョン

画像+テキスト(VLM)

オーディオ

音声/オーディオ理解

埋め込み

文の埋め込み、検索

トレーニング方式

ピルセレクタで切り替えられる3つの方式があります:

方式
説明
VRAM

QLoRA

4ビット量子化されたベースモデル+LoRAアダプタ

最小

LoRA

フル精度ベースモデル+LoRAアダプタ

中程度

フルファインチューニング

すべての重みが学習されます

最大

コンボボックスに任意のHugging Faceモデル名を入力するか、ハブを直接検索できます。ローカルに保存されたモデルは ~/.unsloth/studio/models やHugging Faceのキャッシュもリストに表示されます。

circle-exclamation

モデルを選択すると、Studioは自動的にバックエンドからその構成を取得し、すべてのハイパーパラメータに対して妥当なデフォルト値を事前入力します。

HuggingFaceトークン

モデルが制限付き(例:Llama、Gemma)の場合は、ここにHugging Faceアクセス・トークンを貼り付けてください。トークンはリアルタイムで検証され、無効な場合はインラインでエラーが表示されます。

2. データセット

ソース

データの取得元を選ぶには2つのタブを切り替えます:

  • HuggingFace Hub - ハブに対するライブ検索。各結果に最終更新日が表示されます。

  • ローカル - ファイルをドラッグアンドドロップするかクリックして、次のような非構造化または構造化ファイルをアップロードします: PDF, DOCX, JSONL, JSON, CSV、または Parquet 形式。以前にアップロードしたデータセットは自動的に更新されるリストに表示されます。

Prompt Studioにデータの解釈とフォーマット方法を指示してください:

フォーマット
使用タイミング

自動

Unslothにフォーマットを自動検出させます

alpaca

指示(instruction) / 入力 / 出力 カラム

chatml

OpenAIスタイル メッセージ 配列

sharegpt

ShareGPTスタイルの会話

分割とスライシング

  • サブセット - データセットカードから自動的に入力されます。

  • Train split / Eval split - 使用するスプリットを選択します。Evalスプリットを設定するとトレーニング中に Eval Loss チャートが有効になります。

  • データセットスライス - 短時間の実験のために行範囲(開始インデックス/終了インデックス)でトレーニングを制限することがオプションで可能です。

カラムマッピング

Studioがデータセットのカラムを正しい役割に自動的にマップできない場合、 データセットプレビューダイアログ が開きます。サンプル行を表示し、各カラムを 指示(instruction), 入力, 出力, 画像などに割り当てることができます。可能な場合は提案マッピングが事前入力されます。

3. ハイパーパラメータ

パラメータは折りたたみ可能なセクションにグループ化されています。詳細なLoRAハイパーパラメータガイドはここでご覧いただけます:

🧠Hyperparameters Guidechevron-right
パラメータ
デフォルト
注記

最大ステップ数

0

0 代わりにエポックを使用することを意味します

コンテキスト長

2048

オプション:512 → 32768

学習率

2e-4

LoRA設定

(フルファインチューニングが選択されている場合は非表示)

パラメータ
デフォルト
注記

ランク

16

スライダー 4–128

アルファ

32

スライダー 4–256

ドロップアウト

0.05

LoRAバリアント

LoRA

LoRA / RS-LoRA / LoftQ

ターゲットモジュール

すべてオン

q_proj, k_proj, v_proj, o_proj, gate_proj, up_proj, down_proj

について ビジョン 画像データセットを持つモデルでは、追加で4つのチェックボックスが表示されます:

  • ビジョン層をファインチューニング

  • 言語層をファインチューニング

  • アテンションモジュールをファインチューニング

  • MLPモジュールをファインチューニング

トレーニングハイパーパラメータ

3つのタブに整理されています:

| パラメータ | デフォルト | |---|---| | エポック数 | 3 | | バッチサイズ | 4 | | 勾配蓄積(Gradient Accumulation) | 8 | | 重み減衰(Weight Decay) | 0.01 | | オプティマイザ | AdamW 8ビット |

circle-info

Unslothの勾配チェックポイント機能: unsloth はUnsloth独自のメモリ効率の良い実装を使用しており、標準のPyTorchオプションと比べてVRAM使用量を大幅に削減できる場合があります。推奨されるデフォルトです。

4. トレーニングと設定

右下のカードには3つの設定管理ボタンと トレーニング開始 ボタンがあります。

ボタン
アクション

アップロード

以前に保存した .yaml 設定ファイルを読み込みます

保存

現在の設定をYAMLとしてエクスポートします

リセット

すべてのパラメータをモデルのデフォルトに戻します

トレーニング開始ボタンは、モデルとデータセットの両方が設定されるまで無効のままです。バリデーションエラーはインラインで表示されます — 例えば、評価スプリットを選ばずに評価ステップを設定した場合や、テキスト専用モデルにビジョンデータセットを組み合わせた場合などです。

読み込み画面

をクリックすると、バックエンドがすべてを準備している間、フルページのオーバーレイが表示されます。 トレーニング開始オーバーレイはライブのフェーズ更新を示すアニメーションターミナルを表示します:

青:モデル/データセットをダウンロード中

  • 琥珀色:モデル/データセットを読み込み中

  • 青:設定中

  • 緑:トレーニング中

  • いつでも隅の

× ボタンでキャンセルできます。キャンセルする前に確認ダイアログが表示されます。 トレーニングの進行と可観測性

最初のトレーニングステップが到着するとオーバーレイは閉じられ、ライブトレーニングビューが表示されます。進捗バーのステップが100%に達するとファインチューニングプロセスは完了します。経過時間とトークン数を確認できます。

ステータスパネル

左カラムには次が表示されます:

エポック

  • - 現在の小数表示のエポック(例: Epoch 1.23 進捗バー)

  • - ステップベース、パーセンテージ付き 主要指標

  • 損失:

    • - トレーニング損失を小数第4位まで表示 LR

    • - 現在の学習率を指数表記で表示 勾配ノルム

    • - 勾配ノルム - 学習中のモデル

    • モデル フル

    • 方式 - QLoRA / LoRA / タイミング行

  • - 経過時間、ETA、秒あたりのステップ数、処理した総トークン数 GPUモニタ

右カラムには数秒おきにポーリングされるライブGPU統計が表示されます:

使用率

  • - パーセンテージバー 温度

  • - ℃バー - 使用量/総GB

  • VRAM 電力

  • - 消費量/制限(ワット) トレーニングの停止

上部右の進捗カードにある

トレーニング停止 ボタンを使用してください。ダイアログで2つの選択肢が表示されます: 停止して保存

  • - 停止前にチェックポイントを保存します キャンセル

  • - チェックポイントなしで即時停止します チャート

トレーニングが進むにつれて4つのライブチャートが更新されます:

トレーニング損失

  1. - 生の値にEMA平滑化線とランニング平均の参照線を加えた表示 - LRスケジュール曲線

  2. 学習率 勾配ノルム

  3. - ステップに対する勾配ノルム - 評価スプリットを設定した場合にのみ表示されます

  4. Eval Loss 各チャートには設定(歯車アイコン)があり、次の項目があります:

オプション

表示ウィンドウ
デフォルト

最後Nステップのスライダー

EMA平滑化

生データを表示

0.6

オン

平滑化を表示

平均線を表示

平滑化を表示

スケール(シリーズごと)

平滑化を表示

線形/対数

外れ値クリッピング

クリップなし/p99/p95

設定ファイル

すべてのトレーニング設定はYAMLファイルとして保存および再読み込みできます。ファイル名は自動的に次のように命名されます:

{model}_{method}_{dataset}_{timestamp}.yaml

training:

データレシピ - クイックスタート

hat-chef Unslothデータレシピ

では、PDFやCSVのようなドキュメントをアップロードして、利用可能なデータセットに変換できます。グラフノードのワークフローを使って視覚的にデータセットを作成・編集できます。 レシピページが主要な入口です。レシピはブラウザにローカル保存されるので、後で保存した作業に戻れます。ここから空のレシピを作成するか、ガイド付きの学習レシピを開くことができます。

データレシピは同様の基本的な流れに従います。レシピページを開き、レシピを作成または選択し、エディタでワークフローを構築し、それを検証してプレビューを実行し、出力が正しければフルデータセットを実行します。シードデータと生成ブロックを追加し、ワークフローを検証し、サンプル出力をプレビューしてからフルデータセットのビルドを実行します。UnslothデータレシピはNVIDIAの

DataDesigner によって動作しますarrow-up-right.

一目で見て一般的なワークフローは次のようになります:

  1. レシピページを開く。

  2. 新しいレシピを作成するか既存のレシピを開く。

  3. データセットワークフローを定義するブロックを追加する。

  4. クリック 検証 して設定の問題を早期に検出する。

  5. プレビューを実行してサンプル行を素早く確認する。

  6. レシピが準備できたらフルデータセットビルドを実行する。

  7. 進捗と出力をグラフや 実行(Executions) ビューでライブに確認します。

  8. 結果のデータセットを選択して Studio モデルを微調整します。

box-isometric エクスポート - クイックスタート

Unsloth Studioの「エクスポート」を使って、モデルをGGUF、Safetensors、またはLoRAにエクスポート、保存、変換してデプロイ、共有、またはUnsloth、llama.cpp、Ollama、vLLMなどでのローカル推論に使用できます。訓練済みチェックポイントをエクスポートするか、既存の任意のモデルを変換できます。

Unsloth Studioでのモデルエクスポートに関する詳細なチュートリアル/ガイドはここで読むことができます:

box-isometricModel Exportchevron-right

comment-dots チャット - クイックスタート

Unsloth Studio はモデルを100%オフラインであなたのコンピュータ上で実行することを可能にします。Hugging FaceからのGGUFやsafetensors、またはローカルファイルからのモデル形式を実行できます。

ビデオチュートリアル

comment-dotsStudio Chatchevron-right

video Unsloth Studioの使い方を始めるためのビデオチュートリアルが2本あります!

ビデオで示されているUnsloth Studioのバージョンは古く、現在のバージョンを反映していない場合があります。

circle-exclamation

インストールからStudioの使用までの完全なステップバイステップビデオチュートリアルはこちらです:

詳細設定

CLIコマンド

Unsloth CLI(

cli.py)は次のコマンドを提供します:使用法: cli.py [COMMAND]

new-ui-prototype/

すべてのエンドポイントは有効なJWTを要求します

Authorization: Bearer <token> ヘッダー(ただし /api/auth/* および /api/health を除く)).

方式
エンドポイント
説明

GET

を除く)

ヘルスチェック

GET

/api/system

システム情報(GPU、CPU、メモリ)

POST

/api/auth/signup

アカウント作成(初回実行時はセットアップトークンが必要)

POST

/api/auth/login

ログインしてJWTトークンを受け取る

POST

/api/auth/refresh

アクセストークンの有効期限を更新する

GET

/api/auth/status

認証が初期化されているか確認する

POST

/api/train/start

トレーニングジョブを開始する

POST

/api/train/stop

実行中のトレーニングジョブを停止する

POST

/api/train/reset

トレーニング状態をリセットする

GET

/api/train/status

現在のトレーニング状況を取得する

GET

/api/train/metrics

トレーニングのメトリクスを取得する(損失、学習率、ステップ)

GET

/api/train/stream

リアルタイムのトレーニング進捗のSSEストリーム

GET

/api/models/

利用可能なモデルを一覧表示する

POST

/api/inference/chat

推論のためにチャットメッセージを送信する

GET

/api/datasets/

データセットの一覧/管理

最終更新

役に立ちましたか?