# Unsloth ドキュメント

Unslothを使えば、自分のローカルハードウェア上でAIモデルを実行・学習できます。

私たちのドキュメントが、独自モデルのローカルでの実行と学習を案内します。

<a href="/pages/f10fbc893d08889a92e28bfa2fc8fe09c696363d" class="button primary">始める</a> <a href="https://github.com/unslothai/unsloth" class="button secondary">GitHub</a>

<table data-card-size="large" data-view="cards" data-full-width="false"><thead><tr><th></th><th></th><th data-hidden data-card-cover data-type="image">カバー画像</th><th data-hidden data-card-target data-type="content-ref"></th></tr></thead><tbody><tr><td><h4>Google Gemma 4</h4></td><td>Googleの新しいGemma 4モデルを実行・学習しよう！</td><td><a href="/files/5c025ea67488709e0da4213cf7efa8b7695e2dee">/files/5c025ea67488709e0da4213cf7efa8b7695e2dee</a></td><td><a href="/pages/693bc7a2f22dcaf0c6bc0818f2076196fe331fa7">/pages/693bc7a2f22dcaf0c6bc0818f2076196fe331fa7</a></td></tr><tr><td><h4><strong>Unsloth Studioの紹介</strong></h4></td><td>LLMを学習・実行するための、新しいオープンなノーコードWeb UI。</td><td><a href="/files/52ac81606e9a31b3f691aabcec5c0ad84f45aee2">/files/52ac81606e9a31b3f691aabcec5c0ad84f45aee2</a></td><td><a href="/pages/a01cba7455dcbbf4a34e17600cd0b0101df41d37">/pages/a01cba7455dcbbf4a34e17600cd0b0101df41d37</a></td></tr></tbody></table>

<table data-view="cards" data-full-width="false"><thead><tr><th></th><th></th><th data-hidden data-card-cover data-type="image">カバー画像</th><th data-hidden data-card-target data-type="content-ref"></th></tr></thead><tbody><tr><td><strong>Qwen3.5</strong></td><td>新しいQwen3.5 SmallおよびMedium LLMが登場！</td><td><a href="/files/34af489df5eaefd3740c0f35191f40565e0fba02">/files/34af489df5eaefd3740c0f35191f40565e0fba02</a></td><td><a href="/pages/0af04e20683a2825742edd360e0a15913f42c5a8">/pages/0af04e20683a2825742edd360e0a15913f42c5a8</a></td></tr><tr><td><strong>GLM-5.1</strong></td><td>新しいSOTAオープンモデルをローカルで実行。</td><td><a href="/files/77ec16ec3a82bc3f28cf72f1a951b8e3899667a9">/files/77ec16ec3a82bc3f28cf72f1a951b8e3899667a9</a></td><td><a href="/pages/bbfe7c6edcb58685ec7cf51092f2663c6c435010">/pages/bbfe7c6edcb58685ec7cf51092f2663c6c435010</a></td></tr><tr><td><strong>MiniMax-M2.7</strong></td><td>新しい230Bサイズのモデルを実行。</td><td><a href="/files/3b2e39be34166e43af7df4b629fbac31265f6137">/files/3b2e39be34166e43af7df4b629fbac31265f6137</a></td><td><a href="/pages/983a60d2a135fd088443d0cba9213375b211e188">/pages/983a60d2a135fd088443d0cba9213375b211e188</a></td></tr><tr><td><strong>NVIDIA Nemotron 3</strong></td><td>NVIDIAの新しい4Bおよび120Bモデルを実行。</td><td><a href="/files/bc78dbbb5d990a0646418365b6bf3e3d25d8d770">/files/bc78dbbb5d990a0646418365b6bf3e3d25d8d770</a></td><td><a href="/pages/6b8d31fd5301efc60f6ff33d32a66c700ccee8ba">/pages/6b8d31fd5301efc60f6ff33d32a66c700ccee8ba</a></td></tr><tr><td><strong>より高速なMoEが登場！</strong></td><td>MoE LLMを、VRAM消費を抑えつつ12倍高速に学習。</td><td><a href="/files/f2c7ccb5a41a3fdbda56806a6e34d33f0c4c1f30">/files/f2c7ccb5a41a3fdbda56806a6e34d33f0c4c1f30</a></td><td><a href="/pages/084af8821a599e81fc9cc18b65615343a785fc5d">/pages/084af8821a599e81fc9cc18b65615343a785fc5d</a></td></tr><tr><td><strong>Claude Code &#x26; Codex</strong></td><td>ClaudeとOpenAIを使ってローカルLLMを実行する方法を学びましょう。</td><td><a href="/files/c7d64e95e63ed79941ef1a429a2f9198cf60a176">/files/c7d64e95e63ed79941ef1a429a2f9198cf60a176</a></td><td><a href="/pages/ee610b22aa43d29d8415fd27eb7de15ba88f7385">/pages/ee610b22aa43d29d8415fd27eb7de15ba88f7385</a></td></tr></tbody></table>

{% columns %}
{% column width="50%" %}
{% content-ref url="/pages/ae7926a0f371a1f594e3344d85571edf864a5259" %}
[Fine-tuning Guide](/docs/jp/meru/fine-tuning-llms-guide.md)
{% endcontent-ref %}

{% content-ref url="/pages/a3325bc180768721f1119499c1b82e6d84e53794" %}
[Unsloth ノートブック](/docs/jp/meru/unsloth-notebooks.md)
{% endcontent-ref %}
{% endcolumn %}

{% column width="50%" %}
{% content-ref url="/pages/189a8deb3aa7eabc5be5a7563f26d4b08f252e28" %}
[All Our Models](/docs/jp/meru/unsloth-model-catalog.md)
{% endcontent-ref %}

{% content-ref url="/pages/ea13ebdc099377f5b37a2e0895aeb9ede74953ed" %}
[Complete LLM Directory](/docs/jp/moderu/tutorials.md)
{% endcontent-ref %}
{% endcolumn %}
{% endcolumns %}

### 🦥 なぜUnsloth？

* 私たちは以下の開発チームと直接協力しています [gpt-oss](https://docs.unsloth.ai/new/gpt-oss-how-to-run-and-fine-tune#unsloth-fixes-for-gpt-oss), [Qwen3](https://www.reddit.com/r/LocalLLaMA/comments/1kaodxu/qwen3_unsloth_dynamic_ggufs_128k_context_bug_fixes/), [Llama 4](https://github.com/ggml-org/llama.cpp/pull/12889), [Mistral](/docs/jp/moderu/tutorials/devstral-how-to-run-and-fine-tune.md), [Gemma 1-3](https://news.ycombinator.com/item?id=39671146) と [Phi-4](https://unsloth.ai/blog/phi4)、そこで私たちは **重大なバグを修正し** モデルの精度を大幅に向上させました。たとえばAndrej Karpathyは [私たちの取り組みを称賛しています](https://x.com/karpathy/status/1765473722985771335).
* Unslothは、ローカルでの学習、推論、データ、デプロイを効率化します
* Unslothは500以上のモデルの推論と学習をサポートしています： [視覚](/docs/jp/ji-ben/vision-fine-tuning.md), [TTS](/docs/jp/ji-ben/text-to-speech-tts-fine-tuning.md), [埋め込み](/docs/jp/ji-ben/embedding-finetuning.md), [RL](/docs/jp/meru/reinforcement-learning-rl-guide.md)

### ⭐ 機能

Unslothを使えば、テキストモデルを実行・学習できます。 [音声](https://unsloth.ai/docs/basics/text-to-speech-tts-fine-tuning), [埋め込み](https://unsloth.ai/docs/new/embedding-finetuning), [視覚](https://unsloth.ai/docs/basics/vision-fine-tuning) その他にも対応。Unslothは、推論と学習の両方に重要な多くの機能を提供します：

#### 推論

* GGUF、LoRAアダプタ、safetensorsなど、あらゆるモデルを検索・ダウンロード・実行。
* [自己修復型ツール呼び出し](/docs/jp/xin-zhe/studio/chat.md#auto-healing-tool-calling) / Web検索 と OpenAI互換APIの呼び出し。
* [推論パラメータの自動](/docs/jp/xin-zhe/studio/chat.md#auto-parameter-tuning) 調整とチャットテンプレートの編集。
* [エクスポートまたは保存](/docs/jp/xin-zhe/studio/export.md) モデルをGGUF、16ビットsafetensorなどへ。
* [出力を比較](/docs/jp/xin-zhe/studio/chat.md#model-arena) 2つの異なるモデルを並べて比較。

#### 学習

* 学習して [RL](/docs/jp/meru/reinforcement-learning-rl-guide.md) 500以上のモデルを約2倍高速、約70%少ないVRAMで（精度低下なし）
* フルファインチューニング、事前学習、4ビット、16ビット、FP8学習をサポート。
* [データセットを自動作成](/docs/jp/xin-zhe/studio/data-recipe.md) PDF、CSV、DOCXファイルから作成。ビジュアルなノードワークフローでデータを編集。
* 可観測性：学習をリアルタイムで監視、損失、GPU使用率を追跡、グラフをカスタマイズ
* 最も効率的な [**強化学習**](/docs/jp/meru/reinforcement-learning-rl-guide.md) ライブラリ。GRPOではVRAMを80%削減、 [FP8](/docs/jp/meru/reinforcement-learning-rl-guide/fp8-reinforcement-learning.md) など。
* [マルチGPU](/docs/jp/ji-ben/multi-gpu-training-with-unsloth.md) は動作しますが、さらに良いバージョンが近日公開予定です！

### クイックスタート

UnslothはMacOS、Linux、 [Windows](/docs/jp/meru/install/windows-installation.md), [NVIDIA](/docs/jp/meru/install/pip-install.md)、Intel、CPU構成をサポートしています。こちらを参照： [Unsloth の要件](/docs/jp/meru/fine-tuning-for-beginners/unsloth-requirements.md)。更新には同じコマンドを使用してください：

#### **MacOS、Linux、WSL：**

```bash
curl -fsSL https://unsloth.ai/install.sh | sh
```

#### **Windows PowerShell：**

```bash
irm https://unsloth.ai/install.ps1 | iex
```

#### Docker

公式の **Dockerイメージ**: [`unsloth/unsloth`](https://hub.docker.com/r/unsloth/unsloth) を使用してください。現在、Windows、WSL、Linuxで動作します。MacOS対応は近日公開予定です。

#### Unslothを起動

```bash
unsloth studio -H 0.0.0.0 -p 8888
```

#### 新しいモデル

<table data-view="cards"><thead><tr><th></th><th data-hidden></th><th data-hidden data-card-cover data-type="image">カバー画像</th><th data-hidden data-card-target data-type="content-ref"></th></tr></thead><tbody><tr><td><strong>Kimi K2.5</strong></td><td></td><td><a href="/files/67a69d92371e158e5732cb6baae17dd472c564e1">/files/67a69d92371e158e5732cb6baae17dd472c564e1</a></td><td><a href="/pages/17c4f4f0107699d7b64bfeb4b34d427df32a68f9">/pages/17c4f4f0107699d7b64bfeb4b34d427df32a68f9</a></td></tr><tr><td><strong>MiniMax-M2.5</strong></td><td></td><td><a href="/files/e3b9e030097e08925e5402c9d4738e8e37b35915">/files/e3b9e030097e08925e5402c9d4738e8e37b35915</a></td><td><a href="/pages/051e934a3c33af7cc4b8bd92b687148f8f65e39e">/pages/051e934a3c33af7cc4b8bd92b687148f8f65e39e</a></td></tr><tr><td><strong>GLM-4.7-Flash</strong></td><td></td><td><a href="/files/e8531a0c5e0bf78c36187b939068afdfbc538b4d">/files/e8531a0c5e0bf78c36187b939068afdfbc538b4d</a></td><td><a href="/pages/68cc5d489fe86eefb1bb9cd2e351bcdb90866b49">/pages/68cc5d489fe86eefb1bb9cd2e351bcdb90866b49</a></td></tr></tbody></table>

### ファインチューニングとRLとは？なぜ必要なのか？

[**ファインチューニング** されたLLM](/docs/jp/meru/fine-tuning-llms-guide.md) は、その挙動をカスタマイズし、ドメイン知識を強化し、特定タスク向けに性能を最適化します。データセット上で事前学習済みモデル（例：Llama-3.1-8B）をファインチューニングすることで、次のことが可能になります：

* **知識を更新**：新しいドメイン固有の情報を追加します。
* **挙動をカスタマイズ**：モデルの口調、性格、応答スタイルを調整します。
* **タスク向けに最適化**：特定のユースケースに対する精度と関連性を向上させます。

[**強化学習（RL）**](/docs/jp/meru/reinforcement-learning-rl-guide.md) では、「エージェント」が環境とやり取りし、 **フィードバック** を **報酬** または **罰則**.

* **という形で受け取りながら、意思決定を学習します** アクション：
* **報酬：** モデルの行動がどれだけ良かったか／悪かったかを示す信号（例：応答は指示に従っていたか？役に立ったか？）。
* **環境：** モデルが取り組んでいるシナリオやタスク（例：ユーザーの質問に答えること）。

**ファインチューニングまたはRLのユースケース例**:

* LLMが見出しが企業に与える影響を、ポジティブかネガティブか予測できるようにします。
* 過去の顧客とのやり取りを使って、より正確で個別化された応答を生成できます。
* 契約書分析、判例調査、コンプライアンスのために、法律文書でLLMをファインチューニングします。

ファインチューニングされたモデルは、特定のタスクをより効果的かつ効率的にこなすために設計された専門エージェントと考えることができます。 **ファインチューニングはRAGのすべての機能を再現できます**が、その逆はできません。

{% columns %}
{% column width="50%" %}
{% content-ref url="/pages/fffb67e71b118ce93cf382a53722ac7a1a41dd7c" %}
[FAQ + ファインチューニングは自分に適している？](/docs/jp/meru/fine-tuning-for-beginners/faq-+-is-fine-tuning-right-for-me.md)
{% endcontent-ref %}

{% content-ref url="/pages/d5ae43f1915ceda3d304ad7c413cb4efbe3d1a3f" %}
[推論とデプロイ](/docs/jp/ji-ben/inference-and-deployment.md)
{% endcontent-ref %}
{% endcolumn %}

{% column width="50%" %}
{% content-ref url="/pages/2e1ff161b8dd839d98df40642b2647753c4a80e4" %}
[Reinforcement Learning Guide](/docs/jp/meru/reinforcement-learning-rl-guide.md)
{% endcontent-ref %}

{% content-ref url="/pages/021c19d75a86d940ef9b83b7b41bee381657345b" %}
[Dynamic 2.0 GGUFs](/docs/jp/ji-ben/unsloth-dynamic-2.0-ggufs.md)
{% endcontent-ref %}
{% endcolumn %}
{% endcolumns %}

<figure><img src="/files/bd385b2b2308253670ecf2bc0475accccc5bb4e8" alt="" width="188"><figcaption></figcaption></figure>


---

# Agent Instructions: Querying This Documentation

If you need additional information that is not directly available in this page, you can query the documentation dynamically by asking a question.

Perform an HTTP GET request on the current page URL with the `ask` query parameter:

```
GET https://unsloth.ai/docs/jp/meru/readme.md?ask=<question>
```

The question should be specific, self-contained, and written in natural language.
The response will contain a direct answer to the question and relevant excerpts and sources from the documentation.

Use this mechanism when the answer is not explicitly present in the current page, you need clarification or additional context, or you want to retrieve related documentation sections.
