# 始める

- [Unsloth ドキュメント](/docs/jp/meru/readme.md): Unsloth は、モデルの実行と学習のためのオープンソースフレームワークです。
- [初心者向けファインチューニング](/docs/jp/meru/fine-tuning-for-beginners.md)
- [Unsloth の要件](/docs/jp/meru/fine-tuning-for-beginners/unsloth-requirements.md): ここでは、システム要件と GPU VRAM 要件を含む Unsloth の要件を紹介します。
- [FAQ + ファインチューニングは自分に適している？](/docs/jp/meru/fine-tuning-for-beginners/faq-+-is-fine-tuning-right-for-me.md): ファインチューニングが自分に合っているか迷っているなら、こちらをご覧ください！ ファインチューニングの誤解、RAG との比較などを学べます：
- [Unsloth ノートブック](/docs/jp/meru/unsloth-notebooks.md): ファインチューニング用ノートブック：Unsloth カタログを見てみましょう。
- [Unsloth モデルカタログ](/docs/jp/meru/unsloth-model-catalog.md)
- [Unsloth のインストール](/docs/jp/meru/install.md): Unsloth をローカルまたはオンラインでインストールする方法を学びましょう。
- [pip と uv で Unsloth をインストールする](/docs/jp/meru/install/pip-install.md): Pip を使ってローカルに Unsloth をインストールするには、以下の手順に従ってください：
- [MacOS に Unsloth をインストール](/docs/jp/meru/install/mac.md)
- [Unsloth を使って Windows で LLM をファインチューニングする方法（ステップバイステップガイド）](/docs/jp/meru/install/windows-installation.md): Windows に Unsloth をインストールして、ローカルで LLM のファインチューニングを始める方法を見てみましょう。
- [Docker で Unsloth をインストール](/docs/jp/meru/install/docker.md): 公式 Docker コンテナを使って Unsloth をインストールする
- [Unsloth の更新](/docs/jp/meru/install/updating.md): Unsloth を更新する、または古いバージョンを使うには、以下の手順に従ってください：
- [Unsloth ガイドで AMD GPU 上の LLM をファインチューニングする](/docs/jp/meru/install/amd.md): Unsloth を使って AMD GPU 上で大規模言語モデル（LLM）をファインチューニングする方法を学びましょう。
- [Unsloth を使って Intel GPU 上の LLM をファインチューニングする](/docs/jp/meru/install/intel.md): Intel GPU 上で大規模言語モデルを学習・ファインチューニングする方法を学びましょう。
- [LLM ファインチューニングガイド](/docs/jp/meru/fine-tuning-llms-guide.md): ファインチューニングの基本とベストプラクティスをすべて学べます。初心者向けです。
- [データセットガイド](/docs/jp/meru/fine-tuning-llms-guide/datasets-guide.md): ファインチューニング用のデータセットを作成・準備する方法を学びましょう。
- [LoRA ファインチューニングのハイパーパラメータガイド](/docs/jp/meru/fine-tuning-llms-guide/lora-hyperparameters-guide.md): LLM ファインチューニングの最適な設定をステップバイステップで学びましょう。LoRA の rank と alpha、epochs、batch size と gradient accumulation、QLoRA と LoRA の比較、target modules などを扱います。
- [ファインチューニングにはどのモデルを使うべき？](/docs/jp/meru/fine-tuning-llms-guide/what-model-should-i-use.md)
- [チュートリアル：Llama-3 のファインチューニングと Ollama での利用方法](/docs/jp/meru/fine-tuning-llms-guide/tutorial-how-to-finetune-llama-3-and-use-in-ollama.md): Ollama 上でローカルに動かす、カスタマイズされた個人アシスタント（ChatGPT のようなもの）を作成するための初心者向けガイド
- [強化学習（RL）ガイド](/docs/jp/meru/reinforcement-learning-rl-guide.md): 強化学習（RL）のすべてと、GRPO を使って Unsloth で自分専用の DeepSeek-R1 推論モデルを学習させる方法を学びましょう。初心者から上級者まで対応した完全ガイドです。
- [7倍の長いコンテキストを持つ強化学習 GRPO](/docs/jp/meru/reinforcement-learning-rl-guide/grpo-long-context.md): Unsloth が超長文コンテキストの RL ファインチューニングをどう実現するかを学びましょう。
- [Vision 強化学習（VLM RL）](/docs/jp/meru/reinforcement-learning-rl-guide/vision-reinforcement-learning-vlm-rl.md): Unsloth で GRPO と RL を使って Vision/マルチモーダルモデルを学習しよう！
- [FP8 強化学習](/docs/jp/meru/reinforcement-learning-rl-guide/fp8-reinforcement-learning.md): Unsloth を使って FP8 精度で強化学習（RL）と GRPO を学習します。
- [チュートリアル：GRPO で自分専用の推論モデルを学習する](/docs/jp/meru/reinforcement-learning-rl-guide/tutorial-train-your-own-reasoning-model-with-grpo.md): Unsloth と GRPO を使って、Llama 3.1（8B）のようなモデルを推論モデルへ変換するための初心者向けガイド。
- [高度な強化学習ドキュメント](/docs/jp/meru/reinforcement-learning-rl-guide/advanced-rl-documentation.md): Unsloth を GRPO と組み合わせて使う際の高度なドキュメント設定。
- [GSPO 強化学習](/docs/jp/meru/reinforcement-learning-rl-guide/advanced-rl-documentation/gspo-reinforcement-learning.md): Unsloth で GSPO（Group Sequence Policy Optimization）RL を使って学習します。
- [RL における報酬ハッキング](/docs/jp/meru/reinforcement-learning-rl-guide/advanced-rl-documentation/rl-reward-hacking.md): 強化学習における Reward Hacking とは何か、そしてそれを防ぐ方法を学びましょう。
- [RL における FP16 と BF16 の比較](/docs/jp/meru/reinforcement-learning-rl-guide/advanced-rl-documentation/fp16-vs-bf16-for-rl.md): Defeating the Training-Inference Mismatch via FP16 https://arxiv.org/pdf/2510.26788 では、float16 を使う方が bfloat16 より優れていることが示されています
- [メモリ効率の高い RL](/docs/jp/meru/reinforcement-learning-rl-guide/memory-efficient-rl.md)
- [選好最適化トレーニング - DPO、ORPO、KTO](/docs/jp/meru/reinforcement-learning-rl-guide/preference-dpo-orpo-and-kto.md): Unsloth を使った DPO、GRPO、ORPO、KTO による選好整合ファインチューニングについて学び、以下の手順に従ってください：
