# 基本

- [推論とデプロイ](/docs/jp/ji-ben/inference-and-deployment.md): ファインチューニングしたモデルを保存し、お気に入りの推論エンジンで実行できるようにする方法を学びましょう。
- [GGUF への保存](/docs/jp/ji-ben/inference-and-deployment/saving-to-gguf.md): Ollama、Jan AI、Open WebUI などで使えるように、モデルを GGUF 用の 16bit で保存します！
- [Speculative Decoding](/docs/jp/ji-ben/inference-and-deployment/saving-to-gguf/speculative-decoding.md): llama-server、llama.cpp、vLLM などで Speculative Decoding を行い、推論を 2 倍高速化します
- [vLLM デプロイと推論ガイド](/docs/jp/ji-ben/inference-and-deployment/vllm-guide.md): 本番環境で LLM を提供するために、LLM を vLLM に保存してデプロイするためのガイド
- [vLLM エンジン引数](/docs/jp/ji-ben/inference-and-deployment/vllm-guide/vllm-engine-arguments.md)
- [LoRA ホットスワップガイド](/docs/jp/ji-ben/inference-and-deployment/vllm-guide/lora-hot-swapping-guide.md)
- [Ollama への保存](/docs/jp/ji-ben/inference-and-deployment/saving-to-ollama.md)
- [LM Studio へのモデルデプロイ](/docs/jp/ji-ben/inference-and-deployment/lm-studio.md): LM Studio で実行・デプロイできるように、モデルを GGUF に保存します
- [Linux ターミナルで LM Studio CLI をインストールする方法](/docs/jp/ji-ben/inference-and-deployment/lm-studio/how-to-install-lm-studio-cli-in-linux-terminal.md): ターミナル上の UI なしで LM Studio CLI をインストールするガイド。
- [SGLang デプロイと推論ガイド](/docs/jp/ji-ben/inference-and-deployment/sglang-guide.md): 本番環境で LLM を提供するために、LLM を SGLang に保存してデプロイするためのガイド
- [llama-server と OpenAI エンドポイントのデプロイガイド](/docs/jp/ji-ben/inference-and-deployment/llama-server-and-openai-endpoint.md): OpenAI 互換エンドポイントを使った llama-server 経由のデプロイ
- [iOS または Android スマートフォンで LLM を実行・デプロイする方法](/docs/jp/ji-ben/inference-and-deployment/deploy-llms-phone.md): ExecuTorch を使って独自の LLM をファインチューニングし、Android や iPhone にデプロイするためのチュートリアル。
- [推論のトラブルシューティング](/docs/jp/ji-ben/inference-and-deployment/troubleshooting-inference.md): モデルの実行や保存時に問題が発生している場合。
- [Claude Code でローカル LLM を実行する方法](/docs/jp/ji-ben/claude-code.md): ローカルデバイスで Claude Code と一緒にオープンモデルを使うためのガイド。
- [OpenAI Codex でローカル LLM を実行する方法](/docs/jp/ji-ben/codex.md): デバイス上で OpenAI Codex と一緒にオープンモデルをローカルに使います。
- [Unsloth によるマルチ GPU ファインチューニング](/docs/jp/ji-ben/multi-gpu-training-with-unsloth.md): Unsloth を使って複数 GPU と並列処理で LLM をファインチューニングする方法を学びましょう。
- [分散データ並列（DDP）によるマルチ GPU ファインチューニング](/docs/jp/ji-ben/multi-gpu-training-with-unsloth/ddp.md): Unsloth CLI を使って、分散データ並列（DDP）で複数 GPU に学習させる方法を学びましょう！
- [Unsloth ガイドによる埋め込みモデルのファインチューニング](/docs/jp/ji-ben/embedding-finetuning.md): Unsloth を使って埋め込みモデルを簡単にファインチューニングする方法を学びましょう。
- [Unsloth で MoE モデルを 12 倍高速にファインチューニング](/docs/jp/ji-ben/faster-moe.md): Unsloth ガイドを使って、MoE LLM をローカルで学習させます。
- [テキスト読み上げ（TTS）ファインチューニングガイド](/docs/jp/ji-ben/text-to-speech-tts-fine-tuning.md): Unsloth を使って TTS と STT の音声モデルをファインチューニングする方法を学びましょう。
- [Unsloth Dynamic 2.0 GGUF](/docs/jp/ji-ben/unsloth-dynamic-2.0-ggufs.md): Dynamic Quants の大きな新アップグレードです！
- [Aider Polyglot 上の Unsloth Dynamic GGUF](/docs/jp/ji-ben/unsloth-dynamic-2.0-ggufs/unsloth-dynamic-ggufs-on-aider-polyglot.md): Aider Polyglot ベンチマークにおける Unsloth Dynamic GGUF の性能
- [ローカル LLM のツール呼び出しガイド](/docs/jp/ji-ben/tool-calling-guide-for-local-llms.md)
- [Vision ファインチューニング](/docs/jp/ji-ben/vision-fine-tuning.md): Unsloth を使って vision/マルチモーダル LLM をファインチューニングする方法を学びましょう
- [トラブルシューティングと FAQ](/docs/jp/ji-ben/troubleshooting-and-faqs.md): 問題を解決するためのヒントと、よくある質問。
- [Hugging Face Hub、XET のデバッグ](/docs/jp/ji-ben/troubleshooting-and-faqs/hugging-face-hub-xet-debugging.md): 停止、詰まり、遅いダウンロードのデバッグとトラブルシューティング
- [チャットテンプレート](/docs/jp/ji-ben/chat-templates.md): 会話形式、ChatML、ShareGPT、Alpaca 形式などを含むチャットテンプレートの基礎とカスタマイズ方法を学びましょう！
- [Unsloth 環境フラグ](/docs/jp/ji-ben/unsloth-environment-flags.md): ファインチューニングが壊れている場合や、何かをオフにしたい場合に役立つ可能性のある高度なフラグ。
- [継続事前学習](/docs/jp/ji-ben/continued-pretraining.md): 継続ファインチューニングとも呼ばれます。Unsloth では継続的に事前学習できるため、モデルに新しい言語を学習させられます。
- [最後のチェックポイントからのファインチューニング](/docs/jp/ji-ben/finetuning-from-last-checkpoint.md): チェックポイント保存により、ファインチューニングの進捗を保存して、一時停止してから再開できます。
- [Unsloth ベンチマーク](/docs/jp/ji-ben/unsloth-benchmarks.md): NVIDIA GPU における Unsloth のベンチマーク記録。
