# 博客

- [使用 Unsloth Kernels + Packing 实现 3 倍更快的 LLM 训练](/docs/zh/bo-ke/3x-faster-training-packing.md): 了解 Unsloth 如何提高训练吞吐量并消除微调中的填充浪费。
- [50 万上下文长度微调](/docs/zh/bo-ke/500k-context-length-fine-tuning.md): 了解如何使用 Unsloth 启用超过 50 万 token 的上下文窗口微调。
- [量化感知训练（QAT）](/docs/zh/bo-ke/quantization-aware-training-qat.md): 使用 Unsloth 和 PyTorch 将模型量化为 4 位以恢复精度。
- [使用 Unsloth 在 NVIDIA DGX Station 上微调 LLM](/docs/zh/bo-ke/dgx-station.md): 关于如何使用 Unsloth 笔记本在 NVIDIA DGX Station 上进行微调的教程。
- [如何使用 Unsloth 和 Docker 微调 LLM](/docs/zh/bo-ke/how-to-fine-tune-llms-with-unsloth-and-docker.md): 了解如何使用 Unsloth 的 Docker 镜像微调 LLM 或进行强化学习（RL）。
- [使用 NVIDIA DGX Spark 和 Unsloth 微调 LLM](/docs/zh/bo-ke/fine-tuning-llms-with-nvidia-dgx-spark-and-unsloth.md): 关于如何在 NVIDIA DGX Spark 上使用 OpenAI gpt-oss 进行微调和强化学习（RL）的教程。
- [使用 Blackwell、RTX 50 系列和 Unsloth 微调 LLM](/docs/zh/bo-ke/fine-tuning-llms-with-blackwell-rtx-50-series-and-unsloth.md): 通过我们的分步指南，了解如何在 NVIDIA Blackwell RTX 50 系列和 B200 GPU 上微调 LLM。
