🌠Qwen3 - 実行およびファインチューニング方法
Unsloth と当社の Dynamic 2.0 クオンタイズを用いて Qwen3 をローカルで実行・ファインチューニングする方法を学びましょう。
Qwen3 - Unsloth Dynamic 2.0 最適な構成:
Dynamic 2.0 GGUF(実行用)
128K コンテキスト GGUF
Dynamic 4-bit Safetensor(ファインチューニング/デプロイ用)
🖥️ Qwen3 を実行する
⚙️ 公式推奨設定
非思考モードの設定:
思考モードの設定:
思考モードと非思考モードの切り替え
llama.cppおよびOllamaの手順:
transformersとvLLMの手順:
まだ試していない場合は!32Bまでのモデルのみ実行できます。235B-A22Bのフルモデルを実行するには、
)。Q4_K_Mやその他の量子化バージョンを選択できます。
Qwen3-235B-A22Bについては、最適化された推論と豊富なオプションのために特に Llama.cpp を使用します。
UnslothはQwen3のファインチューニングを2倍高速にし、VRAM使用量を70%削減し、コンテキスト長を8倍に対応します。Qwen3(14B)はGoogle Colabの16GB VRAM Tesla T4 GPUに余裕で収まります。
ファインチューニングのサポートには当社の新しい2026年の
ノートブックを使用するには、RuntimeをクリックしてRun allを実行するだけです。ノートブック内の設定は任意に変更できます。デフォルトで自動設定しています。Hugging Face上のモデル名に合わせてモデル名を変更してください。例:'unsloth/Qwen3-8B' や 'unsloth/Qwen3-0.6B-unsloth-bnb-4bit'。

Qwen3のための新しい高度なGRPOノートブックを作成しました。当社の新しい近接ベースの報酬関数(より近い回答に高報酬)とHugging FaceのOpen-R1数学データセットの使い方を学んでください。
Unslothは現在、より良い評価を備え、最新バージョンのvLLMを使用しています。

最終更新
役に立ちましたか?

