square-up-rightUnsloth AMD PyTorch 合成データハッカソン

AMD GPU 上で Unsloth を実行するためのヒント、コツ、トラブルシューティングとガイド。

MI300マシンにアクセスすると、Jupyter Notebookのインターフェースが表示されます:

まず、Unslothをアップデートします そしてすべてが期待どおりに動作することを確認します - をクリックしてください ターミナル

次に、更新するために以下をで実行します ターミナル Unslothを更新するには - バージョンが 2025.10.5 以上であることを確認してください。

新しいNotebookやターミナルを作るには、PLUSボタンをクリックします

circle-check

🦋チュートリアル1: Unslothが動作することを確認する

新しいでシンプルなLlama 3.2 1B / 3B会話ノートブックが期待どおりに実行されることを確認します ターミナル.

以下のように表示されるはずです(2分かかります)。何か壊れたら、まずUnslothを更新してみてください via

🦥チュートリアル2: 合成データ生成の実行

circle-check

それでは次に以下の例を試してみましょう https://github.com/edamamez/Unsloth-AMD-Fine-Tuning-Synthetic-Dataarrow-up-right また https://www.amd.com/en/developer/resources/technical-articles/2025/10x-model-fine-tuning-using-synthetic-data-with-unsloth.htmlarrow-up-right

まず新しいを作ります ターミナル 再度 - PLUSボタンで新しいを作成できます ターミナル.

新しいでvLLMを実行してLlama 3.3 70B Instructをロードします ターミナル (新しいターミナルはPLUSボタンを使用)

次のように表示されます:

まで待ちます INFO: Application startup complete. その後PLUSボタンをクリックして新しいタブを開きます

インストールしてください synthetic-data-kit https://github.com/meta-llama/synthetic-data-kitarrow-up-right 新しいで ターミナル ウィンドウ。

を取得します config.yaml 次のいずれかから取得します https://raw.githubusercontent.com/edamamez/Unsloth-AMD-Fine-Tuning-Synthetic-Data/refs/heads/main/config.yamlarrow-up-right、または以下:

file-download
7KB
arrow-up-right-from-square開く

synthetic data kitが動作したか確認します。エラーが出る場合は、1つ目のセルでvLLMが実行されていることを確認してください。

次に処理で使用するファイルを取得します:

では、データを取り込み処理しましょう:

次に、Q&A(質問と回答ペア)またはCoT(思考の連鎖)ペアを作成します(3分かかる場合があります)

次にLLMにデータをキュレートさせ、LLMをジャッジとして呼び出して望ましくない合成データ行を削除し、その出力を保存します - 3分かかる場合があります

再度、 VRAMを節約するためにvLLMサービスをシャットダウンしてください!!! 前のタブに戻り、CTRL+Cを3回押します。あるいは参照してください Unsloth AMD PyTorch 合成データハッカソン

次に実行するノートブックを取得します(以下で入手できます) https://github.com/unslothai/notebooks/blob/main/nb/Synthetic_Data_Hackathon.ipynbarrow-up-right:

circle-info

Out of Memoryエラーが出たら、vLLMインスタンスをシャットダウンしてください - 参照してください Unsloth AMD PyTorch 合成データハッカソン

左のフォルダボタンをクリックして「Synthetic_Data_Hackathon.ipynb」を開きます(ダブルクリック)

それから全て実行してください!

ノートブックの中央に次のように表示されます:

詳細については https://github.com/edamamez/Unsloth-AMD-Fine-Tuning-Synthetic-Data/blob/main/tutorial.ipynbarrow-up-right 詳細については

🐬チュートリアル3: GPT-OSS 強化学習 自動カーネル生成

このノートブックはノートブックまたはPythonスクリプトとして実行できます!

Pythonスクリプト: https://github.com/unslothai/notebooks/blob/main/python_scripts/gpt_oss_(20B)_GRPO_BF16.pyarrow-up-right

ノートブック: https://github.com/unslothai/notebooks/blob/main/nb/gpt_oss_(20B)_GRPO_BF16.ipynbarrow-up-right

次にチュートリアル2と同様に、ファイル「Auto_Kernels_RL.ipynb」を開き、再起動してすべて実行してください!

実行して下にスクロールすると、RLを通じて自動生成された戦略で2048ゲームが実行されているのが見えます:

♦️チュートリアル4: GPT-OSS 強化学習 2048ゲーム

このノートブックはノートブックまたはPythonスクリプトとして実行できます!

Pythonスクリプト: https://github.com/unslothai/notebooks/blob/main/python_scripts/gpt_oss_(20B)_GRPO_BF16.pyarrow-up-right

ノートブック: https://github.com/unslothai/notebooks/blob/main/nb/gpt_oss_(20B)_Reinforcement_Learning_2048_Game_BF16.ipynbarrow-up-right

次にチュートリアル3と同様に、ファイル「Auto_Kernels_RL.ipynb」を開き、再起動してすべて実行してください!

スクロールすると、2048に勝つための戦略をRLアルゴリズムが自動生成しているのが見えます!

🌻AMD上での最適なvLLMコマンド

AMD GPUでモデルをサーブするには、パフォーマンスを向上させる次のコマンドを使用してください。aiterとflash-attentionがインストールされていることを確認するか参照してください Unsloth AMD PyTorch 合成データハッカソン

MI300X、MI325X、およびRadeon GPUの場合:

MI355Xの場合は、以下を行ってください:

🛠️トラブルシューティングとFAQ

🆓AMD GPUメモリを解放するには?

Dockerイメージ(ハッカソンのような)を使用している場合は、新しいで以下を実行します ターミナル rocm-smi -d 0 --showpids ローカルマシンの場合

ローカルマシンの場合は、単に次を実行します rocm-smi -d 0 --showpids そして実行します sudo kill -9 XXXX ここで XXXX はその特定のプロセス(最も多くのVRAMを使用しているもの)に割り当てられたPIDです。

ハッカソンのようなDockerイメージの場合、最初のセルを実行した後に以下のような表示が出ることがあります:

次にVRAMを使用しているプロセス(vLLMのような)を探して、次を入力します sudo kill -9 XXXX ここで XXXX 左列に以下のように表示されているPIDです:

次で全てのGPUメモリが解放されていることを確認します rocm-smi -d 0 --showpids 例えば以下はメモリ使用が0であることを示しています:

一方で以下のように表示される場合は、最初のDockerセルイメージを再実行してプロセスを再度終了させてください。

📝torch.OutOfMemoryError: HIP out of memory RuntimeError: Engine process failed to start.

ご参照ください Unsloth AMD PyTorch 合成データハッカソン GPUが他のプロセスからメモリを使用しているか確認し、そのメモリを使用しているプロセスを削除してみてください。

また次を試してください amd-smi process --gpu 0 GPUを使用しているすべてのプロセスと各プロセスのVRAM使用量を一覧表示します:

▶️vLLM用のプラットフォームが検出されない、vLLM上のgpt-ossのアップグレード

もし次を実行しているなら vllm serve Unsloth/gpt-oss-20b 古いvLLMバージョンを使用している可能性があります。 python -c "import vllm; print(vllm.__version__)" でvLLMのバージョンを取得します。

事前構築されたハッカソンドッカーでは、次が入っています 0.7.4 残念ながらこれはGPT-OSSのような新しいモデルをサポートしていませんが、他のモデルは次のように動作します vllm serve Unsloth/Llama-3.3-70B-Instruct --port 8001 --max-model-len 48000 --gpu-memory-utilization 0.85

🧁AMD上でvLLMを最新に更新する

circle-exclamation

最新のvLLMを取得するには、次を参照してください https://docs.vllm.ai/en/latest/getting_started/installation/gpu.html#install-specific-revisionsarrow-up-right特に、AMD GPUを使用しているすべてのプロセスをクリアした後、以下を実行してください Unsloth AMD PyTorch 合成データハッカソン

上記を実行すると(GPUを使用しているすべてのプロセスを先に終了することを忘れないでください!参照してください) Unsloth AMD PyTorch 合成データハッカソン)

chevron-right(任意 折りたたみ可能なコード)Flash Attentionをビルドする 経由(これには30分から1時間かかります)ため、30分から1時間待ちたくない場合はこれは任意です! 一般的にはこのプロセスはスキップすることをお勧めします。 Flash Attentionをインストールしたい場合はこのセルを展開してください。hashtag

次のように表示されます:

Flash-Attentionの進行状況を監視するには(非常に長くなることがあります)、[296/2206]の進行を確認してください。

(必須ではありません) 次にaiterをビルドします ROCm向けのAIテンソルエンジンarrow-up-right (これには5分かかります)

(必須ではありません) 次にvLLMをビルドします:

以下のように表示されます(5〜10分お待ちください!)

次でvLLM、torchが更新されたことを確認します

ここにはvLLMが0.11.0以上であることが表示されるはずで、torchは2025年10月時点で必ず2.8.0でなければなりません。タイプ vllm でvLLMが期待どおりに動作することを確認します。

📖vLLMでunsloth/gpt-oss-20bを実行する

circle-exclamation

vLLMを更新した後、 Unsloth AMD PyTorch 合成データハッカソンで、実行できます gpt-oss-20barrow-up-right! 参照してください Unsloth AMD PyTorch 合成データハッカソン AMD GPUでvllmを実行するためのより最適なコマンド(推論が速くなる場合があります)については参照してください

⁉️RuntimeError: User specified an unsupported autocast device_type 'hip'

Unslothを更新してください! 以下を参照してください Unsloth AMD PyTorch 合成データハッカソン

🐛NotImplementedError: Unsloth currently ok

🆕Unslothの更新

まず、Unslothをアップデートします そしてすべてが期待どおりに動作することを確認します - をクリックしてください ターミナル

次に、更新するために以下をで実行します ターミナル Unslothを更新するには - バージョンが2025.10.5以上であることを確認してください。

ランタイムも再起動する必要があります

⁉️terminate called after throwing an instance of 'std::logic_error' what()

次を使用していることを確認してください torch==2.8.0。 以下を再実行してください:

System has not been booted, Failed to connect to bus

次のような表示が出る場合があります:

マシンを再起動できるようにメッセージを送ってください!

🐛Configured ROCm binary not found - get_native_library()

これはbitsandbytesが正しくインストールされていないことを示しています(以下のように):

ご参照ください Unsloth AMD PyTorch 合成データハッカソンbitsandbytesとUnslothを更新してください!

NotImplementedError: Cannot copy out of meta tensor; no data!

これはメモリ不足を意味します。GPUメモリ解放については参照してください Unsloth AMD PyTorch 合成データハッカソン GPUメモリを解放するためのページを参照してください。

💭ModuleNotFoundError("No module named 'vllm._C'") により vllm._C からのインポートに失敗しました

vLLMを再インストールしてください。使用してください vllm_build をgit cloneしているフォルダ名として使用し、ではなく vllm. Unsloth AMD PyTorch 合成データハッカソン

😯ModuleNotFoundError: No module named 'vllm'

次のことは行わないでください rm -rf vllm_build ビルドしたフォルダを削除しないでください。あるいは次でvllmを再インストールしてください Unsloth AMD PyTorch 合成データハッカソン

📒ipykernel>6.30.1はプログレスバーを壊します。

もし以下が表示されたら:

現時点では無視してください - モデルのダウンロードやアップロード時のプログレスバーが表示されないだけです。

🐛AssertionError: No MXFP4 MoE backend

gpt-oss-20bを実行していてvLLM中にこれが表示された場合、次でvLLMを再インストールしてください Unsloth AMD PyTorch 合成データハッカソン

🤕NotImplementedError: Could not run `aten::empty_strided`

次を使用してください .to("cuda") ではなく .to("hip") またUnslothを更新してください Unsloth AMD PyTorch 合成データハッカソン

🐛NotImplementedError: Could not run 'aten::empty.memory_format'

ご参照ください Unsloth AMD PyTorch 合成データハッカソンbitsandbytesとUnslothを更新してください!

最終更新

役に立ちましたか?