MiniMax-M2.5:実行ガイド
MiniMax-M2.5 を自分のデバイスでローカルに実行しましょう!
⚙️ 使用ガイド
推奨設定
デフォルト設定(ほとんどのタスク)
あなたは役に立つアシスタントです。あなたの名前は MiniMax-M2.5 で、MiniMax によって作られました。MiniMax-M2.5 チュートリアルを実行する:
✨ llama.cpp で実行する
1
apt-get update
apt-get install pciutils build-essential cmake curl libcurl4-openssl-dev -y
git clone https://github.com/ggml-org/llama.cpp
cmake llama.cpp -B llama.cpp/build \
-DBUILD_SHARED_LIBS=OFF -DGGML_CUDA=ON
cmake --build llama.cpp/build --config Release -j --clean-first --target llama-cli llama-mtmd-cli llama-server llama-gguf-split
cp llama.cpp/build/bin/llama-* llama.cpp2
./llama.cpp/llama-cli \
-hf unsloth/MiniMax-M2.5-GGUF:UD-Q3_K_XL \
--ctx-size 16384 \
--flash-attn on \
--temp 1.0 \
--top-p 0.95 \
--min-p 0.01 \
--top-k 40
モデルをダウンロードする(インストール後) via:3
--local-dir unsloth/MiniMax-M2.5-GGUF \
--include "*UD-Q3_K_XL*" # 8-bit の場合は "*Q8_0*" を使用
CPU スレッド数を指定するには4
-hf unsloth/MiniMax-M2.5-GGUF:UD-Q3_K_XL \
--top-k 40 \
--top-p 0.95 \
--min-p 0.01 \
--top-k 40
--seed 3407
--flash-attn on \
🦙 Llama-server と OpenAI の completion ライブラリMiniMax-M2.5 を本番展開するために、我々は
以下で表形式のベンチマークをさらにご覧になれます:

MiniMax-M2.5
MiniMax-M2.1
Claude Opus 4.5
Claude Opus 4.6
Gemini 3 Pro
GPT-5.2 (thinking)
AIME25




最終更新
役に立ちましたか?

