MiniMax-M2.5:运行指南
在您的本地设备上运行 MiniMax-M2.5!
⚙️ 使用指南
推荐设置
默认设置(大多数任务)
你是一个乐于助人的助手。你的名字是 MiniMax-M2.5,由 MiniMax 构建。运行 MiniMax-M2.5 教程:
✨ 在 llama.cpp 中运行
1
apt-get update
apt-get install pciutils build-essential cmake curl libcurl4-openssl-dev -y
git clone https://github.com/ggml-org/llama.cpp
cmake llama.cpp -B llama.cpp/build \
-DBUILD_SHARED_LIBS=OFF -DGGML_CUDA=ON
cmake --build llama.cpp/build --config Release -j --clean-first --target llama-cli llama-mtmd-cli llama-server llama-gguf-split
cp llama.cpp/build/bin/llama-* llama.cpp2
export LLAMA_CACHE="unsloth/MiniMax-M2.5-GGUF"
./llama.cpp/llama-cli \
-hf unsloth/MiniMax-M2.5-GGUF:UD-Q3_K_XL \
--ctx-size 16384 \
--flash-attn on \
--temp 1.0 \
--top-p 0.95 \
--min-p 0.01 \
--top-k 403
hf download unsloth/MiniMax-M2.5-GGUF \
--local-dir unsloth/MiniMax-M2.5-GGUF \
--include "*UD-Q3_K_XL*" # 对于 8 位使用 "*Q8_0*"4
./llama.cpp/llama-cli \
--model unsloth/MiniMax-M2.5-GGUF/UD-Q3_K_XL/MiniMax-M2.5-UD-Q3_K_XL-00001-of-00004.gguf \
--temp 1.0 \
--top-p 0.95 \
--min-p 0.01 \
--top-k 40 \
--ctx-size 16384 \
--seed 3407🦙 Llama-server 与 OpenAI 的 completion 库
📊 基准测试

基准
MiniMax-M2.5
MiniMax-M2.1
Claude Opus 4.5
Claude Opus 4.6
Gemini 3 Pro
GPT-5.2(思考中)




最后更新于
这有帮助吗?

