如何在本地使用 Claude Code 与 OpenAI Codex 运行 LLM
在本地设备上运行 Claude Code 和 OpenAI Codex 的指南。
📖 第一步:安装 Llama.cpp 教程
1
apt-get update
apt-get install pciutils build-essential cmake curl libcurl4-openssl-dev git-all -y
git clone https://github.com/ggml-org/llama.cpp
cmake llama.cpp -B llama.cpp/build \
-DBUILD_SHARED_LIBS=OFF -DGGML_CUDA=ON
cmake --build llama.cpp/build --config Release -j --clean-first --target llama-cli llama-mtmd-cli llama-server llama-gguf-split
cp llama.cpp/build/bin/llama-* llama.cpp
2
3
allow_patterns = ["*UD-Q4_K_XL*"],
进行 KV 缓存量化以减少显存使用。
./llama.cpp/llama-server \
--model unsloth/GLM-4.7-Flash-GGUF/GLM-4.7-Flash-UD-Q4_K_XL.gguf \
--alias "unsloth/GLM-4.7-Flash" \
--fit on \
--temp 1.0 \
--top-p 0.95 \
--min-p 0.01 \
--port 8000 \
--jinja \
--kv-unified \
--cache-type-k q8_0 --cache-type-v q8_0 \
--flash-attn on \
--batch-size 4096 --ubatch-size 1024 \--chat-template-kwargs "{"enable_thinking": false}"
Claude Code 是 Anthropic 的代理式编码工具,运行在您的终端中,理解您的代码库,并通过自然语言处理复杂的 Git 工作流。
Mac / Linux 安装
curl -fsSL https://claude.ai/install.sh | bash服务器:。例如:请对下面的所有命令使用 Powershell:irm https://claude.ai/install.ps1 | iex🌟$PROFILE




安装
,然后点击



最后更新于
这有帮助吗?



