Comment exécuter des LLM locaux avec Claude Code & OpenAI Codex
Guide pour exécuter Claude Code et OpenAI Codex sur votre appareil local.
📖 Étape n°1 : Installer Llama.cpp Tutoriel
1
apt-get update
apt-get install pciutils build-essential cmake curl libcurl4-openssl-dev git-all -y
git clone https://github.com/ggml-org/llama.cpp
cmake llama.cpp -B llama.cpp/build \
-DBUILD_SHARED_LIBS=OFF -DGGML_CUDA=ON
cmake --build llama.cpp/build --config Release -j --clean-first --target llama-cli llama-mtmd-cli llama-server llama-gguf-split
cp llama.cpp/build/bin/llama-* llama.cpp
2
3
Démarrer le serveur Llama
--alias "unsloth/Qwen3.5-397B-A17B" \
--model unsloth/GLM-4.7-Flash-GGUF/GLM-4.7-Flash-UD-Q4_K_XL.gguf \
--alias "unsloth/GLM-4.7-Flash" \
--temp 1.0 \
--top-p 0.95 \
--min-p 0.01 \
--port 8001 \
--kv-unified \
--cache-type-k q8_0 --cache-type-v q8_0 \
--flash-attn on \
--batch-size 4096 --ubatch-size 1024 \
--ctx-size 131072👾 Tutoriel Claude Code
Installer Claude Code et l'exécuter localement
curl -fsSL https://claude.ai/install.sh | bash
# Ou via Homebrew : brew install --cask claude-codeexport ANTHROPIC_BASE_URL="http://localhost:8001"export ANTHROPIC_API_KEY='sk-no-key-required' ## ou 'sk-1234'irm https://claude.ai/install.ps1 | iex$env:ANTHROPIC_BASE_URL="http://localhost:8001"🌟Exécuter Claude Code localement sur Linux / Mac / Windows




👾 Tutoriel OpenAI Codex CLI
Installez



Mis à jour
Ce contenu vous a-t-il été utile ?



