# Comment installer la CLI de LM Studio dans le terminal Linux

1. Ouvrez un nouveau terminal pour exécuter l'interface CLI de LM Studio, ou utilisez `tmux`
2. Obtenir [LM Studio](https://lmstudio.ai/download) ou exécutez ci-dessous (taille de téléchargement d'environ 1 Go)

{% code overflow="wrap" %}

```bash
wget https://lmstudio.ai/download/latest/linux/x64?format=AppImage -O 'LM_Studio.AppImage'
chmod u+x ./LM_Studio.AppImage
```

{% endcode %}

<figure><img src="https://550366147-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2FtAXPNUc4awU1GkNTklzG%2Fimage.png?alt=media&#x26;token=6b8929fc-2e93-48d9-8bda-b88c59b5e2fc" alt=""><figcaption></figcaption></figure>

2. Exécutez LM Studio via

```bash
./LM_Studio.AppImage
```

Vous pourriez voir ci‑dessous :

<figure><img src="https://550366147-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2FMqjblgskH96SUt7up3iQ%2Fimage.png?alt=media&#x26;token=c4713e00-9c1d-45be-b949-22cc7443484f" alt=""><figcaption></figcaption></figure>

{% code overflow="wrap" %}

```
[802435:0215/073628.027773:FATAL:sandbox/linux/suid/client/setuid_sandbox_host.cc:166] Le binaire d'aide du sandbox SUID a été trouvé, mais n'est pas configuré correctement. Plutôt que d'exécuter sans sandboxing, j'abandonne maintenant.
```

{% endcode %}

Si c'est le cas, faites plutôt ce qui suit :

```bash
./LM_Studio.AppImage --no-sandbox
```

3. Vous pourriez alors voir ce qui suit, surtout si vous êtes sur une instance cloud sans bureau :

<figure><img src="https://550366147-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2F0Wub7SZjdOtKjJYuEj30%2Fimage.png?alt=media&#x26;token=2f7ec9c7-6f9b-4ebe-9c4d-a0bd871e6ca5" alt=""><figcaption></figcaption></figure>

{% code overflow="wrap" %}

```
[807101:0215/073740.801969:ERROR:ui/ozone/platform/x11/ozone_platform_x11.cc:249] Serveur X manquant ou $DISPLAY
[807101:0215/073740.802000:ERROR:ui/aura/env.cc:257] La plateforme n'a pas pu s'initialiser. Sortie.
Erreur de segmentation (vidage de la mémoire)
```

{% endcode %}

Si c'est le cas, installez un simulateur de bureau « factice » dans le terminal :

```bash
sudo apt-get install xvfb
```

4. Puis utilisez `xvfb` et lancez LM Studio :

```bash
xvfb-run --auto-servernum ./LM_Studio.AppImage --no-sandbox
```

<figure><img src="https://550366147-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2FU04faEKimBth2FPP0WJI%2Fimage.png?alt=media&#x26;token=005eb027-beed-4b71-8221-c527e670ed8a" alt=""><figcaption></figcaption></figure>

5. Ensuite récupérez le LMS/CLI de LM Studio dans un autre terminal, ou après CTRL+B+D pour `tmux`

```bash
~/.lmstudio/bin/lms bootstrap
```

<figure><img src="https://550366147-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2F6kw89TOhe3ZaOmBY9SUH%2Fimage.png?alt=media&#x26;token=2ddb7550-3a61-45e0-a157-085e76862338" alt=""><figcaption></figcaption></figure>

6. Ouvrez un nouveau terminal ou `tmux`  puis exécutez :

```bash
lms
```

<figure><img src="https://550366147-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2Fa5znXk9udpntbNEX4VWW%2Fimage.png?alt=media&#x26;token=6315b12b-5401-4ff6-9ef4-729c0a84447b" alt="" width="375"><figcaption></figcaption></figure>

Si vous voyez `-bash: lms: commande introuvable` veuillez exécuter `lms` dans une nouvelle fenêtre de terminal !

7. Téléchargez maintenant un modèle comme [qwen3-coder-next](https://unsloth.ai/docs/fr/modeles/qwen3-coder-next "mention") comme ci‑dessous. Si les téléchargements sont bloqués, voyez [hugging-face-hub-xet-debugging](https://unsloth.ai/docs/fr/notions-de-base/troubleshooting-and-faqs/hugging-face-hub-xet-debugging "mention")

{% code overflow="wrap" %}

```bash
pip install -U huggingface_hub
hf download unsloth/Qwen3-Coder-Next-GGUF \
    --local-dir unsloth/Qwen3-Coder-Next-GGUF \
    --include "*UD-Q4_K_XL*"
```

{% endcode %}

8. Nous importons ensuite le modèle via :

{% code overflow="wrap" %}

```bash
lms import \
    unsloth/Qwen3-Coder-Next-GGUF/Qwen3-Coder-Next-UD-Q4_K_XL.gguf \
    --symbolic-link --user-repo "unsloth/Qwen3-Coder-Next-GGUF" -y
```

{% endcode %}

Vous pourriez voir `EEXIST: le fichier existe déjà, lien symbolique 'unsloth/Qwen3-Coder-Next-GGUF/UD-Q6_K_XL/Qwen3-Coder-Next-UD-Q6_K_XL-00001-of-00003.gguf' -> '~/.lmstudio/models/unsloth/Qwen3-Coder-Next-GGUF/Qwen3-Coder-Next-UD-Q6_K_XL-00001-of-00003.gguf'` ce qui signifie simplement que vous avez déjà le modèle chargé dans LM Studio.

Vous pouvez aussi vérifier tous les modèles LM Studio via :

```bash
ls ~/.lmstudio/models
```

8. Vous pouvez aussi obtenir des modèles via `lms get` via ci‑dessous :

```bash
lms get https://huggingface.co/unsloth/Qwen3-Coder-Next-GGUF@Q4_K_XL
```

<figure><img src="https://550366147-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2FK74SkUxvalZHx8t3E43F%2Fimage.png?alt=media&#x26;token=a55fcb8c-9988-4715-8c0c-6734e64f7950" alt=""><figcaption></figcaption></figure>

Vous verrez alors :

```
Finalisation du téléchargement...
Téléchargement terminé. Vous pouvez charger le modèle avec : 
lms load qwen3-coder-next
```

<figure><img src="https://550366147-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2FLTu3kzRayo9EizGePnDC%2Fimage.png?alt=media&#x26;token=bfe7b31b-3f91-40b2-b7c3-3fd1e0a59597" alt=""><figcaption></figcaption></figure>

Puis chargez `lms load qwen3-coder-next`:

<figure><img src="https://550366147-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2FwaFO6LrId5ApBwAzYWAv%2Fimage.png?alt=media&#x26;token=89e9546e-cf8d-4ce8-aa87-c529c786b848" alt=""><figcaption></figcaption></figure>

9. Puis démarrez le serveur de LM Studio :

```bash
lms server start --port 8001 --bind 127.0.0.1
```

Vous verrez `Succès ! Le serveur fonctionne maintenant sur le port 8001`

9. Puis dans un nouveau terminal, utilisez le modèle via le point de terminaison compatible OpenAI :

```python
from openai import OpenAI
import json
openai_client = OpenAI(
    base_url = "http://127.0.0.1:8001/v1",
    api_key = "null",
)
model_name = next(iter(openai_client.models.list())).id
print(model_name)
completion = openai_client.chat.completions.create(
    model = model_name,
    messages = [{"role": "user", "content": "What is 2+2?"},],
)
print(completion.choices[0].message.content)
```

<figure><img src="https://550366147-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2FufkusKj9R9amo7lb9JxM%2Fimage.png?alt=media&#x26;token=4f4e90ab-0cf6-4215-b7db-7f08e40719d1" alt=""><figcaption></figcaption></figure>

Et nous avons fini !
