💎Wie man die LM Studio CLI im Linux-Terminal installiert

LM Studio CLI-Installationsanleitung ohne UI in einer Terminal-Instanz.

  1. Öffnen Sie ein neues Terminal, um die LM Studio CLI auszuführen, oder verwenden Sie tmux

  2. Hol dir LM Studioarrow-up-right oder führen Sie unten aus (Downloadgröße etwa 1 GB)

wget https://lmstudio.ai/download/latest/linux/x64?format=AppImage -O 'LM_Studio.AppImage'
chmod u+x ./LM_Studio.AppImage
  1. Starten Sie LM Studio über

Sie könnten Folgendes sehen:

Falls ja, machen Sie stattdessen Folgendes:

  1. Sie könnten dann Folgendes sehen, besonders wenn Sie sich in einer Cloud-Instanz ohne Desktop befinden:

Falls ja, installieren Sie einen "Fake"-Desktop-Simulator im Terminal:

  1. Verwenden Sie dann xvfb und starten Sie LM Studio:

  1. Holen Sie sich dann LM Studios LMS / CLI in einem anderen Terminal, oder nach CTRL+B+D für tmux

  1. Öffnen Sie ein neues Terminal oder tmux führen Sie dann aus:

Wenn Sie sehen -bash: lms: command not found führen Sie bitte aus lms in einem neuen Terminalfenster!

  1. Laden Sie nun ein Modell wie Qwen3-Coder-Next wie unten. Wenn Downloads hängen bleiben, siehe Hugging Face Hub, XET-Debugging

  1. Wir importieren das Modell dann über:

Sie könnten sehen EEXIST: file already exists, symlink 'unsloth/Qwen3-Coder-Next-GGUF/UD-Q6_K_XL/Qwen3-Coder-Next-UD-Q6_K_XL-00001-of-00003.gguf' -> '~/.lmstudio/models/unsloth/Qwen3-Coder-Next-GGUF/Qwen3-Coder-Next-UD-Q6_K_XL-00001-of-00003.gguf' was nur bedeutet, dass Sie das Modell bereits in LM Studio geladen haben.

Sie können auch alle LM Studio-Modelle prüfen über:

  1. Sie können Modelle auch erhalten via lms get über Folgendes:

Sie werden dann sehen:

Dann laden lms load qwen3-coder-next:

  1. Starten Sie dann den Server von LM Studio:

Sie werden sehen Erfolg! Server läuft jetzt auf Port 8001

  1. Dann verwenden Sie in einem neuen Terminal das Modell über den OpenAI-kompatiblen Endpunkt:

Und fertig!

Zuletzt aktualisiert

War das hilfreich?