💎如何在 Linux 终端中安装 LM Studio CLI
在无 UI 的终端实例中安装 LM Studio CLI 的指南。
wget https://lmstudio.ai/download/latest/linux/x64?format=AppImage -O 'LM_Studio.AppImage'
chmod u+x ./LM_Studio.AppImage









最后更新于
这有帮助吗?
在无 UI 的终端实例中安装 LM Studio CLI 的指南。
wget https://lmstudio.ai/download/latest/linux/x64?format=AppImage -O 'LM_Studio.AppImage'
chmod u+x ./LM_Studio.AppImage









最后更新于
这有帮助吗?
这有帮助吗?
./LM_Studio.AppImage[802435:0215/073628.027773:FATAL:sandbox/linux/suid/client/setuid_sandbox_host.cc:166] 找到 SUID 沙箱辅助二进制文件,但未正确配置。与其在没有沙箱的情况下运行,我现在终止。./LM_Studio.AppImage --no-sandbox[807101:0215/073740.801969:ERROR:ui/ozone/platform/x11/ozone_platform_x11.cc:249] 缺少 X 服务器或 $DISPLAY
[807101:0215/073740.802000:ERROR:ui/aura/env.cc:257] 平台初始化失败。正在退出。
段错误(已生成核心转储)sudo apt-get install xvfbxvfb-run --auto-servernum ./LM_Studio.AppImage --no-sandbox~/.lmstudio/bin/lms bootstraplmspip install -U huggingface_hub
hf download unsloth/Qwen3-Coder-Next-GGUF \
--local-dir unsloth/Qwen3-Coder-Next-GGUF \
--include "*UD-Q4_K_XL*"lms import \
unsloth/Qwen3-Coder-Next-GGUF/Qwen3-Coder-Next-UD-Q4_K_XL.gguf \
--symbolic-link --user-repo "unsloth/Qwen3-Coder-Next-GGUF" -yls ~/.lmstudio/modelslms get https://huggingface.co/unsloth/Qwen3-Coder-Next-GGUF@Q4_K_XL正在完成下载...
下载完成。你可以使用以下命令加载模型:
lms load qwen3-coder-nextlms server start --port 8001 --bind 127.0.0.1from openai import OpenAI
import json
openai_client = OpenAI(
base_url = "http://127.0.0.1:8001/v1",
api_key = "null",
)
model_name = next(iter(openai_client.models.list())).id
print(model_name)
completion = openai_client.chat.completions.create(
model = model_name,
messages = [{"role": "user", "content": "What is 2+2?"},],
)
print(completion.choices[0].message.content)