💎如何在 Linux 终端中安装 LM Studio CLI

在无 UI 的终端实例中安装 LM Studio CLI 的指南。

  1. 打开一个新终端以运行 LM Studio CLI,或使用 tmux

  2. 获取 LM Studioarrow-up-right 或运行下面命令(约 1GB 下载大小)

wget https://lmstudio.ai/download/latest/linux/x64?format=AppImage -O 'LM_Studio.AppImage'
chmod u+x ./LM_Studio.AppImage
  1. 通过以下方式运行 LM Studio

你可能会看到如下信息:

如果是这样,请改为执行下面操作:

  1. 然后你可能会看到下面这些,尤其是在没有桌面的云实例中:

如果是这样,请在终端内安装一个“假”桌面模拟器:

  1. 然后使用 xvfb 并启动 LM Studio:

  1. 然后在另一个终端获取 LM Studio 的 LMS / CLI,或在按 CTRL+B+D 后执行 tmux

  1. 打开一个新终端或 tmux 然后运行:

如果你看到 -bash: lms: command not found 请运行 lms 在新的终端窗口中!

  1. 现在下载一个模型,例如 Qwen3-Coder-Next 如下。如果下载卡住,请参见 Hugging Face Hub,XET 调试

  1. 然后我们通过以下命令导入模型:

你可能会看到 EEXIST: 文件已存在,符号链接 'unsloth/Qwen3-Coder-Next-GGUF/UD-Q6_K_XL/Qwen3-Coder-Next-UD-Q6_K_XL-00001-of-00003.gguf' -> '~/.lmstudio/models/unsloth/Qwen3-Coder-Next-GGUF/Qwen3-Coder-Next-UD-Q6_K_XL-00001-of-00003.gguf' 这只是表示你已经在 LM Studio 中加载了该模型。

你也可以通过以下命令检查所有 LM Studio 模型:

  1. 你也可以通过以下方式获取模型 lms get 通过下面:

然后你会看到:

然后加载 lms load qwen3-coder-next:

  1. 然后启动 LM Studio 的服务器:

你会看到 成功!服务器现在在端口 8001 上运行

  1. 然后在一个新终端中,通过兼容 OpenAI 的端点使用该模型:

就这样完成了!

最后更新于

这有帮助吗?