💎Linux ターミナルでの LM Studio CLI インストール方法
UI なしのターミナル環境での LM Studio CLI インストールガイド。
wget https://lmstudio.ai/download/latest/linux/x64?format=AppImage -O 'LM_Studio.AppImage'
chmod u+x ./LM_Studio.AppImage









最終更新
役に立ちましたか?
UI なしのターミナル環境での LM Studio CLI インストールガイド。
wget https://lmstudio.ai/download/latest/linux/x64?format=AppImage -O 'LM_Studio.AppImage'
chmod u+x ./LM_Studio.AppImage









最終更新
役に立ちましたか?
役に立ちましたか?
./LM_Studio.AppImage[802435:0215/073628.027773:FATAL:sandbox/linux/suid/client/setuid_sandbox_host.cc:166] SUID サンドボックス補助バイナリは見つかりましたが、正しく構成されていません。サンドボックスなしで実行するよりは中止します。./LM_Studio.AppImage --no-sandbox[807101:0215/073740.801969:ERROR:ui/ozone/platform/x11/ozone_platform_x11.cc:249] X サーバーまたは $DISPLAY がありません
[807101:0215/073740.802000:ERROR:ui/aura/env.cc:257] プラットフォームの初期化に失敗しました。終了します。
セグメンテーション違反 (コアダンプ)sudo apt-get install xvfbxvfb-run --auto-servernum ./LM_Studio.AppImage --no-sandbox~/.lmstudio/bin/lms bootstraplmspip install -U huggingface_hub
hf download unsloth/Qwen3-Coder-Next-GGUF \
--local-dir unsloth/Qwen3-Coder-Next-GGUF \
--include "*UD-Q4_K_XL*"lms import \
unsloth/Qwen3-Coder-Next-GGUF/Qwen3-Coder-Next-UD-Q4_K_XL.gguf \
--symbolic-link --user-repo "unsloth/Qwen3-Coder-Next-GGUF" -yls ~/.lmstudio/modelslms get https://huggingface.co/unsloth/Qwen3-Coder-Next-GGUF@Q4_K_XLダウンロードの最終処理中...
ダウンロードが完了しました。モデルは次でロードできます:
lms load qwen3-coder-nextlms server start --port 8001 --bind 127.0.0.1from openai import OpenAI
import json
openai_client = OpenAI(
base_url = "http://127.0.0.1:8001/v1",
api_key = "null",
)
model_name = next(iter(openai_client.models.list())).id
print(model_name)
completion = openai_client.chat.completions.create(
model = model_name,
messages = [{"role": "user", "content": "What is 2+2?"},],
)
print(completion.choices[0].message.content)