# LinuxターミナルでLM Studio CLIをインストールする方法

1. LM Studio CLI を実行するために新しいターミナルを開くか、または次を使用します `tmux`
2. 入手 [LM Studio](https://lmstudio.ai/download) または以下を実行します（ダウンロードサイズは約1GB）

{% code overflow="wrap" %}

```bash
wget https://lmstudio.ai/download/latest/linux/x64?format=AppImage -O 'LM_Studio.AppImage'
chmod u+x ./LM_Studio.AppImage
```

{% endcode %}

<figure><img src="https://735611837-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2FtAXPNUc4awU1GkNTklzG%2Fimage.png?alt=media&#x26;token=6b8929fc-2e93-48d9-8bda-b88c59b5e2fc" alt=""><figcaption></figcaption></figure>

2. LM Studio を次で実行します

```bash
./LM_Studio.AppImage
```

次のような表示が出ることがあります:

<figure><img src="https://735611837-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2FMqjblgskH96SUt7up3iQ%2Fimage.png?alt=media&#x26;token=c4713e00-9c1d-45be-b949-22cc7443484f" alt=""><figcaption></figcaption></figure>

{% code overflow="wrap" %}

```
[802435:0215/073628.027773:FATAL:sandbox/linux/suid/client/setuid_sandbox_host.cc:166] SUID サンドボックス補助バイナリは見つかりましたが、正しく構成されていません。サンドボックスなしで実行するよりは中止します。
```

{% endcode %}

もしそうなら、代わりに以下を実行してください:

```bash
./LM_Studio.AppImage --no-sandbox
```

3. 特にデスクトップ環境のないクラウドインスタンスにいる場合、次のような表示が出ることがあります:

<figure><img src="https://735611837-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2F0Wub7SZjdOtKjJYuEj30%2Fimage.png?alt=media&#x26;token=2f7ec9c7-6f9b-4ebe-9c4d-a0bd871e6ca5" alt=""><figcaption></figcaption></figure>

{% code overflow="wrap" %}

```
[807101:0215/073740.801969:ERROR:ui/ozone/platform/x11/ozone_platform_x11.cc:249] X サーバーまたは $DISPLAY がありません
[807101:0215/073740.802000:ERROR:ui/aura/env.cc:257] プラットフォームの初期化に失敗しました。終了します。
セグメンテーション違反 (コアダンプ)
```

{% endcode %}

その場合は、ターミナル内に「偽」のデスクトップシミュレータをインストールしてください:

```bash
sudo apt-get install xvfb
```

4. その後、次を使用します `xvfb` そして LM Studio を起動します:

```bash
xvfb-run --auto-servernum ./LM_Studio.AppImage --no-sandbox
```

<figure><img src="https://735611837-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2FU04faEKimBth2FPP0WJI%2Fimage.png?alt=media&#x26;token=005eb027-beed-4b71-8221-c527e670ed8a" alt=""><figcaption></figcaption></figure>

5. 別のターミナルで、または CTRL+B+D の後に LM Studio の LMS / CLI を取得します `tmux`

```bash
~/.lmstudio/bin/lms bootstrap
```

<figure><img src="https://735611837-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2F6kw89TOhe3ZaOmBY9SUH%2Fimage.png?alt=media&#x26;token=2ddb7550-3a61-45e0-a157-085e76862338" alt=""><figcaption></figcaption></figure>

6. 新しいターミナルを開くか `tmux`  その後次を実行します:

```bash
lms
```

<figure><img src="https://735611837-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2Fa5znXk9udpntbNEX4VWW%2Fimage.png?alt=media&#x26;token=6315b12b-5401-4ff6-9ef4-729c0a84447b" alt="" width="375"><figcaption></figcaption></figure>

もし次が表示されたら `-bash: lms: command not found` 次を実行してください `lms` 新しいターミナルウィンドウで！

7. 次のようなモデルをダウンロードします [qwen3-coder-next](https://unsloth.ai/docs/jp/moderu/qwen3-coder-next "mention") 以下のように。ダウンロードが停止する場合は、次を参照してください [hugging-face-hub-xet-debugging](https://unsloth.ai/docs/jp/ji-ben/troubleshooting-and-faqs/hugging-face-hub-xet-debugging "mention")

{% code overflow="wrap" %}

```bash
pip install -U huggingface_hub
hf download unsloth/Qwen3-Coder-Next-GGUF \
    --local-dir unsloth/Qwen3-Coder-Next-GGUF \
    --include "*UD-Q4_K_XL*"
```

{% endcode %}

8. 次にモデルを以下でインポートします:

{% code overflow="wrap" %}

```bash
lms import \
    unsloth/Qwen3-Coder-Next-GGUF/Qwen3-Coder-Next-UD-Q4_K_XL.gguf \
    --symbolic-link --user-repo "unsloth/Qwen3-Coder-Next-GGUF" -y
```

{% endcode %}

次のような表示が出ることがあります `EEXIST: file already exists, symlink 'unsloth/Qwen3-Coder-Next-GGUF/UD-Q6_K_XL/Qwen3-Coder-Next-UD-Q6_K_XL-00001-of-00003.gguf' -> '~/.lmstudio/models/unsloth/Qwen3-Coder-Next-GGUF/Qwen3-Coder-Next-UD-Q6_K_XL-00001-of-00003.gguf'` これは単にそのモデルがすでに LM Studio にロードされていることを意味します。

すべての LM Studio モデルは次で確認できます:

```bash
ls ~/.lmstudio/models
```

8. モデルは次からも取得できます `lms get` 以下経由で:

```bash
lms get https://huggingface.co/unsloth/Qwen3-Coder-Next-GGUF@Q4_K_XL
```

<figure><img src="https://735611837-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2FK74SkUxvalZHx8t3E43F%2Fimage.png?alt=media&#x26;token=a55fcb8c-9988-4715-8c0c-6734e64f7950" alt=""><figcaption></figcaption></figure>

次のように表示されます:

```
ダウンロードの最終処理中...
ダウンロードが完了しました。モデルは次でロードできます: 
lms load qwen3-coder-next
```

<figure><img src="https://735611837-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2FLTu3kzRayo9EizGePnDC%2Fimage.png?alt=media&#x26;token=bfe7b31b-3f91-40b2-b7c3-3fd1e0a59597" alt=""><figcaption></figcaption></figure>

その後ロードします `lms load qwen3-coder-next`:

<figure><img src="https://735611837-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2FwaFO6LrId5ApBwAzYWAv%2Fimage.png?alt=media&#x26;token=89e9546e-cf8d-4ce8-aa87-c529c786b848" alt=""><figcaption></figcaption></figure>

9. そして LM Studio のサーバーを起動します:

```bash
lms server start --port 8001 --bind 127.0.0.1
```

次のように表示されます `成功！サーバーはポート 8001 で稼働中です`

9. 次に新しいターミナルで、OpenAI 互換のエンドポイントを通じてモデルを使用します:

```python
from openai import OpenAI
import json
openai_client = OpenAI(
    base_url = "http://127.0.0.1:8001/v1",
    api_key = "null",
)
model_name = next(iter(openai_client.models.list())).id
print(model_name)
completion = openai_client.chat.completions.create(
    model = model_name,
    messages = [{"role": "user", "content": "What is 2+2?"},],
)
print(completion.choices[0].message.content)
```

<figure><img src="https://735611837-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FxhOjnexMCB3dmuQFQ2Zq%2Fuploads%2FufkusKj9R9amo7lb9JxM%2Fimage.png?alt=media&#x26;token=4f4e90ab-0cf6-4215-b7db-7f08e40719d1" alt=""><figcaption></figcaption></figure>

これで完了です！
