hexagonCogito v2.1:ローカル実行ガイド

Cogito v2.1 LLM は IDA で訓練された世界で最も強力なオープンモデルの一つです。v1 は 70B、109B、405B、671B の 4 サイズがあり、ハードウェアに合ったサイズを選べます。

circle-check

Cogito v2.1は1つの671B MoEサイズで提供され、Cogito v2 Previewは Deep Cogitoarrow-up-right のモデルリリースは70Bから671Bまでの4つのモデルサイズに及びます。を使用することにより IDA(反復蒸留と増幅)、これらのモデルは推論時に単により長く探索するのではなく(DeepSeek R1のように)、反復的な方針改善を用いて推論過程をモデル内に取り込む形で訓練されます。

Deep Cogitoは拠点を置いています: 米国サンフランシスコarrow-up-right (Unslothのように 🇺🇸)そして4つのモデルサイズすべてに対して量子化されたダイナミックモデルを提供できることを嬉しく思います!すべてのアップロードはUnslothを使用しており Dynamic 2.0 SOTAの5ショットMMLUおよびKLダイバージェンスの性能を実現しているため、これらのLLMを量子化したまま最小限の精度低下で実行およびファインチューニングできます!

チュートリアル ナビゲーション:

671B MoEを実行する109B MoEを実行する405B Denseを実行する70B Denseを実行する

circle-check

💎 モデルサイズとアップロード

モデルサイズは4つあります:

  1. Llamaをベースにした2つのDenseモデル - 70B と 405B

  2. Llama 4 Scout(109B)とDeepSeek R1(671B)をベースにした2つのMoEモデル

モデルサイズ
推奨量子化&リンク
ディスクサイズ
アーキテクチャ

70B Dense

44GB

Llama 3 70B

109B MoE

50GB

Llama 4 Scout

405B Dense

152GB

Llama 3 405B

671B MoE

251GB

DeepSeek R1

circle-check

🐳 llama.cppでCogito 671B MoEを実行する

  1. 最新の llama.cppGitHub で入手arrow-up-rightできます。下のビルド手順に従うこともできます。変更してください -DGGML_CUDA=ON から -DGGML_CUDA=OFF GPU がない場合や CPU 推論のみを行いたい場合は。

  1. 直接モデルを読み込むために llama.cpp モデルを直接ロードするには、以下を実行できます:(:IQ1_S)は量子化タイプです。Hugging Face(項目3)経由でもダウンロードできます。これは次と類似しています ollama run に類似しています。使用してください export LLAMA_CACHE="folder" で強制的に llama.cpp 特定の場所に保存するために。

circle-check
  1. (以下をインストールした後に)モデルをダウンロードします pip install huggingface_hub hf_transfer )。量子化バージョンとして選べます UD-IQ1_S(ダイナミック1.78bit量子化)や他の量子化バージョンのような Q4_K_M )を選択できます。私たちは 2.7ビット動的量子化の使用を推奨します UD-Q2_K_XL はサイズと精度のバランスをとるためです。その他のバージョンは: https://huggingface.co/unsloth/cogito-671b-v2.1-GGUFarrow-up-right

  1. 編集 --threads 32 でCPUスレッド数を編集できます、 --ctx-size 16384 でコンテキスト長を、 --n-gpu-layers 2 で何層をGPUにオフロードするかを指定します。GPUがメモリ不足になる場合は調整してみてください。CPUのみの推論の場合はこれを削除してください。

🖱️llama.cppでCogito 109B MoEを実行する

  1. 上記の671Bモデルを実行する手順と同じ指示に従ってください 上の671Bモデル.

  2. それから以下を実行します:

🌳llama.cppでCogito 405B Denseを実行する

  1. 上記の671Bモデルを実行する手順と同じ指示に従ってください 上の671Bモデル.

  2. それから以下を実行します:

😎 llama.cppでCogito 70B Denseを実行する

  1. 上記の671Bモデルを実行する手順と同じ指示に従ってください 上の671Bモデル.

  2. それから以下を実行します:

詳細については https://www.deepcogito.com/research/cogito-v2-1arrow-up-right 詳細については

最終更新

役に立ちましたか?