🦥Unslothドキュメント

Unslothは、モデルの実行と学習のためのオープンソースフレームワークです。

Unslothを使えば、自分のローカルハードウェア上でAIモデルを実行・学習できます。

私たちのドキュメントでは、自分のモデルをローカルで実行・学習する方法を案内します。

始める GitHub

🦥 なぜ Unsloth?

⭐ 機能

Unslothを使えば、テキスト用のモデルを実行・学習できます。 音声arrow-up-right, 埋め込みarrow-up-right, ビジョンarrow-up-right など。Unsloth は推論と学習の両方において多くの重要機能を提供します:

推論

学習

  • 学習して RL 500以上のモデルを、約70%少ないVRAMで約2倍高速に(精度低下なし)

  • フルファインチューニング、事前学習、4ビット、16ビット、FP8学習をサポート。

  • データセットを自動作成 PDF、CSV、DOCXファイルから。ビジュアルなノードワークフローでデータを編集。

  • 可観測性:学習をライブ監視し、損失、GPU使用率を追跡し、グラフをカスタマイズ

  • 最も効率的な 強化学習 ライブラリで、GRPOに使うVRAMを80%削減、 FP8 など。

  • マルチGPU は動作しますが、さらに良い版がまもなく登場します!

クイックスタート

Unsloth は MacOS、Linux、 Windows, NVIDIA、Intel および CPU 構成をサポートしています。こちらをご覧ください: Unslothの要件。更新するには同じコマンドを使ってください:

MacOS、Linux、WSL:

Windows PowerShell:

Docker

公式の Dockerイメージ: unsloth/unslotharrow-up-right は現在、Windows、WSL、Linux で動作します。MacOS対応は近日公開予定です。

Unsloth を起動

新しいモデル

ファインチューニングとRLとは?なぜ必要なのか?

ファインチューニング LLM は、その振る舞いをカスタマイズし、ドメイン知識を強化し、特定タスク向けに性能を最適化します。事前学習済みモデル(例:Llama-3.1-8B)をデータセットでファインチューニングすることで、次のことができます:

  • 知識の更新:新しいドメイン固有の情報を導入する。

  • 振る舞いのカスタマイズ:モデルの口調、性格、応答スタイルを調整する。

  • タスク向けの最適化:特定のユースケースに対する精度と関連性を向上させる。

強化学習 (RL) とは、エージェントが環境と相互作用し、 フィードバック報酬 または 罰則.

  • アクション: モデルが生成するもの(例:文)。

  • 報酬: モデルの行動がどれだけ良かったか、または悪かったかを示す信号(例:応答は指示に従っていたか?役に立ったか?)。

  • 環境: モデルが取り組んでいるシナリオやタスク(例:ユーザーの質問に答える)。

ファインチューニングまたはRLの使用例:

  • 見出しが企業に対してポジティブかネガティブかをLLMが予測できるようにする。

  • 過去の顧客とのやり取りを使って、より正確でカスタムな応答が可能。

  • 契約書分析、判例調査、コンプライアンスのために、法的文書でLLMをファインチューニング。

ファインチューニング済みモデルは、特定のタスクをより効果的かつ効率的に実行するために設計された専門エージェントと考えることができます。 ファインチューニングはRAGのすべての機能を再現できますが、その逆はできません。

最終更新

役に立ちましたか?