Unsloth の更新情報
Unsloth の最新リリース、改善点、修正点の変更履歴。
最新の変更を使うには、Unsloth を अपडेटしてください。
+50% のツール呼び出し精度向上 + さらなるサポート
すべてのモデルのツール呼び出しが現在 +30% 〜 +80% さらに正確になりました。
Web 検索が、要約だけでなく実際に Web コンテンツを取得するようになりました
許可されるツール呼び出し回数が 10 回から 25 回に増えました
ツール呼び出しの終了処理が大幅に改善され、ループ / 繰り返しが減少します
さらに ツール呼び出しの修復 および重複排除ロジックにより、ツール呼び出しが XML を漏らすのも防止します
テスト済み
unsloth/Qwen3.5-4B-GGUF(UD-Q4_K_XL)、Web 検索 + コード実行 + 思考を有効化。
レスポンス内の XML 漏れ
10/10
0/10
使用された URL フェッチ
0
10 回中 4 回
正しい曲名になった実行回数
0/10
2/10
平均ツール呼び出し回数
5.5
3.8
平均応答時間
12.3秒
9.8秒
新機能
追加 カスタムフォルダ これにより、任意のフォルダ内の任意の GGUF を使えるようになりました。- 現時点では、チャットの詳細設定とカスタムフォルダでアクセスできます
更新ボタン が表示されるようになりました
インストールスクリプトのスタイルをすべて更新しました!
予備対応 推論と学習のための自動マルチ GPU サポート - 1 枚の GPU に収まらない大きなモデルに便利です - Studio が自動で GPU リソースを割り当てます
Intel Mac はそのままで動作するはずです
はるかにスムーズで高速な Studio
大きなモデルのダウンロード時のタイムアウトを修正しました - タイムアウトはもう発生しません。
Hugging Face のレート制限を修正 - HF API 呼び出しを 90% 削減
Windows での bun 修正と、より高速なインストール
新しい重要な更新
前回のリリースからまだ 2 日しか経っていませんが、より重要な更新があります:
推論が 20〜30% 高速になりました。 以前は、ツール呼び出しと repeat penalty により、推論速度が通常より遅くなることがありました。推論 tokens/s は現在、
llama-server/llama.cpp.古いモデルや既存のモデルを自動検出するようになりました からダウンロードされた LM Studio、Hugging Face、 および同様のソース。
推論 tokens/s の速度が正しく計算されるようになりました。 以前は tokens/s に起動時間が含まれていたため、表示速度が実際より遅く見えていました。現在は「実際の」推論速度を反映するはずです。
CPU 使用率が急上昇しなくなりました。 以前は、インラインクエリの識別子が再描画のたびに変わり、
useLiveQueryが継続的に再購読していました。Unsloth Studio に終了用の x ボタンが追加され、正しく終了するようになりました。 以前は、デスクトップアイコンから開いた後に閉じても正しく終了しませんでした。今では、ショートカットから起動するとターミナルも開き、そのターミナルを閉じると Unsloth Studio が完全に終了します。以前のセッションからまだ開いている場合は、コンピュータを再起動するか、
lsof -i :8888を実行し、その後kill -9 <PID>.さらに改善されたツール呼び出しと Web 検索 エラーを減らしました。
の情報を多数追加した更新済みドキュメント モデルの削除、アンインストール など。
Windows と Linux 全体で、よりクリーンでより賢いインストールとセットアップのログ出力。 出力は一貫したフォーマットで読みやすくなり、デフォルトでは静かでより滑らかな体験になり、より豊富な
--verbose診断を、完全な技術詳細が必要なときに利用できます。学習履歴を表示できるようになりました!
Unsloth Studio 後の最初のリリース
みなさん、これは Unsloth Studio を公開して以来、最初のリリースです。新機能と修正がたくさんあります:
Unsloth Studio を更新できるようになりました! 以下から更新してください:
unsloth studio updateWindows CPU または GPU がシームレスに動作するようになりました。再インストールしてください!
アプリのショートカット。インストール後は、Windows、MacOS、Linux で、Start / Launch とデスクトップのショートカットアイコンから起動できるようになりました。
事前コンパイル済み
llama.cppバイナリ とmamba_ssm- インストールが 6 倍高速に!バイナリのサイズも 300MB 未満です。インストールサイズを 50% 削減 (7GB 以上の節約)、インストールは 2 倍高速になり、解決も高速化。pypi サイズも 50% 小さくなりました。
ツール呼び出しが改善されました。 llama.cpp の解析が改善され、チャット内に生のツールマークアップが表示されず、推論が高速化し、新しい Tool Outputs パネルとタイマーが追加されました。
MacOS と CPU で データレシピ が複数ファイルのアップロード付きで有効になりました。
Linux 向け AMD サポートは予備対応 のみのマシン - 自動検出します。
設定サイドバーの再設計。 設定が以下にグループ化されました モデル、サンプリング、ツール、設定
コンテキスト長 を調整できるようになりました。これは必要ありません。llama.cpp は
--fit on複数ファイルのアップロード。 データレシピでは、PDF、DOCX、TXT、MD の複数ドラッグ&ドロップアップロード、バックエンド抽出、保存済みアップロード、改善されたプレビューをサポートするようになりました。
Colab 無料の T4 GPU と Unsloth Studio が現在修正されました! ここで試す。事前コンパイル済みバイナリのおかげで、20 倍高速でもあります!
チャットの可観測性が向上しました。 Studio には現在、
llama-serverタイミングと使用量、コンテキストウィンドウ使用量バー、より豊富なソースのホバーカードが表示されます。全体的に UX が向上 - クリック可能なリンク、より良い LaTeX 解析、デフォルトカード向けのツール / コード / Web のツールチップなど、盛りだくさん!
LiteLLM - Unsloth Studio と Unsloth は 影響を受けていません 最近の LiteLLM 侵害の影響は受けていません。Nemo Data Designer は LiteLLM を
1.80までのみ使用し、影響を受けた1.82.7または1.82.8ではなく、その後完全に削除しました。今では新しい 1 行のインストールコマンドがあります。以下を実行するだけです:
修正点:
Windows/セットアップの改善。 Windows の無音終了、Anaconda/conda-forge の起動クラッシュ、壊れた非 NVIDIA Windows インストール、欠落していた初期 CUDA/古い venv セットアップチェックを修正しました。
システムプロンプトを修正しました。 非 GGUF のテキストおよび視覚推論で再び動作します。
永続的なシステムプロンプトとプリセット。 カスタムシステムプロンプトとチャットプリセットが、再読み込みやページ変更をまたいで保持されるようになりました。
GGUF エクスポートを拡張。 LoRA/PEFT だけでなく、完全なファインチューニングも GGUF にエクスポートできるようになりました。ベースモデルの解決はより信頼性が高くなり、非対応のエクスポートオプションは UI で無効化されています。
チャットのスクロール/レイアウト修正。 生成中のスクロール位置の問題、思考パネルのレイアウトずれ、推論パネルを折りたたんだときのビューポートのジャンプを修正しました。
よりスマートなポート競合検出。 Studio は現在ループバック競合を検出し、可能な場合はブロックしているプロセスを特定でき、より明確なフォールバックポートメッセージを表示します。
最終更新
役に立ちましたか?

