خانه / اخبار تکنولوژی / Unsloth آموزش‌هایی با هدف ساده کردن مقایسه LLMها طراحی کرد

Unsloth آموزش‌هایی با هدف ساده کردن مقایسه LLMها طراحی کرد

Unsloth آموزش‌هایی با هدف ساده کردن مقایسه LLMها طراحی کرد

نویسنده:

انتشار:

به‌روزرسانی:

تعداد نظرات: 0

زمان مطالعه: 2 دقیقه
👀 خبر در یک نگاه:

Unsloth، استارتاپ سان‌فرانسیسکو، مدل‌های باز بهینه و کوانتیزه‌شده را در Hugging Face Hub ارائه می‌دهد. این مدل‌ها برای تولید کد و پشتیبانی ابزارهای عامل‌محور آموزش دیده‌اند. سیستم آن‌ها اجرای مدل، آموزش، ارزیابی و یکپارچه‌سازی با موتورهای Inference را ساده می‌کند و هزینه Inference را کاهش می‌دهد.

Unsloth آموزش‌های جامعی برای همه مدل‌های باز که پشتیبانی می‌کنند، منتشر کرد. این آموزش‌ها می‌توانند برای مقایسه نقاط قوت و ضعف مدل‌ها و همچنین ارزیابی عملکرد آن‌ها استفاده شوند.

آموزش‌ها شامل بسیاری از خانواده‌های مدل باز پرکاربرد مانند Qwen، Kimi، DeepSeek، Mistral، Phi، Gemma و Llama هستند. این آموزش‌ها برای معماران داده، مهندسان یادگیری ماشین و توسعه‌دهندگانی که به دنبال راهنمایی در انتخاب مدل هستند، مفیدند و شامل دستورالعمل‌هایی برای بهینه‌سازی، کوانتیزیشن و یادگیری تقویتی نیز می‌شوند.

برای هر مدل، آموزش شامل توضیحی درباره مدل و کاربردهایی است که به خوبی پشتیبانی می‌کند. برای مثال:

«Qwen3-Coder-480B-A35B پیشرفت‌های برتر (SOTA) در برنامه‌نویسی عامل‌محور و وظایف کدنویسی ارائه می‌دهد و با Claude Sonnet-4، GPT-4.1 و Kimi K2 رقابت می‌کند یا از آن‌ها پیشی می‌گیرد. مدل 480B در آزمون Aider Polygot نمره ۶۱.۸٪ کسب می‌کند و از زمینه متنی ۲۵۶هزار توکن پشتیبانی می‌کند که قابل گسترش تا ۱ میلیون توکن است.»

سپس آموزش‌ها دستورالعمل‌هایی برای اجرای مدل در llama.cpp، Ollama و OpenWebUI ارائه می‌دهند که شامل پارامترهای پیشنهادی و سیستم پرامپت‌هاست. این آموزش‌ها همچنین راهنمایی‌ها و منابعی برای بهینه‌سازی مدل برای کاربران Unsloth فراهم می‌کنند.

برای Gemma 3n و Ollama دستورالعمل‌ها به این صورت است:

۱- ابتدا اگر Ollama را نصب نکرده‌اید، نصب کنید:

۲- مدل را اجرا کنید: توجه داشته باشید که در صورت خطا، می‌توانید ollama serve را در ترمینال دیگری اجرا کنید. همه اصلاحات و پارامترهای پیشنهادی Unsloth (مانند Temperature و غیره) در بخش params در آپلود Hugging Face موجود است.

دستورالعمل‌های بهینه‌سازی (Fine-Tuning) مخصوص پلتفرم Unsloth هستند و نکات عملی برای رفع مشکلات احتمالی پیاده‌سازی مدل‌ها ارائه می‌دهند. 

سازندگان فریمورک‌های Open-Source برای Fine-Tuning، مانند Unsloth و Axolotl، امیدوارند زمان لازم برای ایجاد مدل‌های خاص برای تیم‌ها کاهش یابد.

کاربران فریمورک‌ها و اکوسیستم‌های مدل جایگزین، مانند AWS، همچنان می‌توانند از این آموزش‌ها برای دستورالعمل‌های اجرای مدل‌ها و جمع‌بندی قابلیت‌های آن‌ها استفاده کنند.

Unsloth، یک استارتاپ در سان‌فرانسیسکو است که در سال ۲۰۲۳ تاسیس شد، چندین مدل باز بهینه‌شده و کوانتیزه‌شده را در Hugging Face Hub ارائه می‌دهد. این مدل‌ها برای اهداف خاصی مانند تولید کد یا پشتیبانی از ابزارهای عامل‌محور آموزش داده شده‌اند. کوانتیزیشن به این معنی است که اجرای آن‌ها در حالت Inference ارزان‌تر است. مستندات Unsloth توضیح می‌دهد که هدف سیستم، ساده‌سازی آموزش مدل به‌صورت محلی و در پلتفرم‌های ابری است. جریان کاری بهینه‌شده ما همه مراحل از بارگذاری مدل و کوانتیزیشن تا آموزش، ارزیابی، ذخیره‌سازی، صادر کردن و یکپارچه‌سازی با موتورهای Inference را مدیریت می‌کند.

 

منبع: infoq.com

فرصت‌های شغلی

ایجاد محیطی با ارزش های انسانی، توسعه محصولات مالی کارامد برای میلیون ها کاربر و استفاده از فناوری های به روز از مواردی هستند که در آسا به آن ها می بالیم. اگر هم مسیرمان هستید، رزومه تان را برایمان ارسال کنید.

سوالات متداول

دیدگاه‌ها

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *