👀 خبر در یک نگاه:
HuggingFace با معرفی یکپارچهسازی تازه، امکان اتصال Inference Providerها به GitHub Copilot Chat در VS Code را فراهم کرده است. توسعهدهندگان اکنون میتوانند به مجموعه گستردهای از مدلهای متنباز دسترسی فوری داشته باشند، بدون وابستگی به یک ارائهدهنده خاص و تنها از طریق یک API یکنواخت، ساده و آماده برای محیط تولید. |
HuggingFace یک اینتگریشن جدید معرفی کرده که به توسعهدهندهها اجازه میدهد «Inference Provider»ها را مستقیما به GitHub Copilot Chat در Visual Studio Code متصل کنند. این بهروزرسانی باعث میشود مدلهای زبانی متنباز، حالا بدون نیاز به جابهجایی بین ابزارهای مختلف، از داخل ادیتور VS Code قابل دسترسی و تست باشند؛ مدلهایی مثل Kimi K2، DeepSeek V3.1، GLM 4.5 و دیگر مدلها.
نحوه کار
فرایند کار ساده طراحی شده:
- توسعهدهندهها افزونه HuggingFace Copilot Chat را نصب میکنند
- رابط چت VS Code را باز میکنند
- Hugging Face را بهعنوان Provider انتخاب کرده
- توکن خود را وارد میکنند
- و مدلهای موردنظرشان را اضافه میکنند.
💡 توسعه دهندگان بعد از اتصال، میتوانند بهراحتی بین Providerها و مدلها از طریق رابط آشنای انتخاب مدل جابهجا شوند.
پیشنیازها
➕ یک نکته عملی هم در بحثهای جامعه کاربری مطرح شد: این قابلیت نیازمند نسخه بهروز ویرایشگر است.
همونطور که پژوهشگر هوش مصنوعی، Aditya Wresniyandaka در لینکدین اشاره کرده:
«در مستندات ذکر نشده، اما برای استفاده باید VS Code نسخه آگوست ۲۰۲۵ یعنی 1.104.0 رو داشته باشید.»
نتیجه این آپدیت چه بود؟
چت گیتهاب کوپایلت تا امروز به مجموعهای محدود از مدلهای اختصاصی تکیه داشت. حالا با اتصال به شبکه Inference Providerهای HuggingFace، توسعهدهندهها به مجموعه بسیار گستردهتری از ابزارهای هوش مصنوعی دسترسی پیدا میکنند؛ از مدلهای آزمایشی گرفته تا مدلهای تخصصی برای حوزههای خاص.
محمد ارشد اقبال، فاندر 360XpertSolutions، از این حرکت استقبال کرده و نوشته:
«این فوقالعادهست! حالا میتونیم همه اون مدلهای متنباز قدرتمند کدنویسی رو مستقیم داخل VS Code استفاده کنیم. دیگه نیازی نیست برای تست یه مدلی مثل Qwen3-Coder بین تبها جابهجا بشیم.»
💡 این یکپارچهسازی به توسعهدهندگان امکان میدهد کوپایلت چت را با مدلهایی بهکار بگیرند که برای وظایف خاص برنامهنویسی، صنایع مختلف یا حوزههای پژوهشی بهینهسازی شدهاند، نه صرفا مدلهای پیشفرض. این بهروزرسانی بر پایه HuggingFace Inference Providers ارائه شده است؛ سرویسی که از طریق یک API واحد، دسترسی به صدها مدل یادگیری ماشین را فراهم میکند. |
مزایای ادغام
مزیت اصلی این یکپارچهسازی، یکپارچگی است: به جای مدیریت چندین API با سطح اطمینان متفاوت، توسعهدهندهها میتوانند از طریق یک رابط یکنواخت، مدلها را از ارائهدهندههای مختلف فراخوانی کنند.
HuggingFace موارد زیر را بهعنوان مزایای کلیدی معرفی میکند:
- دسترسی فوری به جدیدترین مدلها، فراتر از آنچه یک فهرست محدود از یک ارائهدهنده میتواند عرضه کند.
- بدون وابستگی به یک ارائهدهنده خاص، چون توسعهدهندگان میتوانند با کمترین تغییر در کد بین ارائهدهندگان مختلف جابهجا شوند.
- آماده برای پروداکشن در محیط تولید، با دسترسپذیری بالا و پردازش کمتاخیر.
- یکپارچهسازی کاربرپسند، شامل سازگاری مستقیم با OpenAI chat completions API و SDKهای Python و JavaScript.
- یکپارچهسازی سازگار با نیازهای توسعهدهندگان: شامل سازگاری مستقیم با API تکمیل گفتوگوی OpenAI و همچنین ارائه SDKهای کلاینت برای پایتون و جاوااسکریپت.
سخن نهایی
HuggingFace این یکپارچهسازی را برای دسترسی آسان ساختاردهی کرده است. یک نسخه رایگان با اعتبارات ماهانه برای آزمایش در دسترس است و برنامههای Pro، Team و Enterprise ظرفیت بیشتر و قیمتگذاری پرداخت به ازای مصرف را ارائه میدهند. طبق اعلام هاگینگفیس، توسعهدهندهها دقیقا همان هزینهای را پرداخت میکنند که ارائهدهندهها دریافت میکنند و هیچ حاشیه سود اضافهای وجود ندارد.
منبع: infoq.com
دیدگاهتان را بنویسید