خانه / اخبار تکنولوژی / کلاد ران گوگل با GPUهای سرورلس برای AI و پردازش دسته‌ای عرضه شد

کلاد ران گوگل با GPUهای سرورلس برای AI و پردازش دسته‌ای عرضه شد

کلاد ران گوگل با GPUهای سرورلس برای AI و پردازش دسته‌ای عرضه شد

نویسنده:

انتشار:

به‌روزرسانی:

تعداد نظرات: 0

👀 خبر در یک نگاه:

گوگل کلاد پشتیبانی از GPUهای NVIDIA را برای Cloud Run معرفی کرد. این قابلیت با صورت‌حساب ثانیه‌ای، مقیاس‌پذیری و راه‌اندازی سریع، برای کاربردهای هوش مصنوعی و پردازش دسته‌ای مناسب است. GPUها در پنج منطقه در دسترس‌اند و با مستندات رسمی پشتیبانی می‌شوند، اما نگرانی‌هایی درباره نبود سقف هزینه وجود دارد.

گوگل کلاد (Google Cloud) اعلام کرد که پشتیبانی از GPUهای NVIDIA برای Cloud Run در محیط سرورلس این شرکت، به‌صورت عمومی در دسترس قرار گرفته است. گوگل کلاد می‌خواهد محیطی قدرتمند و مقرون‌به‌صرفه برای کاربردهای شتاب‌یافته با GPU ایجاد کند. این محیط به‌ویژه برای استنتاج هوش مصنوعی و پردازش دسته‌ای (Batch Processing) مناسب است.

Cloud Run با GPU: مزایای تجربه سرورلس

💡 گوگل در وبلاگ خود اعلام کرد که Cloud Run با پشتیبانی GPU، سادگی، مقیاس‌پذیری به صفر، صورت‌حساب ثانیه‌ای، راه‌اندازی سریع (زیر ۵ ثانیه) و استریمینگ HTTP/WebSocket، برای توسعه‌دهندگان بهینه‌تر شده است.

در پستی در وبلاگ شرکت، گوگل تاکید کرده که توسعه‌دهندگان به دلیل سادگی، انعطاف‌پذیری و مقیاس‌پذیری، Cloud Run را ترجیح می‌دهند. با افزودن پشتیبانی از GPU، این مزایای اصلی حالا به منابع GPU نیز گسترش یافته است:

  • صورت‌حساب بر اساس ثانیه: کاربران اکنون تنها برای منابع GPU مصرف‌شده، تا سطح ثانیه، هزینه پرداخت می‌کنند و این امر هدررفت را به حداقل می‌رساند.
  • مقیاس‌پذیری به صفر: Cloud Run به‌طور خودکار واحدهای GPU را در زمان عدم فعالیت به صفر کاهش می‌دهد و هزینه‌های منابع غیرفعال را حذف می‌کند؛ این ویژگی به‌ویژه برای بارهای کاری متناوب یا غیرقابل‌پیش‌بینی مفید است.
  • راه‌اندازی و مقیاس‌پذیری سریع: واحدهای دارای GPU و درایورها می‌توانند در کمتر از ۵ ثانیه راه‌اندازی شوند و به برنامه‌ها امکان پاسخگویی سریع به درخواست‌ها را می‌دهند.
  • پشتیبانی کامل از استریمینگ: پشتیبانی داخلی از استریمینگ HTTP و WebSocket امکان توسعه برنامه‌های تعاملی، مانند پاسخ‌های بلادرنگ مدل‌های زبانی بزرگ (LLM)، را فراهم می‌کند.

 

دیو سالواتور (Dave Salvator)، مدیر محصولات محاسبات شتاب‌یافته در NVIDIA، گفت:

«شتاب‌دهی GPU سرورلس گامی بزرگ در جهت دسترسی‌پذیرتر کردن محاسبات پیشرفته هوش مصنوعی است. با دسترسی آسان به GPUهای NVIDIA L4، توسعه‌دهندگان اکنون می‌توانند برنامه‌های هوش مصنوعی را سریع‌تر و مقرون‌به‌صرفه‌تر از همیشه به مرحله تولید برسانند.»

پشتیبانی از GPUهای NVIDIA در Cloud Run

💡 Cloud Run حالا GPUهای NVIDIA L4 را بدون نیاز به سهمیه ارائه می‌دهد. فعال‌سازی ساده، مقیاس‌پذیری، پایداری با افزونگی منطقه‌ای و مزیت رقابتی در مقایسه با AWS، توسعه‌دهندگان را هیجان‌زده کرده است.

پشتیبانی GPUهای NVIDIA L4 در Cloud Run حالا برای همه بدون نیاز به درخواست سهمیه در دسترس است و مانع بزرگی برای ورود توسعه‌دهندگان به این سرویس برداشته شده است. توسعه‌دهندگان می‌توانند پشتیبانی از GPU را از طریق یک فلگ ساده خط فرمان (–gpu 1) یا با انتخاب یک گزینه در کنسول گوگل کلاد فعال کنند.

Cloud Run با پشتیبانی از GPU برای تولید آماده است و تحت توافق‌نامه سطح خدمات Cloud Run برای قابلیت اطمینان و آپتایم پشتیبانی می‌شود. این سرویس به‌صورت پیش‌فرض، مناطق غیرمتمرکز تکرارپذیر را برای مقاومت در برابر خرابی ارائه می‌دهد، با گزینه‌ای برای کاهش قیمت در صورت اختلال منطقه‌ای برای بازیابی با تلاش بهینه در صورت قطعی منطقه‌ای.

مقایسه Cloud Run با رقبا

پشتیبانی GPU در Cloud Run به‌صورت عمومی عرضه شده و بحث‌هایی را در جامعه توسعه‌دهندگان درباره مزیت‌های رقابتی آن در مقایسه با سایر ارائه‌دهندگان بزرگ ابری ایجاد کرده است. روبن دل کامپو (Rubén del Campo)، مهندس نرم‌افزار ارشد در ZenRows، این اقدام گوگل را حرکتی توصیف کرد که «AWS باید سال‌ها پیش انجام می‌داد: محاسبات GPU سرورلسی که واقعا کار می‌کند.»

او به نقاط ضعف AWS Lambda اشاره کرد: محدودیت ۱۵ دقیقه‌ای و محاسبات فقط CPU، که برای کارهای مدرن AI مثل استنتاج Stable Diffusion، تنظیم مدل‌ها یا تحلیل ویدئویی در لحظه (Real-time) مشکل‌سازند.

او اضافه کرد:

«اگر شما سعی کنید استنتاج Stable Diffusion، تنظیم دقیق یک مدل یا پردازش ویدئو با هوش مصنوعی را در Lambda اجرا کنید، نمی‌توانید.»

روبن تاکید کرد که GPUهای Cloud Run این وظایف را «با GPUهای سرورلس که به صفر مقیاس می‌شوند، ساده می‌کنند.»

نگرانی‌های هزینه و مقایسه با رقبا در استفاده از GPUهای Cloud Run

💡 Cloud Run با وجود امکانات GPU جذاب، به‌دلیل نبود سقف هزینه دلاری نگرانی‌هایی درباره‌ هزینه‌های ناگهانی ایجاد کرده؛ رقبا مثل Runpod قیمت‌گذاری رقابتی‌تری ارائه می‌دهند.

GPUهای Cloud Run قابلیت‌های جذابی دارند. اما برخی کاربران در Hacker News نگران نبود محدودیت‌های سخت‌گیرانه صورت‌حساب هستند که ممکن است به هزینه‌های غیرمنتظره منجر بشه. اگرچه Cloud Run امکان تنظیم حداکثر تعداد واحدها را فراهم می‌کند، اما سقفی برای هزینه دلاری ندارد.

همچنین، مقایسه‌ها در همان بحث Hacker News نشان می‌دهد که ارائه‌دهندگانی مانند Runpod.io ممکن است قیمت‌گذاری رقابتی‌تری برای نمونه‌های GPU مشابه داشته باشند. برای مثال، برخی کاربران اشاره کرده‌اند که نرخ‌های ساعتی Runpod برای GPUهای L4، A100 و H100 می‌تواند به‌طور قابل‌توجهی کمتر از گوگل باشد، حتی با در نظر گرفتن صورت‌حساب ثانیه‌ای گوگل.

گوگل علاوه بر استنتاج در لحظه، اعلام کرده که GPUها برای کارهای Cloud Run (در حال حاضر در پیش‌نمایش خصوصی) نیز در دسترس هستند. این GPUها کاربردهای جدیدی برای پردازش دسته‌ای و وظایف ناهمزمان فراهم می‌کنند. این ویژگی‌ها در سطح جهانی پشتیبانی می‌شوند و GPUهای Cloud Run در پنج منطقه گوگل کلاد در دسترس هستند: us-central1 (ایالت آیووا، آمریکا)، europe-west1 (بلژیک)، europe-west4 (هلند)، asia-southeast1 (سنگاپور) و asia-south1 (مومبای، هند). مناطق بیشتری نیز در آینده اضافه خواهند شد.

 

منبع: infoq.com

فرصت‌های شغلی

ایجاد محیطی با ارزش های انسانی، توسعه محصولات مالی کارامد برای میلیون ها کاربر و استفاده از فناوری های به روز از مواردی هستند که در آسا به آن ها می بالیم. اگر هم مسیرمان هستید، رزومه تان را برایمان ارسال کنید.

سوالات متداول

دیدگاه‌ها

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *