مایکروسافت از پردازنده های داخلی برای تقویت خدمات هوش مصنوعی خود رونمایی کرد
این غول نرم افزاری در جریان کنفرانس سالانه مایکروسافت Ignite دو تراشه سفارشی برای بار کاری هوش مصنوعی معرفی کرد. Microsoft Azure Maia AI Accelerator که برای وظایف هوش مصنوعی و هوش مصنوعی مولد استفاده شده و Microsoft Azure Cobalt، که یک پردازنده ARM برای بارهای کاری محاسباتی همه منظوره در Microsoft Cloud است.
ایده پشت این پروژه این است که “همه چیز از سیلیکون تا سرویس” را برای پاسخگویی به تقاضای مدرن برای هوش مصنوعی طراحی کند. علاوه بر ایجاد تراشه های داخلی، مایکروسافت اطمینان حاصل کرد که همه چیزهای دیگر برای بارهای کاری هوش مصنوعی مانند نرم افزار، قفسه های سرور و سیستم های خنک کننده بهینه شده است.
مایکروسافت می گوید شتاب دهنده هوش مصنوعی Azur Maia به طور خاص برای استک سخت افزاری آژور طراحی شده و به “حداکثر استفاده مطلق از سخت افزار” دست می یابد. در مورد Azure Cobalt، این یک تراشه ARM کم مصرف برای ارائههای بومی ابری با نسبت عملکرد بهینه بر وات در مراکز داده است. مایکروسافت برای قرار دادن تراشههای جدید در زیرساختهای مرکز داده موجود، رکهای سرور را دوباره طراحی (پردازندههای جدید به بردهای وسیعتری نیاز دارند) و راهحلهای خنککننده مایع را پیادهسازی کرد. این شرکت اوایل سال آینده پردازندههای جدید متمرکز بر هوش مصنوعی خود را در مراکز داده عرضه خواهد کرد که در ابتدا مایکروسافت Copilot و Azure OpenAI Service را تامین میکنند.
علاوه بر راه اندازی سیلیکون اختصاصی برای هوش مصنوعی، مایکروسافت در حال گسترش همکاری با تولیدکنندگان دیگر برای ارائه گزینه های بیشتر به مشتریان است. مایکروسافت پیشنمایش ماشینهای مجازی جدید مجهز به پردازندههای گرافیکی H100 Tensor Core انویدیا را راهاندازی کرد. علاوه بر این، غول نرم افزاری قصد دارد از NVIDIA H200 Tensor Core و AMD MI300X استفاده کند. این اضافهها عملکرد، قابلیت اطمینان و کارایی را برای آموزشهای میان رده و برد بالا و هوش مصنوعی مولد به ارمغان میآورند.