معرفی سربراس سیستم از مدل های هوش مصنوعی منبع باز مشابه ChatGPT
استارتآپ محاسباتی مبتنی بر هوش مصنوعی (AI) در سیلیکون ولی، Cerebras Systems، از انتشار هفت مدل هوش مصنوعی منبع باز ChatGPT-مانند خبر داد. هدف این حرکت تشویق همکاری و نوآوری در جوامع تحقیقاتی و تجاری است. این مدلها که همگی بر روی ابررایانه هوش مصنوعی آندرومدا سربراس آموزش داده شدهاند، از مدلهای زبانی کوچکتر با 111 میلیون پارامتر تا مدل عظیم 13 میلیارد پارامتری را شامل میشوند.
اندرو فلدمن، بنیانگذار و مدیر عامل سربراس، بر اهمیت منبع باز در جامعه هوش مصنوعی تاکید کرد و بیشتر پیشرفت آن را به محیط مشارکتی نسبت داد. وی اذعان کرد که در حالی که اخیراً روند بسته شدن پروژه های AI منبع باز به دلیل پتانسیل تجاری آنها وجود داشته است، حفظ باز بودن برای ادامه نوآوری بسیار مهم است.
طیف مدل های Cerebras امکان استقرار در دستگاه های مختلف را فراهم می کند. مدلهای کوچکتر را میتوان روی تلفنهای هوشمند یا بلندگوهای هوشمند اجرا کرد، در حالی که مدلهای بزرگتر به رایانه یا سرور نیاز دارند. این انعطاف پذیری نیازها و کاربردهای مختلف را برآورده می کند، اما برای کارهای پیچیده تر، مانند خلاصه سازی بزرگ، مدل های بزرگتر لازم است.
اگرچه مدل های بزرگتر معمولاً عملکردهای مولد پیشرفته تری را ارائه می دهند، کارل فروند، مشاور تراشه در هوش مصنوعی کامبرین، اشاره می کند که اندازه همه چیز نیست. او به تحقیقات اخیر اشاره کرده که نشان میدهد مدلهای کوچکتر در صورت آموزش مؤثرتر میتوانند به همان اندازه دقیق باشند، که نشاندهنده تعادل بین اندازه و کیفیت آموزش است.
فلدمن فاش کرد که بزرگترین مدل آنها بیش از یک هفته طول کشید تا آموزش ببینند، فرآیندی که معمولاً ماهها طول میکشد. این شتاب را می توان به معماری منحصر به فرد سیستم سربراس نسبت داد که دارای تراشه ای به اندازه یک بشقاب شام است که به طور خاص برای آموزش هوش مصنوعی طراحی شده است.
در حال حاضر، بیشتر مدلهای هوش مصنوعی بر روی تراشههای Nvidia Corp آموزش میبینند، اما تعداد فزایندهای از استارتآپها مانند Cerebras برای ادعای سهم خود وارد بازار میشوند. فلدمن تأیید کرد که مدلهای آموزشدیده بر روی ماشینهای Cerebras را میتوان در سیستمهای Nvidia برای آموزش بیشتر یا سفارشیسازی مورد استفاده قرار داد که به کاربران انعطافپذیری و سازگاری را ارائه میدهد.