چند شرکت بزرگ فناوری، یک گروه ایمنی هوش مصنوعی تشکیل می دهند
بر کسی پوشیده نیست که توسعه هوش مصنوعی خطرات امنیتی زیادی را به همراه دارد. در حالی که نهادهای حاکم در حال تلاش برای وضع مقررات هستند، در حال حاضر، بیشتر به خود شرکت ها بستگی دارد که اقدامات احتیاطی را انجام دهند.
جدیدترین نمایش خود نظارتی با ایجاد مشترک Anthropic، گوگل، مایکروسافت و Open AI از Frontier Model Forum ارائه میشود، سازمانی تحت رهبری صنعت که بر توسعه ایمن و دقیق هوش مصنوعی متمرکز است. مدلهای مرزی را هر “مدلهای یادگیری ماشینی در مقیاس بزرگ” میداند که فراتر از قابلیتهای فعلی است و طیف وسیعی از تواناییها را دارد.
انجمن در نظر دارد یک کمیته مشورتی، منشور و بودجه ایجاد کند. این سازمان برای ستونهای اصلی خود در نظر دارد بر پیشبرد تحقیقات ایمنی هوش مصنوعی، تعیین بهترین شیوهها، همکاری نزدیک با سیاستگذاران، دانشگاهیان، جامعه مدنی و شرکتها، و تشویق تلاشها برای ایجاد هوش مصنوعی که “میتواند به مقابله با بزرگترین چالشهای جامعه کمک کند” تمرکز کند.
طبق گزارش ها، اعضا در سال آینده روی سه هدف اول کار خواهند کرد. در این اطلاعیه در مورد عضویت، شرایط لازم برای عضویت، مانند تولید مدلهای مرزی و نشان دادن تعهد آشکار برای ایمنسازی آنها، مشخص شده است. Anna Makanju، معاون امور جهانی OpenAI در بیانیه ای گفت:
بسیار مهم است که شرکتهای هوش مصنوعی – بهویژه آنهایی که بر روی قویترین مدلها کار میکنند – روی زمینهای مشترک همسو شوند و شیوههای ایمنی متفکرانه و قابل انطباق را پیش ببرند تا اطمینان حاصل شود که ابزارهای قدرتمند هوش مصنوعی از وسیعترین مزیت ممکن برخوردار هستند. این یک کار فوری است و این انجمن در موقعیت خوبی قرار دارد تا به سرعت برای ارتقای وضعیت ایمنی هوش مصنوعی اقدام کند.
ایجاد تالار پس از توافق نامه ایمنی اخیر بین کاخ سفید و شرکت های برتر هوش مصنوعی، از جمله کسانی که مسئول این سرمایه گذاری جدید هستند، صورت می گیرد. اقدامات ایمنی متعهد به انجام آزمایشهایی برای رفتار بد توسط کارشناسان خارجی و قرار دادن واترمارک روی محتوای ایجاد شده توسط هوش مصنوعی بود.