گوناگون

چند شرکت بزرگ فناوری، یک گروه ایمنی هوش مصنوعی تشکیل می دهند

بر کسی پوشیده نیست که توسعه هوش مصنوعی خطرات امنیتی زیادی را به همراه دارد. در حالی که نهادهای حاکم در حال تلاش برای وضع مقررات هستند، در حال حاضر، بیشتر به خود شرکت ها بستگی دارد که اقدامات احتیاطی را انجام دهند.

جدیدترین نمایش خود نظارتی با ایجاد مشترک Anthropic، گوگل، مایکروسافت و Open AI از Frontier Model Forum ارائه می‌شود، سازمانی تحت رهبری صنعت که بر توسعه ایمن و دقیق هوش مصنوعی متمرکز است. مدل‌های مرزی را هر “مدل‌های یادگیری ماشینی در مقیاس بزرگ” می‌داند که فراتر از قابلیت‌های فعلی است و طیف وسیعی از توانایی‌ها را دارد.

انجمن در نظر دارد یک کمیته مشورتی، منشور و بودجه ایجاد کند. این سازمان برای ستون‌های اصلی خود در نظر دارد بر پیشبرد تحقیقات ایمنی هوش مصنوعی، تعیین بهترین شیوه‌ها، همکاری نزدیک با سیاست‌گذاران، دانشگاهیان، جامعه مدنی و شرکت‌ها، و تشویق تلاش‌ها برای ایجاد هوش مصنوعی که “می‌تواند به مقابله با بزرگترین چالش‌های جامعه کمک کند” تمرکز کند.

طبق گزارش ها، اعضا در سال آینده روی سه هدف اول کار خواهند کرد. در این اطلاعیه در مورد عضویت، شرایط لازم برای عضویت، مانند تولید مدل‌های مرزی و نشان دادن تعهد آشکار برای ایمن‌سازی آنها، مشخص شده است. Anna Makanju، معاون امور جهانی OpenAI در بیانیه ای گفت:

بسیار مهم است که شرکت‌های هوش مصنوعی – به‌ویژه آن‌هایی که بر روی قوی‌ترین مدل‌ها کار می‌کنند – روی زمین‌های مشترک همسو شوند و شیوه‌های ایمنی متفکرانه و قابل انطباق را پیش ببرند تا اطمینان حاصل شود که ابزارهای قدرتمند هوش مصنوعی از وسیع‌ترین مزیت ممکن برخوردار هستند. این یک کار فوری است و این انجمن در موقعیت خوبی قرار دارد تا به سرعت برای ارتقای وضعیت ایمنی هوش مصنوعی اقدام کند.

ایجاد تالار پس از توافق نامه ایمنی اخیر بین کاخ سفید و شرکت های برتر هوش مصنوعی، از جمله کسانی که مسئول این سرمایه گذاری جدید هستند، صورت می گیرد. اقدامات ایمنی متعهد به انجام آزمایش‌هایی برای رفتار بد توسط کارشناسان خارجی و قرار دادن واترمارک روی محتوای ایجاد شده توسط هوش مصنوعی بود.

منبع
engadget
نمایش بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا