فناوری

تکنیک جدید MIT PhotoGuard برای محافظت از تصاویر شما در برابر ویرایش های مخرب هوش مصنوعی

از آنجایی که سیستم‌های هوش مصنوعی مولد در حال گسترش هستند و شرکت‌ها تلاش می‌کنند تا پیشنهادات خود را از رقبای خود متمایز کنند، چت ربات‌ها در سراسر اینترنت قدرت ویرایش تصاویر – و همچنین ایجاد آن‌ها – را به دست می‌آورند و امثال Shutterstock و Adobe پیشرو هستند.

اما با این قابلیت‌های جدید تقویت‌شده با هوش مصنوعی، دام‌هایی مانند دستکاری غیرمجاز، یا سرقت آشکار آثار هنری و تصاویر آنلاین موجود، وجود دارد. تکنیک‌های واترمارک می‌تواند به کاهش دومی کمک کند، در حالی که تکنیک جدید “PhotoGuard” که توسط MIT CSAIL توسعه یافته می‌تواند به جلوگیری از اولی کمک کند.

PhotoGuard با تغییر پیکسل‌های منتخب در یک تصویر کار می‌کند تا توانایی هوش مصنوعی برای درک چیستی تصویر را مختل کند. آن “آشفتگی‌ها”، همانطور که تیم تحقیقاتی به آن‌ها اشاره می‌کند، برای چشم انسان نامرئی هستند، اما به راحتی توسط ماشین‌ها قابل خواندن هستند. روش حمله “رمزگذار” برای معرفی این مصنوعات، نمایش نهفته مدل الگوریتمی از تصویر هدف را هدف قرار می‌دهد – ریاضیات پیچیده‌ای که موقعیت و رنگ هر پیکسل را در یک تصویر توصیف می‌کند – اساساً هوش مصنوعی را از درک آنچه که به آن نگاه می‌کند جلوگیری می‌کند.

روش حمله “Diffusion” پیشرفته‌تر و فشرده‌تر محاسباتی، تصویر را به عنوان تصویری متفاوت در چشم هوش مصنوعی استتار می‌کند. یک تصویر هدف را تعریف می کند و اغتشاشات در تصویر خود را به گونه ای بهینه می کند که شبیه به هدف خود باشد. هر ویرایشی که یک هوش مصنوعی سعی می‌کند روی این تصاویر “ایمن‌سازی‌شده” انجام دهد، روی تصاویر “هدف” جعلی اعمال می‌شود که منجر به ایجاد تصویری غیرواقعی می‌شود.

هادی سلمان، دانشجوی دکترای MIT و نویسنده اصلی مقاله، در گفتگو با انگجت بیان کرد: “حمله رمزگذار باعث می‌شود مدل فکر کند که تصویر ورودی (برای ویرایش) تصویر دیگری است (مثلاً یک تصویر خاکستری). در حالی که حمله Diffusion، مدل انتشار را مجبور می کند تا برخی از تصاویر هدف را (که می تواند تصویر خاکستری یا تصادفی نیز باشد) ویرایش کند.” این تکنیک بی‌خطا نیست، بازیگران مخرب می‌توانند با افزودن نویز دیجیتال، برش یا ورق زدن تصویر، تصویر محافظت‌شده را مهندسی معکوس کنند.

یک رویکرد مشترک شامل توسعه دهندگان مدل، پلتفرم های رسانه های اجتماعی و سیاست گذاران، دفاعی قوی در برابر دستکاری تصویر غیرمجاز ارائه می دهد. سلمان در بیانیه ای گفت که امروز کار روی این موضوع مبرم از اهمیت بالایی برخوردار است. در حالیکه خوشحالم که در این راه حل مشارکت می کنم، برای عملی کردن این محافظت به کار زیادی نیاز است. شرکت هایی که این مدل ها را توسعه می دهند باید در مهندسی ایمن سازی قوی در برابر تهدیدات احتمالی ناشی از این ابزارهای هوش مصنوعی سرمایه گذاری کنند.

منبع
engadget
نمایش بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا