تکنیک جدید MIT PhotoGuard برای محافظت از تصاویر شما در برابر ویرایش های مخرب هوش مصنوعی
از آنجایی که سیستمهای هوش مصنوعی مولد در حال گسترش هستند و شرکتها تلاش میکنند تا پیشنهادات خود را از رقبای خود متمایز کنند، چت رباتها در سراسر اینترنت قدرت ویرایش تصاویر – و همچنین ایجاد آنها – را به دست میآورند و امثال Shutterstock و Adobe پیشرو هستند.
اما با این قابلیتهای جدید تقویتشده با هوش مصنوعی، دامهایی مانند دستکاری غیرمجاز، یا سرقت آشکار آثار هنری و تصاویر آنلاین موجود، وجود دارد. تکنیکهای واترمارک میتواند به کاهش دومی کمک کند، در حالی که تکنیک جدید “PhotoGuard” که توسط MIT CSAIL توسعه یافته میتواند به جلوگیری از اولی کمک کند.
PhotoGuard با تغییر پیکسلهای منتخب در یک تصویر کار میکند تا توانایی هوش مصنوعی برای درک چیستی تصویر را مختل کند. آن “آشفتگیها”، همانطور که تیم تحقیقاتی به آنها اشاره میکند، برای چشم انسان نامرئی هستند، اما به راحتی توسط ماشینها قابل خواندن هستند. روش حمله “رمزگذار” برای معرفی این مصنوعات، نمایش نهفته مدل الگوریتمی از تصویر هدف را هدف قرار میدهد – ریاضیات پیچیدهای که موقعیت و رنگ هر پیکسل را در یک تصویر توصیف میکند – اساساً هوش مصنوعی را از درک آنچه که به آن نگاه میکند جلوگیری میکند.
روش حمله “Diffusion” پیشرفتهتر و فشردهتر محاسباتی، تصویر را به عنوان تصویری متفاوت در چشم هوش مصنوعی استتار میکند. یک تصویر هدف را تعریف می کند و اغتشاشات در تصویر خود را به گونه ای بهینه می کند که شبیه به هدف خود باشد. هر ویرایشی که یک هوش مصنوعی سعی میکند روی این تصاویر “ایمنسازیشده” انجام دهد، روی تصاویر “هدف” جعلی اعمال میشود که منجر به ایجاد تصویری غیرواقعی میشود.
هادی سلمان، دانشجوی دکترای MIT و نویسنده اصلی مقاله، در گفتگو با انگجت بیان کرد: “حمله رمزگذار باعث میشود مدل فکر کند که تصویر ورودی (برای ویرایش) تصویر دیگری است (مثلاً یک تصویر خاکستری). در حالی که حمله Diffusion، مدل انتشار را مجبور می کند تا برخی از تصاویر هدف را (که می تواند تصویر خاکستری یا تصادفی نیز باشد) ویرایش کند.” این تکنیک بیخطا نیست، بازیگران مخرب میتوانند با افزودن نویز دیجیتال، برش یا ورق زدن تصویر، تصویر محافظتشده را مهندسی معکوس کنند.
یک رویکرد مشترک شامل توسعه دهندگان مدل، پلتفرم های رسانه های اجتماعی و سیاست گذاران، دفاعی قوی در برابر دستکاری تصویر غیرمجاز ارائه می دهد. سلمان در بیانیه ای گفت که امروز کار روی این موضوع مبرم از اهمیت بالایی برخوردار است. در حالیکه خوشحالم که در این راه حل مشارکت می کنم، برای عملی کردن این محافظت به کار زیادی نیاز است. شرکت هایی که این مدل ها را توسعه می دهند باید در مهندسی ایمن سازی قوی در برابر تهدیدات احتمالی ناشی از این ابزارهای هوش مصنوعی سرمایه گذاری کنند.