OpenAI روی ابزارهای جدید تشخیص تصویر هوش مصنوعی کار می کند
OpenAI ابزار جدیدی برای تشخیص اینکه آیا یک تصویر با مولد تصویر DALL-E AI خود ساخته شده یا خیر، و همچنین روشهای جدید واترمارکینگ برای مشخص کردن واضحتر محتوای تولید شده اضافه کرده است. OpenAI در یک پست وبلاگی اعلام کرد که شروع به توسعه روشهای جدیدی برای ردیابی محتوا و اثبات اینکه آیا این محتوا توسط هوش مصنوعی تولید شده یا خیر، کرده است.
اینها شامل یک طبقهبندی تشخیص تصویر جدید است که از هوش مصنوعی برای تعیین اینکه آیا عکس با هوش مصنوعی تولید شده یا خیر، و همچنین یک واترمارک مقاوم در برابر دستکاری که میتواند محتوایی مانند صدا را با سیگنالهای نامرئی برچسبگذاری کند، استفاده میکند. کلاسیفایر احتمال ایجاد یک تصویر توسط DALL-E 3 را پیش بینی می کند. OpenAI ادعا می کند که کلاسیفایر حتی در صورت برش یا فشرده شدن تصویر یا تغییر اشباع، کار می کند.
در حالی که این ابزار می تواند تشخیص دهد که آیا تصاویر با DALL-E 3 با دقت 98 درصد ساخته شده اند یا خیر، عملکرد آن در تشخیص اینکه آیا محتوا از سایر مدلهای هوش مصنوعی است یا خیر، خوب نیست و تنها 5 تا 10 درصد از تصاویر را از تولیدکنندههای تصویر دیگر مانند Midjourney نشان میدهد.
OpenAI قبلاً اعتبار محتوا را به متادیتاهای تصویر از Coalition of Content Provenance and Authority (C2PA) اضافه کرده بود. اعتبار محتوا اساساً واترمارکی است که شامل اطلاعاتی در مورد مالکیت تصویر و نحوه ایجاد آن است. OpenAI، همراه با شرکت هایی مانند مایکروسافت و ادوبی، یکی از اعضای C2PA است. در این ماه، OpenAI نیز به کمیته راهبری C2PA پیوست.
این شرکت هوش مصنوعی همچنین شروع به افزودن واترمارک به کلیپها از Voice Engine، پلتفرم تبدیل متن به گفتار خود، کرد. هم کلاسیفایر تصویر و هم سیگنال واترمارک صوتی هنوز در حال اصلاح هستند. OpenAI می گوید برای آزمایش اثربخشی خود باید از کاربران بازخورد دریافت کند. محققان و گروه های روزنامه نگاری غیرانتفاعی می توانند طبقه بندی تشخیص تصویر را با اعمال آن در پلتفرم دسترسی تحقیقاتی OpenAI آزمایش کنند.