با گسترش انتشار محتواهای جعلی و دستکاریشده در رسانهها، ادوبی با الگوریتمی جدید مبتنیبر هوش مصنوعی بهکمک حل این مشکل شتافته است.
به گزارش زومیت، واکنشِ بدون تحقیق و بررسی بیشتر کاربران فضای مجازی به طیف گسترده و روزافزون فیلمها و تصاویر ساختگی و جعلی منتشرشده در اینترنت، برای بسیاری نگرانکننده است. ادوبی (Adobe)، یکی از بزرگترین شرکتهای نرمافزاری آمریکا و جهان و توسعهدهندهی نرمافزار مشهور و محبوب فتوشاپ، از این نگرانی مطلع است و قصد دارد برای رفع یا کاهش آن اقداماتی انجام دهد.
شرکت ادوبی با همکاری دانشمندان دانشگاه برکلی، نتایج پژوهش جدیدی را دربارهی چگونگی شناسایی جعلی و ساختگیبودن تصاویر و فیلمها منتشر کردهاند. آنها با استفاده از فناوری یادگیری ماشین بهطورخودکار موفق شدند چهرهی دستکاریشده را تشخیص دهند.
این تکنیک یکی از جدیدترین فناوریهایی است که شرکت ادوبی با استفاده از منابع بیشتر برای حل این مشکل از آن استفاده کرده است. سال گذشته مهندسان شرکت ادوبی مدلی از هوش مصنوعی ساختند تا بتواند هرگونه رسانهی ویرایششدهای را ازطریق تکنیکهای حدف شیء و Splicing و Cloning شناسایی کنند. Splice روشی برای تولید و ویرایش ویدئو است که بهکمک آن میتوانید فایلهای صوتی و عکسها و فیلمها را باهم ترکیب و آثار جذابی را خلق کنید.
گفته میشود ادوبی هیچ عجلهای برای تجاریسازی آخرین دستاورد جدید خود ندارد؛ اما سخنگوی این شرکت به سایت The Verge گفته است:این، تنها یکی از چندین دستاورد و تلاش شرکت ادوبی برای تشخیص و شناسایی عکس، فایل صوتی، فایل ویدئویی و سند دستکاریشده است.
ادوبی همچنین در وبلاگش نوشته است: درحالیکه به تأثیر فتوشاپ و دیگر ابزارهای خلاقانهی ادوبی افتخار میکنیم که با قابلیتهای چشمگیر ساخته شده و کاربران فراوانی در جایجای دنیا از آن استفاده کردهاند، پیامدهای اخلاقی تکنولوژیهای شرکت را نیز بهرسمیت میشناسیم و برای حل آن تلاش میکنیم. ساخت محتوای جعلی موضوعی بسیار مهم و جدی است که ادوبی به سهم خود تلاش میکند به حل این مشکل کمک کند.
این پژوهش بهطورخاص برای شناسایی ویرایشهای انجامشده با ابزار Liquify فتوشاپ طراحی شده است. این ابزار معمولا برای تنظیم شکل چهره و تغییر شکل صورت بهکار برده میشود. ادوبی ادعا میکند اثرهای این ویژگی میتواند بسیار ظریف و دقیق باشد؛ بهطوریکه در آزمونی بهمنظور تشخیص تغییرات دشوار و نامحسوس چهره از آن استفاده شد.
مهندسان ادوبی برای ساخت این نرمافزار شبکهی عصبی را روی دیتابیسی از هر دو جفت چهره و حالت قبل و بعد از ویرایش آموزش دادند. همانطورکه گفته شد، برای این بررسی تصاویر مذکور با استفاده از ابزار Liquify فتوشاپ دستکاریشده بودند.
نتایج حاصلشده از خروجی این الگوریتم بهطورچشمگیری برای شناسایی نقاط دستکاریشده در تصاویر مؤثر بود. در یکی از مراحل این پژوهش، در آزمایشی از انسان و الگوریتم خواسته شد نمونههایی از چهره ویرایششده را تشخیص دهند. افرادی که برای این آزمایش داوطلب شدند، موفق شدند ۵۳ درصد پاسخ درست به تغییرات دستکاریشده دهند؛ درحالیکه الگوریتم هوش مصنوعی موفق شد تا ۹۹ درصد پاسخ صحیح بدهد.
علاوهبراین، الگوریتم ادوبی میتواند عکسهای ویرایششده با ابزار Liquify را به تصویر اصلی اولیه بازگرداند؛ یعنی چهرهی اولیهی تصویر قبل از ویرایش را بازیابی کند. البته، نتایج این روش ممکن است بهدلیل پیچیدگی ویرایش چندان دقیق نباشد.
ریچارد ژانگ، پژوهشگر ارشد تیم تحقیقاتی ادوبی، در وبلاگ شرکت نوشت: ایدهی ساخت دکمهی Undo (بازگشت به حالت اولیه) جادویی برای بازگشت تصویر ویرایششده به حالت اول، هنوز تا محققشدن فاصلهی زیادی دارد. ما در جهانی زندگی میکنیم که در آن اعتماد به اطلاعات دیجیتالی که هرروزه درمعرض آن قرار داریم، سختتر میشود. باوجوداین، تیم تحقیقاتی ادوبی تمام تلاش خود را میکند تا دراینزمینه بررسی و تحقیق بیشتری کند.
پژوهشگران شرکت ادوبی میگویند کشف و استفاده از این روش تحقیقاتی در نوع خود، جزء اولین طرحها برای شناساییِ ویرایشهای انجامشده در تغییرات چهره بوده است. این روش گام مهمی برای ساخت ابزارهایی است که بتوانند حتی تغییرات پیچیدهای ازجمله دستکاریهای صورتگرفته در بدن و ویرایشهای فوتومتریک مانند صافکردن پوست (رفع چینوچروک پوست) را شناسایی کند.
این پژوهش در نوع خود بسیار امیدوارکننده و موفق است؛ ولی هرگز به این معنا نیست که وجود چنین ابزارهایی باعث شود دیگر شاهد تصاویر و فایلهای صوتی و ویدئویی دستکاریشده نباشیم و چنین اثرهای مخربی از تولید محتوای جعلی بهیکباره متوقف شود. همانطورکه همهی ما تابهحال نحوهی انتشار اخبار جعلی را در رسانهها دیدهایم، حتی اگر محتوای مطلبی بهوضوح نادرست باشد یا حتی بتوان بهسرعت جعلیبودنش را افشا و خنثی کرد، این مطلب همچنان در شبکهها و رسانههای اجتماعی بهاشتراک گذاشته میشود. دانستن این موضوع که مطلبی جعلی است، تنها نیمی از موفقیت در تلاش برای متوقفکردن چنین محتوایی است و تازه بعد از آن کار اصلی آغاز میشود.