فرارو- تصاویر ایجاد شده از طریق ابزارهای مبتنی بر هوش مصنوعی در رسانههای اجتماعی به شکلی سیل آسا منتشر میشوند. برخی از تصاویر خطر انتشار اطلاعات نادرست را با خود به همراه دارند. کدام تصاویر واقعی و کدام تصاویر جعلی هستند؟ در ادامه به نکاتی در این باره میپردازیم.
به گزارش فرارو به نقل از دویچه وله، ایجاد تصاویری که بهطور تکان دهندهای واقعی به نظر میرسند، اما در واقع جعلی هستند هرگز هیچ زمانی آسانتر از شرایط فعلی نبودهاند. هر فردی با اتصال به اینترنت و دسترسی به ابزاری که از هوش مصنوعی استفاده میکند میتواند ظرف مدت چند ثانیه تصاویر واقع گرایانه ایجاد کند و سپس میتواند آن را با سرعتی سرسام آور در رسانههای اجتماعی منتشر و پخش کند. در چند روز گذشته بسیاری از این گونه تصاویر در فضای مجازی منتشر شدند: ظاهرا "ولادیمیر پوتین" بازداشت شده یا "ایلان ماسک" دست در دست "ماری بارا" مدیر عامل جنرال موتورز دارد. این تنها دو نمونه از بسیاری تصاویر جعلی منتشر شده هستند.
مشکل این است که هر دو تصویر هوش مصنوعی رویدادهایی را نشان میدهند که هرگز رخ ندادهاند. اگرچه برخی از این تصاویر ممکن است خنده دار به نظر برسند، اما میتوانند خطرات واقعی را از نظر انتشار اطلاعات نادرست و از جنبه تبلیغاتی نیز به همراه داشته باشند.
در مورد تصاویری که بازداشت سیاستمدارانی مانند "ولادیمیر پوتین" رئیس جمهور روسیه یا "دونالد ترامپ" رئیس جمهور سابق آمریکا را نشان میدهند اگر کاربران منابع معتبر رسانهای را بررسی کنند میتوانند نسبتا سریع جعلی بودن آن را تشخیص دهند. "هنری آژدر" کارشناس هوش مصنوعی به "دویچه وله" میگوید: "تشخیص صحت سایر تصاویر دشوارتر است مانند تصاویری که در آن افراد حاضر در تصویر چندان شناخته شده نیستند".
یک نمونه از آن تصویری است که از سوی یکی از اعضای پارلمان آلمان از حزب راست افراطی آلترناتیو برای آلمان منتشر شده و در آن مردانی در حال فریاد کشیدن هستند. او در حساب اینستاگرام خود برای آن که نشان دهد مخالف ورود پناهجویان به آلمان است این تصویر را منتشر کرد.
به گفته آژدر تصاویری که توسط هوش مصنوعی از افراد ایجاد میشود، تنها تصاویری نیستند که میتوانند اطلاعات نادرست را منتشر کنند. او میگوید نمونههایی از کاربرانی وجود داشته اند که رویدادهایی را ایجاد کردهاند که هرگز اتفاق نیفتاده اند. این موضوع در مورد زلزله شدیدی رخ داد که گفته شد در سال ۲۰۰۱ شمال غربی اقیانوس آرام ایالات متحده و کانادا را لرزاند. با این وجود، زلزله هرگز اتفاق نیفتاده بود و تصاویر در Reddit به اشتراک گذاشته شد. به گفته آژدر این میتواند یک مشکل باشد. او میافزاید: "اگر در حال ایجاد منظره به جای تصویر یک انسان هستید ممکن است تشخیص آن سختتر باشد".
با این وجود، ابزارهای هوش مصنوعی نیز مرتکب اشتباه میشوند. حتی اگر به سرعت در حال تکامل باشند. در حال حاضر (آوریل ۲۰۲۳ میلادی) برنامههایی مانند Midjourney، Dall-E و Deep AI دارای اشکالاتی هستند به خصوص با تصاویری که افراد را نشان میدهند.
تیم حقیقت سنجی "دویچه وله" پیشنهاداتی را گردآوری کرده است که میتوانند به شما در تشخیص جعلی بودن یک تصویر کمک کنند. اما یک موضوع را برای احتیاط اولیه میگوییم: ابزارهای مبتنی بر هوش مصنوعی به قدری سریع در حال پیشرفت هستند که این نکات تنها وضعیت فعلی امور را بازتاب میدهند.
بسیاری از تصاویر تولید شده توسط هوش مصنوعی در نگاه اول واقعی به نظر میرسند.
به همین دلیل اولین پیشنهاد ما این است که به تصویر دقت کنید. برای انجام این کار تصویر را با بالاترین وضوح ممکن جستجو کنید و سپس روی جزئیات زوم کنید. بزرگ کردن تصویر ناهماهنگیها و خطاهایی را نشان میدهد که ممکن است در نگاه اول شناسایی نشده باشند.
اگر مطمئن نیستید که یک تصویر واقعی میباشد یا توسط هوش مصنوعی تولید شده سعی کنید منبع آن را پیدا کنید.
با خواندن نظرات منتشر شده توسط سایر کاربران در زیر تصویر ممکن است بتوانید اطلاعاتی در مورد جایی که تصویر برای اولین بار پست شده را مشاهده کنید یا ممکن است یک جستجوی عکس معکوس انجام دهید. برای انجام این کار تصویر را در ابزارهایی مانند Google Image Reverse Search، TinEye یا Yandex آپلود کنید و ممکن است منبع اصلی تصویر را پیدا کنید. نتایج این جستجوها هم چنین ممکن است پیوندهایی را به بررسی واقعیت انجام شده توسط رسانههای معتبر نشان دهد.
آیا افراد تصویر شده دارای تناسب اندام صحیحی هستند؟ این غیرمعمول نیست که تصاویر تولید شده توسط هوش مصنوعی در رابطه با تناسبها تفاوتهایی را نشان دهند. ممکن است دستها خیلی کوچک یا انگشتان خیلی بلند باشند یا آن که سر و پا با بقیه بدن مطابقت ندارند. برای مثال، در تصویری جعلی این گونه نشان داده شده که پوتین در برابر شی زانو زده است. با این وجود، با دقت به تصویر میتوان مشاهده کرد که کفش فرد زانو زده به طور نامتناسبی بزرگ و پهن است. گوشها نیز دراز به نظر میرسند. سر نیمه پوشیده نیز بسیار بزرگ است و با سایر اندامهای بدن تناسبی ندارد.
دستها در حال حاضر منبع اصلی خطاها در برنامههای تصویر هوش مصنوعی مانند Mid journey یا DALL-E هستند. برای مثال در تصویری که در آن پوتین دیده میشود مامور پلیسی که در سمت چپ اوست انگشت ششم دارد! هم چنین در تصویر منتشر شده از پاپ فرانسیس که جعلی است او تنها چهار انگشت درست در تصویر دارد و انگشتان او در سمت چپ به طرز غیر عادی بلند به نظر میرسند. این عکسها جعلی هستند.
سایر خطاهای رایج در تصاویر تولید شده توسط هوش مصنوعی شامل افرادی با دندانهای بسیار زیاد هستند. هم چنین، فریم عینکهایی که به طرز عجیبی تغییر شکل پیدا کرده اند که در تصاویر ایجاد شده توسط هوش مصنوعی دیده میشوند. هم چنین، در بسیاری از این تصاویر گوشها اشکال غیر واقعی دارند مانند تصویر جعلی از شی و پوتین. هم چنین، سطوحی مانند گوشههای کلاه ایمنی برای برنامههای مبتنی بر هوش مصنوعی مشکلاتی ایجاد میکنند و گاهی اوقات تصویر از هم پاشیده به نظر میرسد مانند آن چه در تصویر بازداشت ادعایی پوتین دیده میشود.
با این وجود، هنری آژدر متخصص هوش مصنوعی هشدار میدهد که نسخههای جدیدتر برنامههایی مانند Mid journey در به تصویر کشیدن دستها بهتر عمل میکنند. این بدان معناست که کاربران نمیتوانند در بلند مدت روی تشخیص این نوع اشتباهات حساب باز کنند.
برنامه Mid journey به طور خاص تصاویر بسیاری را ایجاد میکند که برای واقعی بودن بیش از حد خوب به نظر میرسند. احساس درونی خود را در اینجا دنبال کنید: آیا چنین تصویر کاملی با افراد بی عیب و نقص واقعا میتواند واقعی باشد؟ "آندریاس دنگل" از مرکز تحقیقات هوش مصنوعی آلمان به "دویچه وله" میگوید:" چهرهها خیلی خالص هستند و لباسهایی که نشان داده میشوند نیز بسیار هماهنگ میباشند. پوست افراد در بسیاری از تصاویر هوش مصنوعی اغلب صاف و عاری از هرگونه سوزش است و حتی موها و دندانهای آنان بی عیب و نقص است. این موارد معمولا در زندگی واقعی صدق نمیکنند".
بسیاری از تصاویر نیز دارای ظاهری هنرمندانه، براق و پر زرق و برق هستند که حتی عکاسان حرفهای نیز در عکاسی استودیویی برای دستیابی به آن مشکل دارند. اغلب به نظر میرسد ابزارهای مبتنی بر هوش مصنوعی تصاویر ایدهآلی را طراحی میکنند که قرار است بی نقص باشند و تا آنجا که ممکن است انسانها را خوشحال کنند.
۶-پس زمینه را بررسی کنید
پس زمینه یک تصویر اغلب میتواند نشان دهد که آیا دستکاری شده است یا خیر.
در اینجا نیز اجسام میتوانند تغییر شکل یافته به نظر برسند. برای مثال، به چراغهای خیابان توجه کنید. در موارد معدودی برنامههای هوش مصنوعی افراد و اشیاء را شبیه سازی کرده و دو بار از آنان در یک تصویر استفاده میکند و غیر معمول نیست که پسزمینه تصاویر هوش مصنوعی محو شود. اما حتی این تاری میتواند حاوی خطا باشد یک پس زمینه به طور مصنوعی تار به نظر میرسد.
در نتیجه، بسیاری از تصاویر تولید شده توسط هوش مصنوعی در حال حاضر هنوز با قدری تحقیق قابل حذف هستند. با این وجود، فناوری در حال بهتر شدن است و احتمالا این اشتباهات در آینده نادرتر میشوند.