فرارو- این یک تبلیغ سیاسی تکان دهنده است: تصاویر حمله چین به تایوان به صحنه هایی از بانک های غارت شده و سربازان مسلح در حال اجرای حکومت نظامی در سانفرانسیسکو منجر می شود. یک راوی القا می کند که همه چیز تحت نظر جو بایدن در حال رخ دادن است. این تصاویر در آگهی کمیته ملی جمهوری خواهان واقعی نیستند و سناریوها کاملا تخیلی هستند. با این وجود، به دلیل کار خلق شده توسط هوش مصنوعی تصاویر شبیه به زندگی واقعی هستند. طی چند روز پس از نمایش آنلاین آگهی در ماه آوریل "ایوت کلارک" نماینده دموکرات نیویورک طرحی را برای الزام افشای محتوای تولید شده توسط هوش مصنوعی در تبلیغات سیاسی با هدف تبدیل آن به قانون ارائه کرد.
به گزارش فرارو به نقل از بلومبرگ؛ او در مصاحبه ای گفت:"این خیلی دور از ذهن می باشد و کاملا با تصاویر هوش مصنوعی ساخته شده است". طرح کلارک در مجلس قانونگذاری تحت کننرل جمهوری خواهان راه به جایی نخواهد برد اما نشان می دهد که پیشرفت سریع هوش مصنوعی تا چه اندازه واشنگتن را به عقب انداخته است.
رای دهندگان در ایالات متحده و سراسر جهان در حال حاضر توسط محتوای سیاسی تولید شده توسط هوش مصنوعی غرق شده اند. مشاوران سیاسی می گویند برای مثال روی ایمیلی که درخواست کمک مالی می کند پیامی را می خوانید که توسط یک مدل به اصطلاح زبان بزرگ تهیه شده است که فناوری پشت چت جی پی تی (Chat GPT) چت بات بسیار محبوب راه اندازی شده توسط Open AI است. هم چنین، سیاستمداران به طور فزاینده ای از هوش مصنوعی برای تسریع در انجام کارهای روزمره اما حیاتی مانند تجزیه و تحلیل فهرست رای دهندگان، جمع آوری فهرست های پستی و حتی نگارش سخنرانی استفاده می کنند.
هوش مصنوعی نیز مانند بسیاری از صنایع آماده است تا بهره وری کارکنان عرصه سیاسی را افزایش دهد و احتمالا بیش از تعداد کمی از مشاغل آنان را حذف کند. گفتن تعداد آن دشوار است اما تجارت سیاست مملو از انواع نقش هایی می باشد که محققان معتقدند بیش ترین آسیب پذیری را در برابر اختلال ایجاد شده توسط هوش مصنوعی مولد دارند مانند متخصصان حقوقی و کارکنان اداری.
اما بدتر از آن هوش مصنوعی این ظرفیت بالقوه را دارا می باشد که انتشار اطلاعات نادرست در جریان کارزارهای سیاسی را افزایش دهد. این فناوری می تواند به سرعت تصاویر و ویدئوهای جعلی را ایجاد کند که برخی از فعالان سیاسی پیش بینی می کنند به زودی از واقعیت قابل تشخیص و تمییز نیستند و به افراد نابکار این امکان را میدهد تا واژگان را به معنای واقعی کلمه در دهان مخالفان خود قرار دهند.
دیپ فیک (جعل عمیق) سال ها گریبانگیر سیاست شده است. با این وجود، با هوش مصنوعی دیگر نیازی به مهارت های ویرایش با هوش انسانی برای ایجاد آن نیست. هوش مصنوعی در بهترین حالت استفاده می تواند ارتباطات سیاسی را بهبود بخشد. برای مثال، کارزارهای تازه کار با بودجه مالی کم می توانند از این فناوری برای تولید مواد کارزار ارزان یا نیاز به در اختیار داشتن کارکنان کم تر استفاده کنند. برخی از مشاوران سیاسی که به طور سنتی صرفا با کارزارهای ریاست جمهوری و سنا کار می کنند در حال برنامه ریزی برای کار با کارزارهای کوچک تر با استفاده از هوش مصنوعی برای ارائه خدمات بیش تر با قیمت پایین تر هستند.
صنعت فناوری در تلاش است تا با دیپ فیک ها مبارزه کند. شرکت هایی از جمله مایکروسافت متعهد شدهاند که واترمارک *های دیجیتال را در تصاویر ایجاد شده با استفاده از ابزارهای هوش مصنوعی خود تعبیه کنند تا آن ها را جعلی تشخیص دهند.
ستاد انتخاباتی "ران دیسانتیس" فرماندار فلوریدا در ماه ژوئن یک آگهی آنلاین منتشر کرد که در آن تصاویری از "دونالد ترامپ" رئیس جمهور آمریکا که توسط هوش مصنوعی در حال بغل کردن و بوسیدن "آنتونی فائوچی" مدیر سابق موسسه ملی آلرژی و بیماری های عفونی است به نمایش درآمد. فائوچی به دلیل توصیه های خود در حوزه بهداشت عمومی در طول پاندمی کووید در میان جمهوری خواهان چهره ای منفور قلمداد می شود. یک یادداشت حقیقت سنجی به توئیت کارزار دیسانتیس اضافه شد که اشاره می کرد این تصاویر که در میان تصاویر و ویدئوهای واقعی ترامپ ترکیب شده بودند توسط هوش مصنوعی ایجاد شده اند. کارزار دیسانتیس در ابتدا آن تصاویر را جعلی معرفی نکرده بود.
در آلمان یک حزب راست افراطی (آلترناتیو برای آلمان) اخیرا تصاویری از مهاجران خشمگین تولید شده توسط هوش مصنوعی را بدون این که به بینندگان بگوید که عکسی واقعی نیست توزیع کرده بود. این تصویر نیز در توئیتر نشانه گذاری شد اما این رویداد نشان می دهد که فناوری تازه چه اندازه سریع برای پیام های سیاسی و خطرات ذاتی به کار گرفته می شود.
هوش مصنوعی می تواند دموکراسی را نجات دهد یا از بین ببرد؟ واقعیت آن است که استفاده از آن همانند کاربرد چاقو می باشد. شما می توانید با آن کسی را بکُشید یا می توانید بهترین شام را درست کنید. کارشناسان اطلاعات نادرست می گویند زمانی که هوش مصنوعی در کارخانه های اطلاعات غلط روسی و چینی مورد استفاده قرار می گیرد نگرانی ها حادتر می شود. ترول ها و هکرها در آن کشورها از قبل تبلیغات و دروغ را در داخل مرزهای خود و در کشورهای سراسر جهان منتشر کرده اند. Graphika یک شرکت ردیابی اطلاعات نادرست مستقر در ایالات متحده در ماه فوریه متوجه یک عملیات نفوذ طرفدار چین شد که فیلم های ویدئویی تولید شده توسط هوش مصنوعی از مجریان اخبار جعلی که منافع حزب کمونیست چین را تبلیغ میکردند پخش می کرد. "راب جویس" مدیر امنیت سایبری در آژانس امنیت ملی می گوید که هم بازیگران دولت های ملی و هم مجرمان سایبری شروع به آزمایش با تولید متن شبیه به چت جی پی تی برای فریب دادن افراد آنلاین کرده اند. او می گوید:"آن هکر بومی روسی که به خوبی انگلیسی صحبت نمی کند دیگر نمی خواهد یک ایمیل مزخرف برای کارمندان شما ایجاد کند. او با استفاده از هوش مصنوعی می تواند به زبان انگلیسی ارتباط برقرار کند".
یک کاربر ناشناس توئیتر در ماه مارس ویدئوی تغییر یافته ای را منتشر کرد که در فضای مجازی منتشر شد و مدعی بود که نشان می دهد بایدن به طور لفظی به تراجنسی ها حمله می کند. یکی دیگر از آن تصاویر که به طور گسترده توسط یک کارشناس راستگرای آمریکایی منتشر شد ظاهرا نشان می دهد که بایدن دستور حمله هسته ای به روسیه و اعزام نیرو به اوکراین را صادر می کند.
امریکا در همگامی با فناوری های نوظهور بد عمل کرده و با روندی کُند آن را تنظیم می کند. در فاصله سال های 2021 تا 2022 میلادی کنگره بیش از 150 جلسه استماع در مورد فناوری برگزار کرد که نتیجه اندکی داشته است.
ایالات متحده قانون فدرال حفظ حریم خصوصی ندارد و قوانین ضد انحصار را به روز نکرده تا تمرکز فزاینده در صنعت فناوری را در نظر بگیرد. قانونگذاران امریکایی نتوانسته اند در مورد چگونگی تنظیم سخنرانی آنلاین با یکدیگر توافق برسند. کمیسیون انتخابات فدرال ماه گذشته در درخواستی برای ایجاد قوانینی به منظور تبلیغات سیاسی تولید شده توسط هوش مصنوعی به بن بست رسید. جمهوری خواهان در پنلی که به طور مساوی بین احزاب تقسیم شده است و به طور معمول خود را در موارد بحث برانگیز در بن بست می بیند گفتند که آن نهاد اختیار صریحی برای تنظیم مقررات ندارد.
این در حالیست کشورهای دیگر در حال رقابت در زمینه مقررات هستند که با شور و شوق ناشی از ظهور چت جی پی تی مطرح شده است. پارلمان اروپا در تاریخ 14 ژوئن به محدودیت استفاده از اضطراب زاترین فناوری نوپا مانند نظارت بیومتریک مبتنی بر هوش مصنوعی که میتواند افراد را از روی صورت یا بدن شان شناسایی کند رای داد. این قانون که هنوز در حال بحث است هم چنین می تواند از شرکت ها بخواهد اطلاعات بیش تری درباره مجموعه داده های مورد استفاده برای آموزش چت بات را فاش کنند.
مقام های اروپایی به طور جداگانه شرکت هایی از جمله گوگل و متا پلتفرم های شرکت آلفابت را تحت فشار قرار می دهند تا محتوا و تصاویر تولید شده توسط هوش مصنوعی را برچسب گذاری نمایند تا به مبارزه با اطلاعات نادرست از سوی دشمنانی مانند روسیه کمک کنند. تنظیم کننده های چینی به شدت قوانین تازه ای را بر شرکت های فناوری تحمیل می کنند تا از کنترل حزب کمونیست بر هوش مصنوعی و اطلاعات مرتبط موجود در آن کشور اطمینان حاصل کنند. طبق گزارش این هفته کارنگی برای صلح بین المللی هر مدل هوش مصنوعی باید پیش از معرفی به بازار به منظور بررسی دولتی ارائه شود و محتوای تولید شده مصنوعی باید دارای "برچسب های آشکار" باشد.
"مارتین کوروتز" مدیر اجرایی شرکت داده های استرلینگ که با دموکرات ها کار می کند می گوید:"هوش مصنوعی در بهترین حالت می تواند کارزار سیاسی ایالات متحده را بسیار ارزان تر کند". به گفته لابی گران، کارکنان ستاد انتخاباتی و کنگره و مشاوران سیاسی پیش تر از هوش مصنوعی برای کمک به نگارش اولین پیش نویس سخنرانی ها و نوشته ها، ایجاد تبلیغات، طراحی کارزارهای لابی گری و موارد دیگر استفاده شده است. مولدهای هنری مانند میدجِرنی یک برنامه هوش مصنوعی که تصاویر فوق واقعی را بر اساس پیام های متنی تولید می کند ظرفیت بالقوه افزایش بهره وری یا حتی جایگزینی کار تیم های خلاق را دارند که می تواند هزاران دلار هزینه داشته باشد.
علیرغم آن که کمیته ملی جمهوری خواهان پیش تر یک آگهی تهاجمی با استفاده از هوش مصنوعی مولد ساخته کمیته ملی دموکرات هنوز در حال آزمایش این فناوری است.
یک سخنگوی آن کمیته به "بلومبرگ" می گوید این کمیته ایمیل های جمع آوری کمک های مالی خودکار با هوش مصنوعی ارسال کرده و در حال بررسی چگونگی استفاده از هوش مصنوعی در آینده است.
در کنگره دفتر خدمات دیجیتال مدیر ارشد اداری مجلس نمایندگان در ماه آوریل 40 مجوز برای چت جی پی تی پلاس (Chat GPT Plus) ارائه کرد که دفاتر مجلس از آن برای کمک به نوشتن ایمیل، خلاصه تحقیقات و حتی پیش نویس قانون استفاده کرده اند. نوشتن صورتحساب های کامل هنوز برای هوش مصنوعی مولد یک کار بسیار پیچیده است. مجلس نمایندگان ماه گذشته قوانین جدیدی را مطرح کرد که استفاده از چت جی پی تی را در کنگره محدود می سازد و روشن می سازد که کارکنان نمی توانند اطلاعات محرمانه را در چت بات قرار دهند.
برخی علائم نشان می دهند که قانونگذاران تهدید هوش مصنوعی را جدی تر از فناوری های پیشین که قصد تغییر سیاست را داشتند قلمداد می کنند.
پس از آن که مشخص شد رسانه های اجتماعی نقشی حیاتی در سیاست دارند قانونگذاران اجازه دادند "مارک زاکربرگ" را برای شهادت در جلسه استماع فراخواندند. "سام آلتمن" مدیر عامل Open AI در ماه مه کمتر از یک سال پس از راه اندازی چت جی پی تی در انظار عمومی شهادت داد. او به قانونگذاران گفت که صنعت هوش مصنوعی شدیدا به مقررات نیاز دارد و او نگران استفاده های شیطانی از هوش مصنوعی است.
یکی از سخنگویان Open AI می گوید که آن شرکت متوجه افزایش استفاده از چت جی پی تی برای اهداف سیاسی شده است و به دنبال این است که از نگرانی هایی که احتمال دارد از سوی محصولات آن شرکت برای فریب رای دهندگان استفاده شود پیشی بگیرد. آن شرکت دستورالعمل تازه ای را در ماه مارس منتشر کرده بود که کارزارهای سیاسی یا لابی گران را از استفاده از چت جی پی تی منع می کرد از جمله از تولید مواد کارزار با هدف جمعیت شناسی خاص یا تولید حجم بالایی از مطالب. سخنگوی Open AI اعلام کرده بود که تیم های اعتماد و ایمنی در آن شرکت در حال تلاش برای شناسایی استفاده های سیاسی از چت بات هستند که خط مشی آن شرکت را نقض می کند.
انجمن مشاوران سیاسی آمریکا ماه گذشته استفاده از هوش مصنوعی مولد فریبنده در تبلیغات سیاسی را محکوم کرد و آن را "تهدیدی برای دموکراسی" خواند. آن گروه اعلام کرد که قصد دارد اعضایی را که تبلیغات جعل عمیق تولید میکنند محکوم کرده و احتمالا تحریم نماید. با این وجود، در جامعه ای که دسترسی به ابزارهای هوش مصنوعی گسترده است و هزینه کمی دارد بعید به نظر می رسد که چنین تهیدید عملی باشد. "فرانک لونتز" استراتژیست جمهوریخواه کهنه کار می گوید نگران ان است که فناوری هوش مصنوعی باعث سردرگمی رای دهندگان در رقابت های ریاست جمهوری 2024 آمریکا شود. او می گوید:"در سیاست در حال حاضر حقیقت اندک است. به سبب ظهور هوش مصنوعی حتی کسانی که به حقیقت اهمیت می دهند حقیقت را نمی دانند".
*متن یا الگویی که روی دارایی های دیجیتال مانند عکس قرار گرفته و آن محافظت کرده و مانع سوء استفاده از آن می شود.