هوش مصنوعی شاید در نگاه نخست، پیشرفت علم در زمینه تکنولوژی و فناوری محسوب شود، اما بهمرور با بررسی بیشتر، بسیاری از کارشناسان به این نتیجه رسیدند که اگر «هوش مصنوعی» کنترل نشود، ممکن است خطری جدی بهاندازه انفجار بمب اتم برای بشریت در برداشته باشد.
به گزارش هممیهن، افزایش نگرانی در زمینه گسترش هوش مصنوعی و عدم کنترل آن باعث شد تا کنفرانسی به میزبانی انگلیس برگزار شود. در جریان این رویداد مهم، دبیرکل سازمانملل، رئیس اتحادیه اروپا و سران ۲۸ کشور جهان درباره خطرات ناشی از هوش مصنوعی صحبت کردند. دولتهای سراسر جهان برای مقابله با خطرات فاجعهباری که این فناوری میتواند ایجاد کند، در یک اجلاس جهانی که در بریتانیا برگزار شد، «اولین توافقنامه جهانی» در زمینه هوش مصنوعی را امضاء کردند. در جریان این جلسه، دولت بریتانیا اعلام کرد که روی یک ابررایانه هوش مصنوعی سرمایهگذاری خواهد کرد و ایلان ماسک، رئیس تسلا و ایکس گفت که هوش مصنوعی «یکی از بزرگترین تهدیدها برای بشریت» محسوب میشود.
بااینحال، بسیاری از افراد حاضر در جامعه فناوری، نامه سرگشادهای را امضاء کردند که در آن خواستار طیفی از رویکردها شدند. احتمالاً مهمترین پیام این جلسه، «اولین توافقنامه جهانی» است که هدف آن، شناسایی «خطرات ایمنی هوش مصنوعی ناشی از نگرانی مشترک» و ایجاد «سیاستهای مبتنی بر ریسک مربوطه در سراسر کشورها» است. در این توافقنامه جهانی گفتهشده که هوش مصنوعی، «پتانسیل آسیبهای جدی، فاجعهبار، عمدی یا غیرعمدی را دارد که از مهمترین قابلیتهای این فناوری ناشی میشود». آنطور که کارشناسان و سیاستمداران کشورهای مختلف میگویند؛ نباید «هوش مصنوعی» را شوخی گرفت. موضوعی که بهمرور با استفاده کاربران مجازی در حال گسترش است. استفاده از این اصطلاح یعنی «هوش مصنوعی»، در سال ۲۰۲۳ چهاربرابر شده است و همه در مورد این پدیده نوظهور حرف میزنند.
رضا قربانی، تحلیلگر فناوری درباره این رویداد میگوید: «برگزاری کنفرانس لندن را باید چنین نگاه کرد که اروپاییها نمیخواهند یکباردیگر مقابل آمریکاییها شکستخورده باشند. اکوسیستم فناوری در دنیا یکپارچه نیست. اکوسیستم فناوری آمریکا و اکوسیستم فناوری اروپا از یکدیگر مستقل و اتفاقاً گاهی مقابل هم هستند. اجلاس لندن، یک رخداد اروپایی است یعنی اروپاییها اجلاسی را ترتیب دادند که پرچمدار آن پدیده، آمریکاییها هستند.
اروپاییها در برخی از گزارهها بازی را به آمریکاییها باختند. یکی از این شکستها، شبکههای اجتماعی یا همان «وب دو» بود. اساساً پلتفرمهای شبکههای اجتماعی در دنیا، اروپایی نیستند. اتفاقی که رخداد این بود که پلتفرمهای آمریکایی در خود اروپا نیز یک مسئله است.
چندی پیش قوانینی، چون «جیدیپیآر» یا «امنیت حفظ دادهها»، توسط اتحادیه اروپا تصویب شد تا اروپاییها بتوانند کنترل اطلاعات خودشان را داشته باشند و اطلاعات کاربران قاره اروپا را در اختیار آمریکاییها قرار ندهند. بههمیندلیل برگزاری اجلاس لندن صرفاً بهدلیل واکنش یکپارچه نسبت به هوش مصنوعی در تمام دنیا نیست، بلکه اروپاییها میخواهند از همین ابتدا که هوش مصنوعی در حال رشد است، تنظیمگری این علم را طوری پیش ببرند که مثل رشد شبکههای اجتماعی بازندهی داستان نباشند.
به این نکته نیز باید اذعان داشت که هوش مصنوعی قابل رگولاتوری است. بهطورمثال تصاویری که با هوش مصنوعی ساخته و منتشر شده است. تنظیمگری هوش مصنوعی میتواند چنین باشد که افراد را ملزم کند هر کاربری که از هوش مصنوعی استفاده میکند، حتماً در گوشهای از تصویر قید کرده باشد که این تصویر از هوش مصنوعی درست شده و اگر کسی تخطی کند، جرم شناخته شود. تابهحال ساخت و دستکاری تصویر در بسیاری از پروژهها چنان جدی نبوده که به یک قانون تبدیل شود، اما حالا با پدیدهای روبهرو هستیم که یک تصویر یا عکس در واقعیت اصلاً وجود ندارد، اما بهواسطه هوش مصنوعی چنین عکسی که اصلاً وجود خارجی ندارد، تولید و خلق میشود. حتماً یکی از مواردی که میتواند در تنظیمگری مصوب شود، الزام رعایت چنین قوانینی است. قبلاً قضیه «فیکنیوز» هم بود که یک کاربر، خبر اشتباهی را منتشر میکرد و بهصورت گسترده پخش میشد. چنین تنظیمگریای از هوش مصنوعی میتواند جلوی خبرهای ساختگی را بگیرد.
البته ازاینمنظر نیز باید توجه کرد که تنظیمگری میتواند بهنوعی پیشرفت هوش مصنوعی را با کندی روبهرو کند. البته که ساخت بمب اتم هم بهنوعی در راستای پیشرفت علم بود که با تصویب قوانینی، جلوی مضرات آن را گرفتند و کنترل کردند. شاید هوش مصنوعی نیز طوری پیش برود که تصویب قوانین، مانع از آسیب شود. حضور ایلان ماسک در اجلاس لندن نشان میدهد که حداقل فردی در این کنفرانس حضور دارد که نسبت به آینده هوش مصنوعی نگرانی بسیاری دارد.»
از سوی دیگر دکتر رضا شاهنظر، پزشک و پژوهشگر هوش مصنوعی درباره تنظیمگری هوش مصنوعی معتقد است: باتوجه به ابعاد ناشناختهای که هوش مصنوعی دارد و چندروز یکبار درخصوص توانمندی غیرقابل پیشبینی از این علم جدید مطالبی مطرح میشود، اینطور میتوان به موضوع نگاه کرد که هوش مصنوعی، بیش از چیزی که امروز هست پیش برود و نگرانیهای جدیدی را به وجود بیاورد. نگرانیهایی اعم از آسیبزدن به بسیاری از مشاغل که بحرانهای اجتماعی و اقتصادی بسیاری به یک کشور وارد میکند. همچنین ممکن است باتوجه به سازوکاری که بین کشورها در نحوه ارتباطاتی در زمینههای مختلف وجود دارد نیز تاثیر بگذارد، بههمینخاطر این نگرانی در سطح کلان کشورها طبیعی است. مشابه کنفرانسی که در لندن برگزار شد، پیشتر در کشورهای دیگر نیز ترتیب داده شده بود، اما اجلاس لندن کمی جدیتر از قبل است، چون بهطبع پیشرفت هوش مصنوعی، نگرانیها نیز افزایش یافته است.
واقعیت این است که باید بررسی کرد آیا هوش مصنوعی قابل رگولاتوری هست یا خیر و اینکه دولتمردان چطور این قوانین را اجرایی میکنند. قوانین معمولاً در آمریکا و اتحادیه اروپا ثابت کرده در یک سطوحی خوب اجرا میشود و اصول و قواعدی که تصویبشده، بهدرستی پیاده شده است. بهطورمثال اتحادیه اروپا قانونی مصوب کرد که هیچ شرکتی حق ندارد برای خودش کابل اتصال شارژر جدیدی درنظر بگیرد که مختص خودش باشد، بههمیندلیل شرکت بزرگی مثل اپل مجبور میشود از قوانین مصوب تبعیت کند. همچنین قوانینی که درخصوص «ترککردن» دیتاهای کاربران در اتحادیه اروپا تصویب شده، باعث شد تا سایتها از کاربران اجازه بگیرند که میتوانند از برخی اطلاعات کاربران استفاده کنند یا خیر.
البته تصویب قوانین مشخص در زمینه «هوش مصنوعی»، شاید برای شرکتهای کوچکتر محدودکننده باشد تا شرکتهای بزرگ و تاثیرگذار. چون مشخص نیست نظارت عمومی روی شرکتهای بزرگتر تا چهمیزان وجود دارد. بههرحال، اما اقدامی است که ناگزیر باید بهسمتاش رفت و بهصورتکلی، بودناش بهتر از نبودن آن است.
باید به این موضوع توجه کرد که «تنظیمگری» با هدف محدود و کنترلکردن هوش مصنوعی است که البته همین محدودکردن آن، هم میتواند خطرناک و هم مفید باشد. اینطور میتوان نگاه کرد که تکنولوژیای که قرار است در سطح کلان مطرح شود یا تعداد زیادی شغل موجود در دنیا را از بین ببرد، بهتر است با یک تنظیمگری پیش برود تا زمانی که افراد با بحران بیکاری روبهرو میشوند، بداند چهکاری باید انجام دهد. همچنین ازاینزاویه نیز میتوان به ماجرا نگاه کرد که همین تنظیمگری، سرعت پیشرفت علم هوش مصنوعی را با کندی روبهرو خواهد ساخت.