صفحه نخست

سیاست

ورزشی

علم و تکنولوژی

عکس

ویدیو

راهنمای بازار

زندگی و سرگرمی

اقتصاد

جامعه

فرهنگ و هنر

جهان

صفحات داخلی

کد خبر: ۶۸۰۳۰۷
سیاستمداران جهان روند‌های فناوری را خطرناک احساس کردند
افزایش نگرانی در زمینه گسترش هوش مصنوعی و عدم کنترل آن باعث شد تا کنفرانسی به میزبانی انگلیس برگزار شود.
تاریخ انتشار: ۰۹:۴۷ - ۱۵ آبان ۱۴۰۲

هوش مصنوعی شاید در نگاه نخست، پیشرفت علم در زمینه تکنولوژی و فناوری محسوب شود، اما به‌مرور با بررسی بیشتر، بسیاری از کارشناسان به این نتیجه رسیدند که اگر «هوش مصنوعی» کنترل نشود، ممکن است خطری جدی به‌اندازه انفجار بمب اتم برای بشریت در برداشته باشد.

به گزارش هم‌میهن، افزایش نگرانی در زمینه گسترش هوش مصنوعی و عدم کنترل آن باعث شد تا کنفرانسی به میزبانی انگلیس برگزار شود. در جریان این رویداد مهم، دبیرکل سازمان‌ملل، رئیس اتحادیه اروپا و سران ۲۸ کشور جهان درباره خطرات ناشی از هوش مصنوعی صحبت کردند. دولت‌های سراسر جهان برای مقابله با خطرات فاجعه‌باری که این فناوری می‌تواند ایجاد کند، در یک اجلاس جهانی که در بریتانیا برگزار شد، «اولین توافق‌نامه جهانی» در زمینه هوش مصنو‌عی را امضاء کردند. در جریان این جلسه، دولت بریتانیا اعلام کرد که روی یک ابررایانه هو‌ش مصنوعی سرمایه‌گذاری خواهد کرد و ایلان ماسک، رئیس تسلا و ایکس گفت که هو‌ش مصنوعی «یکی از بزرگ‌ترین تهدید‌ها برای بشریت» محسوب می‌شود.

بااین‌حال، بسیاری از افراد حاضر در جامعه فناوری، نامه سرگشاده‌ای را امضاء کردند که در آن خواستار طیفی از رویکرد‌ها شدند. احتمالاً مهم‌ترین پیام این جلسه، «اولین توافقنامه جهانی» است که هدف آن، شناسایی «خطرات ایمنی هوش مصنوعی ناشی از نگرانی مشترک» و ایجاد «سیاست‌های مبتنی بر ریسک مربوطه در سراسر کشورها» است. در این توافقنامه جهانی گفته‌شده که هو‌ش مصنوعی، «پتانسیل آسیب‌های جدی، فاجعه‌بار، عمدی یا غیرعمدی را دارد که از مهم‌ترین قابلیت‌های این فناوری ناشی می‌شود». آنطور که کارشناسان و سیاستمداران کشور‌های مختلف می‌گویند؛ نباید «هوش مصنوعی» را شوخی گرفت. موضوعی که به‌مرور با استفاده کاربران مجازی در حال گسترش است. استفاده از این اصطلاح یعنی «هوش مصنوعی»، در سال ۲۰۲۳ چهاربرابر شده است و همه در مورد این پدیده نوظهور حرف می‌زنند.

جلوگیری از تکرار شکست

رضا قربانی، تحلیلگر فناوری درباره این رویداد می‌گوید: «برگزاری کنفرانس لندن را باید چنین نگاه کرد که اروپایی‌ها نمی‌خواهند یک‌باردیگر مقابل آمریکایی‌ها شکست‌خورده باشند. اکوسیستم فناوری در دنیا یکپارچه نیست. اکوسیستم فناوری آمریکا و اکوسیستم فناوری اروپا از یکدیگر مستقل و اتفاقاً گاهی مقابل هم هستند. اجلاس لندن، یک رخداد اروپایی است یعنی اروپایی‌ها اجلاسی را ترتیب دادند که پرچمدار آن پدیده، آمریکایی‌ها هستند.

اروپایی‌ها در برخی از گزاره‌ها بازی را به آمریکایی‌ها باختند. یکی از این شکست‌ها، شبکه‌‎های اجتماعی یا همان «وب دو» بود. اساساً پلتفرم‌های شبکه‌های اجتماعی در دنیا، اروپایی نیستند. اتفاقی که رخ‌داد این بود که پلتفرم‌های آمریکایی در خود اروپا نیز یک مسئله است.

چندی پیش قوانینی، چون «جی‌دی‌پی‌آر» یا «امنیت حفظ داده‌ها»، توسط اتحادیه اروپا تصویب شد تا اروپایی‌ها بتوانند کنترل اطلاعات خودشان را داشته باشند و اطلاعات کاربران قاره اروپا را در اختیار آمریکایی‌ها قرار ندهند. به‌همین‌دلیل برگزاری اجلاس لندن صرفاً به‌دلیل واکنش یکپارچه نسبت به هوش مصنوعی در تمام دنیا نیست، بلکه اروپایی‌ها می‌خواهند از همین ابتدا که هوش مصنوعی در حال رشد است، تنظیم‌گری این علم را طوری پیش ببرند که مثل رشد شبکه‌های اجتماعی بازنده‌ی داستان نباشند.

به این نکته نیز باید اذعان داشت که هوش مصنوعی قابل رگولاتوری است. به‌طورمثال تصاویری که با هوش مصنوعی ساخته و منتشر شده است. تنظیم‌گری هوش مصنوعی می‌تواند چنین باشد که افراد را ملزم کند هر کاربری که از هوش مصنوعی استفاده می‌کند، حتماً در گوشه‌ای از تصویر قید کرده باشد که این تصویر از هوش مصنوعی درست شده و اگر کسی تخطی کند، جرم شناخته شود. تابه‌حال ساخت و دستکاری تصویر در بسیاری از پروژه‌ها چنان جدی نبوده که به یک قانون تبدیل شود، اما حالا با پدیده‌ای روبه‌رو هستیم که یک تصویر یا عکس در واقعیت اصلاً وجود ندارد، اما به‌واسطه هوش مصنوعی چنین عکسی که اصلاً وجود خارجی ندارد، تولید و خلق می‌شود. حتماً یکی از مواردی که می‌تواند در تنظیم‌گری مصوب شود، الزام رعایت چنین قوانینی است. قبلاً قضیه «فیک‌نیوز» هم بود که یک کاربر، خبر اشتباهی را منتشر می‌کرد و به‌صورت گسترده پخش می‌شد. چنین تنظیم‌گری‌ای از هوش مصنوعی می‌تواند جلوی خبر‌های ساختگی را بگیرد.

البته ازاین‌منظر نیز باید توجه کرد که تنظیم‌گری می‌تواند به‌نوعی پیشرفت هوش مصنوعی را با کندی روبه‌رو کند. البته که ساخت بمب اتم هم به‌نوعی در راستای پیشرفت علم بود که با تصویب قوانینی، جلوی مضرات آن را گرفتند و کنترل کردند. شاید هوش مصنوعی نیز طوری پیش برود که تصویب قوانین، مانع از آسیب شود. حضور ایلان ماسک در اجلاس لندن نشان می‌دهد که حداقل فردی در این کنفرانس حضور دارد که نسبت به آینده هوش مصنوعی نگرانی بسیاری دارد.»

تنظیم‌گری با هدف محدودیت

از سوی دیگر دکتر رضا شاه‌نظر، پزشک و پژوهشگر هوش مصنوعی درباره تنظیم‌گری هوش مصنوعی معتقد است: باتوجه به ابعاد ناشناخته‌ای که هوش مصنوعی دارد و چندروز یک‌بار درخصوص توانمندی غیرقابل پیش‌بینی از این علم جدید مطالبی مطرح می‌شود، اینطور می‌توان به موضوع نگاه کرد که هوش مصنوعی، بیش از چیزی که امروز هست پیش برود و نگرانی‌های جدیدی را به وجود بیاورد. نگرانی‌هایی اعم از آسیب‌زدن به بسیاری از مشاغل که بحران‌های اجتماعی و اقتصادی بسیاری به یک کشور وارد می‌کند. همچنین ممکن است باتوجه به سازوکاری که بین کشور‌ها در نحوه ارتباطاتی در زمینه‌های مختلف وجود دارد نیز تاثیر بگذارد، به‌همین‌خاطر این نگرانی در سطح کلان کشور‌ها طبیعی است. مشابه کنفرانسی که در لندن برگزار شد، پیش‌تر در کشور‌های دیگر نیز ترتیب داده شده بود، اما اجلاس لندن کمی جدی‌تر از قبل است، چون به‌طبع پیشرفت هوش مصنوعی، نگرانی‌ها نیز افزایش یافته است.

واقعیت این است که باید بررسی کرد آیا هوش مصنوعی قابل رگولاتوری هست یا خیر و اینکه دولتمردان چطور این قوانین را اجرایی می‌کنند. قوانین معمولاً در آمریکا و اتحادیه اروپا ثابت کرده در یک سطوحی خوب اجرا می‌شود و اصول و قواعدی که تصویب‌شده، به‌درستی پیاده شده است. به‌طورمثال اتحادیه اروپا قانونی مصوب کرد که هیچ شرکتی حق ندارد برای خودش کابل اتصال شارژر جدیدی درنظر بگیرد که مختص خودش باشد، به‌همین‌دلیل شرکت بزرگی مثل اپل مجبور می‌شود از قوانین مصوب تبعیت کند. همچنین قوانینی که درخصوص «ترک‌کردن» دیتا‌های کاربران در اتحادیه اروپا تصویب شده، باعث شد تا سایت‌ها از کاربران اجازه بگیرند که می‌توانند از برخی اطلاعات کاربران استفاده کنند یا خیر.

البته تصویب قوانین مشخص در زمینه «هوش مصنوعی»، شاید برای شرکت‌های کوچک‌تر محدودکننده باشد تا شرکت‌‎های بزرگ و تاثیرگذار. چون مشخص نیست نظارت عمومی روی شرکت‌های بزرگ‌تر تا چه‌میزان وجود دارد. به‌هرحال، اما اقدامی است که ناگزیر باید به‌سمت‌اش رفت و به‌صورت‌کلی، بودن‌اش بهتر از نبودن آن است.

باید به این موضوع توجه کرد که «تنظیم‌گری» با هدف محدود و کنترل‌کردن هوش مصنوعی است که البته همین محدودکردن آن، هم می‌تواند خطرناک و هم مفید باشد. اینطور می‌توان نگاه کرد که تکنولوژی‌ای که قرار است در سطح کلان مطرح شود یا تعداد زیادی شغل موجود در دنیا را از بین ببرد، بهتر است با یک تنظیم‌گری پیش برود تا زمانی که افراد با بحران بیکاری روبه‌رو می‌شوند، بداند چه‌کاری باید انجام دهد. همچنین ازاین‌زاویه نیز می‌توان به ماجرا نگاه کرد که همین تنظیم‌گری، سرعت پیشرفت علم هوش مصنوعی را با کندی روبه‌رو خواهد ساخت.

برچسب ها: هوش مصنوعی
ارسال نظرات
نام:
ایمیل:
نظر: