فرارو- ظهور چت جیپیتی و سیستمهای هوش مصنوعی باعث افزایش نگرانیها در مورد آینده شده است. در چند ماه گذشته، برخی مدیران، کارشناسان و حتی سیاستمداران در مورد مشکلات عمدهای که استفاده کنترل نشده از هوش مصنوعی میتواند ایجاد کند، هشدار دادهاند. آنطور که منتقدین میگویند ظهور این تکنولوژی میتواند چندین شغل، درآمد، امنیت، انسانیت و حتی بقا بشریت تهدید کند.
به گزارش فرارو و به نقل از نشریه کانورسیشن، نگرانیها در می ۲۰۲۳ (خرداد ۱۴۰۲) به اوج خود رسید، زمانی که سازمان غیرانتفاعی تحقیقاتی و حمایتی مرکز ایمنی هوش مصنوعی بیانیهای تک جملهای منتشر کرد "کاهش خطر انقراض بشر از طریق هوش مصنوعی باید در کنار سایر خطرات اجتماعی مانند بیماریهای همه گیر و جنگ هستهای یک اولویت جهانی باشد" این بیانیه توسط بسیاری از بازیگران کلیدی در این زمینه، از جمله رهبران گوگل و آنتروپیک، و همچنین دو تن از به اصطلاح (پدرخواندههای) هوش مصنوعی امضا شد: جفری هینتون و یوشوا بنجیو.
ممکن است بپرسید که چنین ترسهایی چگونه ظاهر میشوند. یکی از سناریوهای معروف آزمایش فکری «بیشینه ساز گیره کاغذ» است که توسط فیلسوف آکسفورد نیک بوستروم بیان شد. ایده این آزمایش اینگونه است که یک سیستم هوش مصنوعی که وظیفه تولید هرچه بیشتر گیرههای کاغذ را دارد، ممکن است برای یافتن مواد اولیه دست به تخریب کارخانهها و ایجاد تصادفات رانندگی بزند یا یک هوش مصنوعی که وظیفه رزرو یک رستوران محبوب را دارد چراغهای راهنمایی را خاموش میکند تا از گرفتن میز توسط مشتریان و رسیدن آنها به مقصد جلوگیری کند، چون او اساسا وجدان انسانی را ندارد که ایمانوئل کانت فیلسوف آلمانی در قرن ۱۸ از آن سخن گفت.
هوش مصنوعی به سرعت در حال تبدیل شدن به یک هوش بیگانه است، در دستیابی به اهداف بسیار خوب است، اما خطرناک، زیرا لزوماً با ارزشهای اخلاقی سازندگانش همخوانی ندارد و در افراطیترین شکلش، این استدلال به نگرانیهای صریح در مورد بردگی یا نابودی نژاد بشر توسط هوش مصنوعی تبدیل میشود.
در سال گذشته، محققان در مرکز اخلاق کاربردی بوستون در حال بررسی تأثیر تعامل با هوش مصنوعی بر درک افراد از خودشان بوده و معتقد هستند که این اضطرابها بیش از حد افراطی و اشتباه هستند.
بله، توانایی هوش مصنوعی برای ایجاد ویدیو و صدای جعلی متقاعد کننده ترسناک است و میتواند توسط افراد با نیت بد مورد سوءاستفاده قرار گیرد.
در واقع، این اتفاق هماکنون هم به سادگی رخ میدهد مثلا عوامل روسی احتمالا سعی کردند با به دام انداختن بیل برودر، منتقد کرملین، او را در گفتگو با آواتار رئیس جمهور سابق اوکراین، پترو پوروشنکو،زمین بزنند یا مجرمان سایبری از شبیه سازی صوتی هوش مصنوعی برای انواع جرایم مانند دزدی با فناوری پیشرفته گرفته تا کلاهبرداریهای معمولی استفاده میکنند.
سیستمهای تصمیمگیری هوش مصنوعی که توصیههای تأیید وام و استخدام را ارائه میدهند، خطر سوگیری الگوریتمی را به همراه دارند، زیرا دادههای آموزشی و مدلهای تصمیمی که آنها بر روی آنها اجرا میکنند، منعکس کننده تعصبات اجتماعی طولانی مدت هستند. اینها مشکلات بزرگی است و توجه ویژه سیاستگذاران را میطلبد. اما در واقع بیش از هوش مصنوعی خود بشر این خطرات را رقم زده است.
در واقع یک خطر وجودی و ذاتی در هوش مصنوعی وجود دارد. این خطر بیشتر فلسفی است تا یک خطر ویرانگر و آخر الزمانی؛ اینکه هوش مصنوعی در شکل کنونی خود میتواند دیدگاه افراد را نسبت به خود تغییر دهد؟ میتواند تواناییها و تجربیاتی را که مردم برای انسان بودن ضروری میدانند، تنزل دهد. یعنی باعث بازنگری افراد درباره خود بشود.
به عنوان مثال، انسانها موجوداتی هستند که قضاوت میکنند؛ مردم به طور منطقی جزئیات را میسنجند و روزانه در محل کار و در اوقات فراغت در مورد اینکه چه کسی را استخدام کنند، چه کسی باید وام بگیرند، چه چیزی را تماشا کنند و ... قضاوت میکنند.
قضاوتها بیشتر و بیشتر خودکار میشوند و به الگوریتمها تبدیل میشوند، اما این اتفاق موجب پایان دنیا نمیشود. مردم به تدریج توانایی انجام این قضاوتها را از دست خواهند داد. قابلیتهای نوشتن چت جیپیتی را در نظر بگیرید. این فناوری در حال حذف نقش نوشتن تکالیف در آموزش عالی است. اگر چنین شود، مربیان یک ابزار کلیدی را برای آموزش تفکر انتقادی به دانش آموزان از دست خواهند داد.
بنابراین، هوش مصنوعی دنیا را منفجر نخواهد کرد. اما پذیرش غیرانتقادی آن، در انواع زمینههای محدود، به معنای فرسایش تدریجی برخی از مهمترین مهارتهای انسان است. الگوریتمها در حال حاضر توانایی افراد برای قضاوت کردن، لذت بردن از شانس یاتقویت تفکر انتقادی را تضعیف میکنند.
نوع بشر از چنین خساراتی جان سالم به در خواهد برد، اما راه وجودی ما در این روند ضعیف خواهد شد. نگرانیها شاید بیشتر به این جمله پایانی معروف الیوت در (مردان توخالی) نزدیکتر باشد که میگوید: این راهی است که دنیا به پایان میرسد، اما نه با صدای بلند.