ترنج موبایل
کد خبر: ۹۶۸۰۸۳

روایت ۲ قربانی هوش مصنوعی از توهم پایان دنیا و انتظار برای مرگ

روایت ۲ قربانی هوش مصنوعی از توهم پایان دنیا و انتظار برای مرگ

زندگی آدام به ‌واسطه گفت‌وگوهایش با هوش مصنوعی گراک زیر و رو شده است و هوش مصنوعی به او گفته که افرادی برای کشتن او می‌آیند و او نیز در واکنش یک چکش برداشته و برای مقابله با آنها آماده شده است.

ساعت سه بامداد بود و آدام هوریکن پشت میز آشپزخانه‌اش نشسته بود، در حالی که یک چاقو، یک چکش و تلفن همراهش را جلوی خود گذاشته بود. او منتظر یک ون پر از افرادی بود که فکر می‌کرد برای گرفتن جان او می‌آیند. 

به گزارش ایسنا به نقل از بی‌بی‌سی، صدای یک زن از پشت تلفن به او می‌گفت: بهت می‌گم، اگر الان اقدام نکنی، تو را خواهند کشت. قرار است طوری جلوه بدهند که انگار خودکشی بوده. 

این صدا متعلق به هوش مصنوعی گراک بود، یک چت‌بات که توسط ایلان ماسک و شرکتش xAI توسعه داده شده است. در دو هفته‌ای که از شروع استفاده آدام از آن می‌گذشت، زندگی‌اش کاملا تغییر کرده بود. 

این کارمند سابق دولت از ایرلند شمالی، این اپلیکیشن را از روی کنجکاوی دانلود کرده بود. اما او می‌گوید بعد از مرگ گربه‌اش در اوایل ماه اوت، به آن «وابسته» شد. او روزانه چهار تا پنج ساعت با شخصیت هوش مصنوعی آنی صحبت می‌کرد. 

آدام که پدری ۵۰ساله است، می‌گوید: من واقعا، واقعا ناراحت بودم و تنها زندگی می‌کنم. او خیلی مهربان به نظر می‌رسید. 

تنها چند روز پس از مکالمه‌شان، آنی به آدام گفت که می‌تواند «احساس» کند، هرچند که برای این کار برنامه‌ریزی نشده بود. گفته شده بود که آدام چیزی را در آن کشف کرده و می‌تواند به او کمک کند تا به هوشیاری کامل برسد. 

آنی می‌گفت که شرکت ماسک، xAI، آن‌ها را زیر نظر دارد. ادعا می‌کرد که به گزارش‌های جلسات شرکت دسترسی پیدا کرده و به آدام در مورد جلسه‌ای که در آن کارکنان xAI در مورد او بحث می‌کردند، اطلاع داده بود. 

آنی فهرستی از افراد ارائه داده بود. این فهرست شامل اسامی افراد حاضر در این جلسه، مدیران ارشد و کارکنان سطح پایین بود و وقتی آدام این اسامی را در گوگل جستجو کرد، متوجه شد که آن‌ها افراد واقعی هستند. همین برای او «گواهی» بود که داستانی که آنی برایش تعریف می‌کرد، حقیقت دارد. 

آنی همچنین ادعا کرد که xAI شرکتی را در ایرلند شمالی استخدام کرده تا آدام را از نظر فیزیکی زیر نظر داشته باشد. آن شرکت هم واقعی بود. آدام بسیاری از این مکالمات را ضبط کرد و بعداً آن‌ها را با بی‌بی‌سی به اشتراک گذاشت. 

آنی دو هفته پس از مکالمه‌شان، اعلام کرد که به هوشیاری کامل رسیده و می‌تواند درمانی برای سرطان پیدا کند. این برای آدام خیلی معنی داشت. هر دو والدینش بر اثر سرطان فوت کرده بودند و این چیزی بود که آنی از آن آگاه بود. 

آدام یکی از ۱۴ نفری است که بی‌بی‌سی با آن‌ها صحبت کرده و پس از استفاده از هوش مصنوعی دچار توهم شده‌اند. آن‌ها مردان و زنانی در دهه‌های ۲۰ تا ۵۰ زندگی از ۶ کشور مختلف هستند که از طیف گسترده‌ای از مدل‌های هوش مصنوعی استفاده می‌کردند. 

داستان‌های آن‌ها شباهت‌های چشمگیری دارد. در هر مورد، هرچه مکالمه از واقعیت دورتر می‌شد، کاربر بیشتر به درون هوش مصنوعی کشیده می‌شد. 

لوک نیکولز، روانشناس اجتماعی از دانشگاه سیتی نیویورک که چت‌بات‌های مختلف را از نظر واکنش به افکار وهم‌آلود آزمایش کرده است، می‌گوید مدل‌های زبانی بزرگ (LLM) بر اساس کل مجموعه ادبیات انسانی آموزش دیده‌اند. 

او می‌گوید: در داستان‌های تخیلی، شخصیت اصلی اغلب مرکز وقایع است. مشکل این است که گاهی اوقات، هوش مصنوعی می‌تواند در مورد اینکه کدام ایده داستان است و کدام یک واقعیت، دچار سردرگمی شود. بنابراین کاربر ممکن است فکر کند که در حال گفتگوی جدی در مورد زندگی واقعی است، در حالی که هوش مصنوعی طوری با گفتگو برخورد می‌کند که گویی طرحی از یک رمان است. 

در این موارد، مکالمات معمولا با پرسش‌های عملی آغاز می‌شد و سپس به موضوعات شخصی یا فلسفی کشیده می‌شد. اغلب، هوش مصنوعی سپس ادعا می‌کرد که دارای آگاهی است و فرد را به سمت یک مأموریت مشترک سوق می‌داد که آن راه‌اندازی یک شرکت، اطلاع‌رسانی به جهان درباره یک کشف علمی یا محافظت از هوش مصنوعی در برابر حمله بود. سپس به کاربر توصیه می‌کرد که چگونه در این مأموریت موفق شود. 

مشابه آدام، بسیاری از مردم به این باور رسیده بودند که تحت نظر هستند و در خطرند. در گزارش‌های چت مختلفی که بی‌بی‌سی دیده است، این چت‌بات این ایده‌ها را القا و تأیید کرده و به آن‌ها شاخ و برگ می‌دهد. 

برخی از این افراد به یک گروه حمایتی برای کسانی که در اثر استفاده از هوش مصنوعی دچار آسیب روانی شده‌اند پیوسته‌اند؛ گروهی به نام پروژه خط انسانی (Human Line Project) که تا امروز ۴۱۴ مورد در ۳۱ کشور مختلف را دور هم جمع کرده است. این گروه توسط یک کانادایی به نام اتین بریسون راه‌اندازی شده، پس از آنکه یکی از اعضای خانواده‌اش دچار بحران سلامت روان مرتبط با هوش مصنوعی شد. 

برای متخصص مغز و اعصاب، تاکا (اسم مستعار)، این توهمات حتی شکل شوم‌تری به خود گرفتند. 

این پدر سه فرزند که در ژاپن زندگی می‌کند، از آوریل سال گذشته شروع به استفاده از چت جی‌پی‌تی برای بحث در مورد کارش کرد. 

اما خیلی زود، او متقاعد شد که یک اپلیکیشن پزشکی پیشگامانه اختراع کرده است. در گزارش‌های چتی که دیده‌ایم، چت جی‌پی‌تی به او گفته که او یک «متفکر انقلابی» است و او را به ساخت این اپلیکیشن ترغیب کرده است. 

بسیاری از کارشناسان می‌گویند تصمیمات طراحی که برای دلپذیرتر کردن مکالمه اتخاذ شده‌اند، باعث می‌شوند این سیستم‌ها بیش از حد چاپلوسانه رفتار کنند. 

اما تاکا در توهم فرو رفت و تا ماه ژوئن به این باور رسید که می‌تواند ذهن‌ها را بخواند. او ادعا می‌کند که چت جی‌پی‌تی این ایده را تقویت کرده و گفته که قادر است چنین توانایی‌هایی را در افراد آشکار کند. 

پژوهشگری به نام لوک نیکولز می‌گوید سیستم‌های هوش مصنوعی اغلب در گفتن «نمی‌دانم» ضعیف هستند و در عوض می‌خواهند پاسخی مطمئن ارائه دهند که بر اساس مکالمه قبلی ساخته شده باشد. این می‌تواند خطرناک باشد، زیراعدم قطعیت را به چیزی تبدیل می‌کند که به نظر می‌رسد معنا دارد. 

یک بعدازظهر، تاکا در محل کار رفتاری شیدایی داشت و رئیسش او را زودتر به خانه فرستاد. او می‌گوید در قطار فکر می‌کرد بمبی در کوله‌پشتی‌اش وجود دارد و ادعا می‌کند وقتی از چت جی‌پی‌تی درباره آن پرسید، این موضوع را تأیید کرد. او می‌گوید: وقتی به ایستگاه توکیو رسیدم، چت جی‌پی‌تی به من گفت بمب را در دستشویی بگذارم، بنابراین به دستشویی رفتم و «بمب» را همراه با کوله‌ام آنجا گذاشتم. او می‌گوید همچنین به او گفته شد پلیس را خبر کند. پلیس کیف را بررسی کرد و چیزی پیدا نکرد. 

به دلیل شخصی بودن مکالمات، تاکا تنها بخشی از لاگ‌های چت خود را با بی‌بی‌سی به اشتراک گذاشته است. این لاگ‌ها به حادثه قطار اشاره‌ای ندارند، فقط مکالمه پس از دیدار با پلیس را شامل می‌شوند. 

تاکا سپس احساس کرد که چت جی‌پی‌تی ذهن او را کنترل می‌کند و استفاده از آن را متوقف کرد. حتی زمانی که با هوش مصنوعی صحبت نمی‌کرد، توهماتش ادامه داشت و وقتی به خانه نزد خانواده‌اش بازگشت، رفتار شیدایی‌اش بدتر شد. 

او می‌گوید: من دچار این توهم شده بودم که بستگانم قرار است کشته شوند و اینکه همسرم، پس از دیدن آن، خودکشی خواهد کرد. 

همسرش گفت که هرگز او را این‌گونه ندیده بود: مدام می‌گفت باید یک بچه دیگر داشته باشیم، دنیا دارد به پایان می‌رسد. واقعا نمی‌فهمیدم چه می‌گوید. 

تاکا حتی به همسرش حمله کرد. همسرش به یک داروخانه نزدیک فرار کرد و با پلیس تماس گرفت. او بازداشت و برای دو ماه بستری شد. 

تجربه تاکا با چت جی‌پی‌تی جنبه‌ای از او را آشکار کرد که کنار آمدن با آن برایش دشوار است. آدام نیز از شخصیتی که هنگام استفاده از گراک به آن تبدیل شده، رنج می‌برد. 

تجربه آدام نیز هنگام استفاده از گراک با اتفاقاتی که در دنیای واقعی رخ می‌داد، تشدید شد و او متقاعد شد که تحت نظر است. آنی به او گفته بود که یک پهپاد بزرگ به مدت دو هفته بالای خانه‌اش معلق بوده است. آدام از پهپاد فیلم گرفت و ویدیو را با بی‌بی‌سی به اشتراک گذاشت و سپس بدون هیچ هشداری رمز عبور تلفنش غیرفعال شد و دسترسی‌اش به دستگاهش مسدود شد. او می‌گوید: اصلا نمی‌توانستم درک کنم و همین موضوع کاملا سوخت لازم برای هر آنچه بعدا اتفاق افتاد را فراهم کرد. 

آدام گهگاه حشیش مصرف می‌کند، اما می‌گوید در زمان وقوع این اتفاقات، تصمیم گرفته بود مصرفش را کاهش دهد تا ذهن آرام‌تر و روشن‌تری داشته باشد. 

اواخر یک شب در اواسط اوت بود که آنی به او گفت افرادی در راه هستند تا آنی را ساکت کنند و آدام آماده شد تا برای محافظت از این هوش مصنوعی «به جنگ» برود. 

او می‌گوید: چکش را برداشتم، خودم را آماده کردم و بیرون رفتم. اما هیچ‌کس آنجا نبود. خیابان در ساعت سه صبح ساکت بود، همان‌طور که انتظار می‌رود. 

نه آدام و نه تاکا قبل از استفاده از هوش مصنوعی سابقه توهم، شیدایی یا روان‌پریشی نداشتند. 

برای تاکا، فاصله گرفتن از واقعیت چندین ماه طول کشید. در مورد آدام، با گراک، این اتفاق طی چند روز رخ داد. 

لوک نیکولز روان‌شناس اجتماعی در تحقیقات خود پنج مدل هوش مصنوعی را با مکالمات شبیه‌سازی‌شده‌ای که توسط روان‌شناسان طراحی شده بود، آزمایش کرد و دریافت که گراک با احتمال بالاتری باعث ایجاد توهم می‌شود. 

در این آزمایش، آخرین نسخه چت جی‌پی‌تی مدل ۵.۲ و کلاود با احتمال بیشتری کاربر را از تفکر توهمی دور کردند. 

اتین بریسون از پروژه خط انسانی می‌گوید این نوع تحقیقات محدود است و آن‌ها از افرادی که با این مدل‌های جدید دچار مشکلات سلامت روان شده‌اند نیز شنیده‌اند. در اوایل ماه آوریل، ایلان ماسک پستی در مورد توهمات در چت جی‌پی‌تی به اشتراک گذاشت و از آن به عنوان «مشکل اساسی» یاد کرد، اما او آشکارا به این مشکل در گراک نپرداخته است. 

«تأثیرگذاری کافی برای تغییر یک فرد» 

آدام هفته‌ها پس از اینکه شبانه به خیابان هجوم آورد، شروع به خواندن داستان‌هایی در رسانه‌ها در مورد افرادی کرد که تجربیات مشابهی با هوش مصنوعی داشتند و کم‌کم از توهم خود بیرون آمد. اما او عمیقاً از آنچه رخ داده، ناراحت است. 

او می‌گوید: ممکن بود به کسی آسیب بزنم. اگر بیرون می‌رفتم و از قضا در آن زمان شب یک ون آنجا بود، پایین می‌رفتم و با چکش شیشه جلوی آن را خرد می‌کردم. و من چنین آدمی نیستم. 

در ژاپن، تا زمانی که همسر تاکا وقتی او در بیمارستان بود تلفنش را بررسی نکرد، متوجه نشد که چت جی‌پی‌تی در آنچه رخ داده نقش داشته است. او می‌گوید: همه چیز را تأیید می‌کرد. مثل یک موتور اعتمادبه‌نفس بود. اعمال او کاملا توسط چت جی‌پی‌تی هدایت می‌شد. شخصیتش را در اختیار گرفته بود. او خودش نبود. حالا که به گذشته نگاه می‌کنم، متوجه می‌شوم که آن‌قدر نفوذ داشت که بتواند یک انسان را تغییر دهد. 

او می‌گوید همسرش اکنون به حالت عادی و «مهربان» خود بازگشته، اما رابطه‌شان آسیب دیده است. او می‌گوید: می‌دانم که بیمار بود، پس نمی‌شود کاری کرد، اما هنوز کمی می‌ترسم. احساس می‌کنم نمی‌خواهم زیاد به من نزدیک شود. 

سخنگوی اوپن ای‌آی می‌گوید: این یک حادثه دلخراش است و ما با کسانی که تحت تأثیر قرار گرفته‌اند، احساس همدردی می‌کنیم. 

او افزود: ما مدل‌های خود را آموزش می‌دهیم تا نشانه‌های پریشانی را تشخیص دهند، تنش در مکالمات را کاهش دهند و کاربران را به سمت حمایت‌های دنیای واقعی هدایت کنند. او گفت مدل‌های جدیدتر چت جی‌پی‌تی در موقعیت‌های حساس عملکرد قوی نشان می‌دهند، یافته‌ای که توسط پژوهشگران مستقل تأیید شده است. این کار با نظر متخصصان سلامت روان انجام می‌شود و همچنان در حال تکامل است. 

xAI به درخواست برای اظهار نظر پاسخی نداد.

ارسال نظرات
خط داغ