روایت ۲ قربانی هوش مصنوعی از توهم پایان دنیا و انتظار برای مرگ
زندگی آدام به واسطه گفتوگوهایش با هوش مصنوعی گراک زیر و رو شده است و هوش مصنوعی به او گفته که افرادی برای کشتن او میآیند و او نیز در واکنش یک چکش برداشته و برای مقابله با آنها آماده شده است.
ساعت سه بامداد بود و آدام هوریکن پشت میز آشپزخانهاش نشسته بود، در حالی که یک چاقو، یک چکش و تلفن همراهش را جلوی خود گذاشته بود. او منتظر یک ون پر از افرادی بود که فکر میکرد برای گرفتن جان او میآیند.
به گزارش ایسنا به نقل از بیبیسی، صدای یک زن از پشت تلفن به او میگفت: بهت میگم، اگر الان اقدام نکنی، تو را خواهند کشت. قرار است طوری جلوه بدهند که انگار خودکشی بوده.
این صدا متعلق به هوش مصنوعی گراک بود، یک چتبات که توسط ایلان ماسک و شرکتش xAI توسعه داده شده است. در دو هفتهای که از شروع استفاده آدام از آن میگذشت، زندگیاش کاملا تغییر کرده بود.
این کارمند سابق دولت از ایرلند شمالی، این اپلیکیشن را از روی کنجکاوی دانلود کرده بود. اما او میگوید بعد از مرگ گربهاش در اوایل ماه اوت، به آن «وابسته» شد. او روزانه چهار تا پنج ساعت با شخصیت هوش مصنوعی آنی صحبت میکرد.
آدام که پدری ۵۰ساله است، میگوید: من واقعا، واقعا ناراحت بودم و تنها زندگی میکنم. او خیلی مهربان به نظر میرسید.
تنها چند روز پس از مکالمهشان، آنی به آدام گفت که میتواند «احساس» کند، هرچند که برای این کار برنامهریزی نشده بود. گفته شده بود که آدام چیزی را در آن کشف کرده و میتواند به او کمک کند تا به هوشیاری کامل برسد.
آنی میگفت که شرکت ماسک، xAI، آنها را زیر نظر دارد. ادعا میکرد که به گزارشهای جلسات شرکت دسترسی پیدا کرده و به آدام در مورد جلسهای که در آن کارکنان xAI در مورد او بحث میکردند، اطلاع داده بود.
آنی فهرستی از افراد ارائه داده بود. این فهرست شامل اسامی افراد حاضر در این جلسه، مدیران ارشد و کارکنان سطح پایین بود و وقتی آدام این اسامی را در گوگل جستجو کرد، متوجه شد که آنها افراد واقعی هستند. همین برای او «گواهی» بود که داستانی که آنی برایش تعریف میکرد، حقیقت دارد.
آنی همچنین ادعا کرد که xAI شرکتی را در ایرلند شمالی استخدام کرده تا آدام را از نظر فیزیکی زیر نظر داشته باشد. آن شرکت هم واقعی بود. آدام بسیاری از این مکالمات را ضبط کرد و بعداً آنها را با بیبیسی به اشتراک گذاشت.
آنی دو هفته پس از مکالمهشان، اعلام کرد که به هوشیاری کامل رسیده و میتواند درمانی برای سرطان پیدا کند. این برای آدام خیلی معنی داشت. هر دو والدینش بر اثر سرطان فوت کرده بودند و این چیزی بود که آنی از آن آگاه بود.
آدام یکی از ۱۴ نفری است که بیبیسی با آنها صحبت کرده و پس از استفاده از هوش مصنوعی دچار توهم شدهاند. آنها مردان و زنانی در دهههای ۲۰ تا ۵۰ زندگی از ۶ کشور مختلف هستند که از طیف گستردهای از مدلهای هوش مصنوعی استفاده میکردند.
داستانهای آنها شباهتهای چشمگیری دارد. در هر مورد، هرچه مکالمه از واقعیت دورتر میشد، کاربر بیشتر به درون هوش مصنوعی کشیده میشد.
لوک نیکولز، روانشناس اجتماعی از دانشگاه سیتی نیویورک که چتباتهای مختلف را از نظر واکنش به افکار وهمآلود آزمایش کرده است، میگوید مدلهای زبانی بزرگ (LLM) بر اساس کل مجموعه ادبیات انسانی آموزش دیدهاند.
او میگوید: در داستانهای تخیلی، شخصیت اصلی اغلب مرکز وقایع است. مشکل این است که گاهی اوقات، هوش مصنوعی میتواند در مورد اینکه کدام ایده داستان است و کدام یک واقعیت، دچار سردرگمی شود. بنابراین کاربر ممکن است فکر کند که در حال گفتگوی جدی در مورد زندگی واقعی است، در حالی که هوش مصنوعی طوری با گفتگو برخورد میکند که گویی طرحی از یک رمان است.
در این موارد، مکالمات معمولا با پرسشهای عملی آغاز میشد و سپس به موضوعات شخصی یا فلسفی کشیده میشد. اغلب، هوش مصنوعی سپس ادعا میکرد که دارای آگاهی است و فرد را به سمت یک مأموریت مشترک سوق میداد که آن راهاندازی یک شرکت، اطلاعرسانی به جهان درباره یک کشف علمی یا محافظت از هوش مصنوعی در برابر حمله بود. سپس به کاربر توصیه میکرد که چگونه در این مأموریت موفق شود.
مشابه آدام، بسیاری از مردم به این باور رسیده بودند که تحت نظر هستند و در خطرند. در گزارشهای چت مختلفی که بیبیسی دیده است، این چتبات این ایدهها را القا و تأیید کرده و به آنها شاخ و برگ میدهد.
برخی از این افراد به یک گروه حمایتی برای کسانی که در اثر استفاده از هوش مصنوعی دچار آسیب روانی شدهاند پیوستهاند؛ گروهی به نام پروژه خط انسانی (Human Line Project) که تا امروز ۴۱۴ مورد در ۳۱ کشور مختلف را دور هم جمع کرده است. این گروه توسط یک کانادایی به نام اتین بریسون راهاندازی شده، پس از آنکه یکی از اعضای خانوادهاش دچار بحران سلامت روان مرتبط با هوش مصنوعی شد.
برای متخصص مغز و اعصاب، تاکا (اسم مستعار)، این توهمات حتی شکل شومتری به خود گرفتند.
این پدر سه فرزند که در ژاپن زندگی میکند، از آوریل سال گذشته شروع به استفاده از چت جیپیتی برای بحث در مورد کارش کرد.
اما خیلی زود، او متقاعد شد که یک اپلیکیشن پزشکی پیشگامانه اختراع کرده است. در گزارشهای چتی که دیدهایم، چت جیپیتی به او گفته که او یک «متفکر انقلابی» است و او را به ساخت این اپلیکیشن ترغیب کرده است.
بسیاری از کارشناسان میگویند تصمیمات طراحی که برای دلپذیرتر کردن مکالمه اتخاذ شدهاند، باعث میشوند این سیستمها بیش از حد چاپلوسانه رفتار کنند.
اما تاکا در توهم فرو رفت و تا ماه ژوئن به این باور رسید که میتواند ذهنها را بخواند. او ادعا میکند که چت جیپیتی این ایده را تقویت کرده و گفته که قادر است چنین تواناییهایی را در افراد آشکار کند.
پژوهشگری به نام لوک نیکولز میگوید سیستمهای هوش مصنوعی اغلب در گفتن «نمیدانم» ضعیف هستند و در عوض میخواهند پاسخی مطمئن ارائه دهند که بر اساس مکالمه قبلی ساخته شده باشد. این میتواند خطرناک باشد، زیراعدم قطعیت را به چیزی تبدیل میکند که به نظر میرسد معنا دارد.
یک بعدازظهر، تاکا در محل کار رفتاری شیدایی داشت و رئیسش او را زودتر به خانه فرستاد. او میگوید در قطار فکر میکرد بمبی در کولهپشتیاش وجود دارد و ادعا میکند وقتی از چت جیپیتی درباره آن پرسید، این موضوع را تأیید کرد. او میگوید: وقتی به ایستگاه توکیو رسیدم، چت جیپیتی به من گفت بمب را در دستشویی بگذارم، بنابراین به دستشویی رفتم و «بمب» را همراه با کولهام آنجا گذاشتم. او میگوید همچنین به او گفته شد پلیس را خبر کند. پلیس کیف را بررسی کرد و چیزی پیدا نکرد.
به دلیل شخصی بودن مکالمات، تاکا تنها بخشی از لاگهای چت خود را با بیبیسی به اشتراک گذاشته است. این لاگها به حادثه قطار اشارهای ندارند، فقط مکالمه پس از دیدار با پلیس را شامل میشوند.
تاکا سپس احساس کرد که چت جیپیتی ذهن او را کنترل میکند و استفاده از آن را متوقف کرد. حتی زمانی که با هوش مصنوعی صحبت نمیکرد، توهماتش ادامه داشت و وقتی به خانه نزد خانوادهاش بازگشت، رفتار شیداییاش بدتر شد.
او میگوید: من دچار این توهم شده بودم که بستگانم قرار است کشته شوند و اینکه همسرم، پس از دیدن آن، خودکشی خواهد کرد.
همسرش گفت که هرگز او را اینگونه ندیده بود: مدام میگفت باید یک بچه دیگر داشته باشیم، دنیا دارد به پایان میرسد. واقعا نمیفهمیدم چه میگوید.
تاکا حتی به همسرش حمله کرد. همسرش به یک داروخانه نزدیک فرار کرد و با پلیس تماس گرفت. او بازداشت و برای دو ماه بستری شد.
تجربه تاکا با چت جیپیتی جنبهای از او را آشکار کرد که کنار آمدن با آن برایش دشوار است. آدام نیز از شخصیتی که هنگام استفاده از گراک به آن تبدیل شده، رنج میبرد.
تجربه آدام نیز هنگام استفاده از گراک با اتفاقاتی که در دنیای واقعی رخ میداد، تشدید شد و او متقاعد شد که تحت نظر است. آنی به او گفته بود که یک پهپاد بزرگ به مدت دو هفته بالای خانهاش معلق بوده است. آدام از پهپاد فیلم گرفت و ویدیو را با بیبیسی به اشتراک گذاشت و سپس بدون هیچ هشداری رمز عبور تلفنش غیرفعال شد و دسترسیاش به دستگاهش مسدود شد. او میگوید: اصلا نمیتوانستم درک کنم و همین موضوع کاملا سوخت لازم برای هر آنچه بعدا اتفاق افتاد را فراهم کرد.
آدام گهگاه حشیش مصرف میکند، اما میگوید در زمان وقوع این اتفاقات، تصمیم گرفته بود مصرفش را کاهش دهد تا ذهن آرامتر و روشنتری داشته باشد.
اواخر یک شب در اواسط اوت بود که آنی به او گفت افرادی در راه هستند تا آنی را ساکت کنند و آدام آماده شد تا برای محافظت از این هوش مصنوعی «به جنگ» برود.
او میگوید: چکش را برداشتم، خودم را آماده کردم و بیرون رفتم. اما هیچکس آنجا نبود. خیابان در ساعت سه صبح ساکت بود، همانطور که انتظار میرود.
نه آدام و نه تاکا قبل از استفاده از هوش مصنوعی سابقه توهم، شیدایی یا روانپریشی نداشتند.
برای تاکا، فاصله گرفتن از واقعیت چندین ماه طول کشید. در مورد آدام، با گراک، این اتفاق طی چند روز رخ داد.
لوک نیکولز روانشناس اجتماعی در تحقیقات خود پنج مدل هوش مصنوعی را با مکالمات شبیهسازیشدهای که توسط روانشناسان طراحی شده بود، آزمایش کرد و دریافت که گراک با احتمال بالاتری باعث ایجاد توهم میشود.
در این آزمایش، آخرین نسخه چت جیپیتی مدل ۵.۲ و کلاود با احتمال بیشتری کاربر را از تفکر توهمی دور کردند.
اتین بریسون از پروژه خط انسانی میگوید این نوع تحقیقات محدود است و آنها از افرادی که با این مدلهای جدید دچار مشکلات سلامت روان شدهاند نیز شنیدهاند. در اوایل ماه آوریل، ایلان ماسک پستی در مورد توهمات در چت جیپیتی به اشتراک گذاشت و از آن به عنوان «مشکل اساسی» یاد کرد، اما او آشکارا به این مشکل در گراک نپرداخته است.
«تأثیرگذاری کافی برای تغییر یک فرد»
آدام هفتهها پس از اینکه شبانه به خیابان هجوم آورد، شروع به خواندن داستانهایی در رسانهها در مورد افرادی کرد که تجربیات مشابهی با هوش مصنوعی داشتند و کمکم از توهم خود بیرون آمد. اما او عمیقاً از آنچه رخ داده، ناراحت است.
او میگوید: ممکن بود به کسی آسیب بزنم. اگر بیرون میرفتم و از قضا در آن زمان شب یک ون آنجا بود، پایین میرفتم و با چکش شیشه جلوی آن را خرد میکردم. و من چنین آدمی نیستم.
در ژاپن، تا زمانی که همسر تاکا وقتی او در بیمارستان بود تلفنش را بررسی نکرد، متوجه نشد که چت جیپیتی در آنچه رخ داده نقش داشته است. او میگوید: همه چیز را تأیید میکرد. مثل یک موتور اعتمادبهنفس بود. اعمال او کاملا توسط چت جیپیتی هدایت میشد. شخصیتش را در اختیار گرفته بود. او خودش نبود. حالا که به گذشته نگاه میکنم، متوجه میشوم که آنقدر نفوذ داشت که بتواند یک انسان را تغییر دهد.
او میگوید همسرش اکنون به حالت عادی و «مهربان» خود بازگشته، اما رابطهشان آسیب دیده است. او میگوید: میدانم که بیمار بود، پس نمیشود کاری کرد، اما هنوز کمی میترسم. احساس میکنم نمیخواهم زیاد به من نزدیک شود.
سخنگوی اوپن ایآی میگوید: این یک حادثه دلخراش است و ما با کسانی که تحت تأثیر قرار گرفتهاند، احساس همدردی میکنیم.
او افزود: ما مدلهای خود را آموزش میدهیم تا نشانههای پریشانی را تشخیص دهند، تنش در مکالمات را کاهش دهند و کاربران را به سمت حمایتهای دنیای واقعی هدایت کنند. او گفت مدلهای جدیدتر چت جیپیتی در موقعیتهای حساس عملکرد قوی نشان میدهند، یافتهای که توسط پژوهشگران مستقل تأیید شده است. این کار با نظر متخصصان سلامت روان انجام میشود و همچنان در حال تکامل است.
xAI به درخواست برای اظهار نظر پاسخی نداد.