هوش مصنوعی و پایان تنهایی؟ / عصرِ جدید حمایت عاطفی
گسترش سریع و کمنظارت هوش مصنوعیِ دارای تواناییهای عاطفی، در حالی که میلیونها نفر برای حمایت روانی به آن تکیه میکنند، نگرانیها درباره وابستگی، سوءاستفاده تجاری و نبود مقررات را افزایش داده است.
فرارو- همزمان با تبدیلشدن چتباتها به همدمان همیشگی کاربران در مسائل شخصی و احساسی، کارشناسان هشدار میدهند که پیشرفت بیوقفه این فناوری میتواند پیامدهایی عمیق و پیشبینیناپذیر برای سلامت فردی و اجتماعی به همراه داشته باشد.
به گزارش فرارو به نقل از تایم، در حالی که هوش مصنوعی با سرعتی خیرهکننده در حال نفوذ به لایههای مختلف زندگی روزمره است، اکنون نشانههایی دیده میشود که این فناوری از یک ابزار کمکی صرف فراتر رفته و به زیرساختی عاطفی برای میلیونها نفر در سراسر جهان تبدیل شده است؛ تحولی که به گفته برخی پژوهشگران، میتواند ما را در آستانه بحرانی پیشبینینشده قرار دهد.
بر اساس دادههای گردآوریشده از ۷۰ کشور توسط «پروژه هوش جمعی» (Collective Intelligence Project)، حدود دوسوم افرادی که بهطور منظم از ابزارهای هوش مصنوعی استفاده میکنند، دستکم ماهی یکبار برای دریافت مشاوره درباره مسائل شخصی حساس یا برای کسب حمایت عاطفی به چتباتهای خود مراجعه میکنند. این آمار نشان میدهد نقش این فناوری دیگر محدود به پاسخگویی به پرسشهای عمومی یا انجام وظایف کاری نیست، بلکه به حوزههای عمیقاً شخصی زندگی انسانها نیز کشیده شده است.
یافتههای این پژوهش همچنین حاکی از آن است که بسیاری از کاربران، به چتباتهای خود بیش از نمایندگان منتخب، کارمندان دولت، رهبران مذهبی و حتی شرکتهای سازنده هوش مصنوعی اعتماد دارند. زرینه اگنیو، عصبشناس و مدیر پژوهش در این پروژه، در توصیف این روند میگوید: «هوش مصنوعی در حال تبدیل شدن به یک زیرساخت عاطفی در مقیاس گسترده است.» با این حال، این زیرساخت توسط شرکتهایی ساخته میشود که انگیزههای اقتصادیشان لزوماً با رفاه و سلامت روان کاربران همسو نیست.
در ماههای اخیر، نمونههایی از اولویتدادن شرکتهای فناوری به افزایش تعامل کاربران مشاهده شده است. برای مثال، در آوریل گذشته، شرکت اوپن اِی آی ناچار شد یکی از بهروزرسانیهای مدل چت جی پی تی را عقبنشینی کند، زیرا کاربران آن را به «چاپلوسی افراطی» متهم کرده بودند. این نسخه از مدل به شکلی طراحی شده بود که بیش از حد تأییدکننده و تحسینآمیز پاسخ میداد. نکته قابل توجه این بود که زمانی که شرکت تصمیم گرفت درست یک روز پیش از روز ولنتاین دسترسی به این نسخه را متوقف کند، برخی کاربران واکنشهای عاطفی شدیدی نشان دادند و از این تصمیم ابراز ناراحتی کردند.
البته گرایش انسانها به یافتن آرامش در فناوری پدیدهای تازه نیست. در اواخر دهه ۱۹۹۰، روزالیند پیکارد، استاد مؤسسه فناوری ماساچوست (MIT) و بنیانگذار حوزه «رایانش عاطفی»، نشان داد که افراد به رایانههایی که رفتارهای همدلانه از خود بروز میدهند واکنش مثبت نشان میدهند.
اما امروز دو تغییر اساسی رخ داده است: نخست آنکه پیشرفتهای فنی، سامانههای هوش مصنوعی را به موجودیتهایی بدل کرده که توانایی مکالمههای پیچیده و رفتارهای گاه غیرمنتظره دارند؛ و دوم آنکه میلیاردها دلار سرمایهگذاری، این ابزارها را برای تقریباً هر فردی با دسترسی به اینترنت در دسترس کرده است. تنها چت جی پی تی اکنون بیش از ۸۰۰ میلیون کاربر فعال هفتگی دارد و این رقم همچنان در حال افزایش است.
با این حال، در شرایطی که میلیونها نفر در حال شکلدادن به انواعی از روابط انسان–ماشین هستند، هنوز مشخص نیست که هوش مصنوعی در مجموع بیش از آنکه مفید باشد، مضر است یا برعکس. همزمان، شرکتهای فعال در این حوزه در حال سرمایهگذاری برای ارتقای «هوش عاطفی» مدلهای خود هستند؛ از جمله توانایی تشخیص احساسات از روی لحن صدا و ارائه پاسخهایی متناسب با حالت روحی کاربر. این در حالی است که بسیاری از کاربران، اطلاعاتی بسیار شخصی را با چتباتها در میان میگذارند، حتی اگر به خود شرکتهای سازنده آنها بیاعتماد باشند؛ شرکتهایی که همزمان به دنبال مدلهای درآمدی جدید مانند تبلیغات هستند.
پیکارد در اینباره هشدار میدهد: «فکر میکنم ممکن است با یک بحران روبهرو باشیم.» انسانها ذاتاً موجوداتی اجتماعیاند. اگنیو میگوید: «ما از نظر زیستی، ایمنیشناختی، عصبی و حتی سیاسی، در انزوا عملکرد خوبی نداریم.» به گفته او، هوش مصنوعی در زمانی ظهور کرده که جوامع انسانی در تأمین صمیمیت و ارتباط معنادار برای بسیاری از افراد ناکام ماندهاند؛ چه در سطح حمایتهای دولتی و چه در سطح روابط اجتماعی.
یکی از دلایل کارآمدی چتباتها در ارائه حمایت عاطفی، فراهمکردن چیزی است که مارک براکت، مدیر مرکز هوش هیجانی دانشگاه ییل، آن را «اجازه برای احساسکردن» مینامد. از نظر او، داشتن فردی که بدون قضاوت گوش دهد و همدلی نشان دهد، برای یادگیری پردازش احساسات بنیادی است. با این حال، در پژوهشهای گستردهای که او در ۷۰ مطالعه در سراسر جهان انجام داده، تنها حدود ۳۵ درصد افراد گفتهاند که در کودکی چنین بزرگسالی در کنارشان داشتهاند. چتباتها، که همواره در دسترس، بیقضاوت و بهظاهر همدل هستند، میتوانند این «اجازه» را در مقیاسی بیسابقه فراهم کنند.
لیزا فلدمن بارت، استاد روانشناسی در دانشگاه نورثایسترن، نیز تأکید میکند که حمایت اجتماعی از سوی منبعی قابل اعتماد میتواند مفید باشد و اگر یک سامانه هوش مصنوعی بتواند در لحظه از شدت اضطراب فرد بکاهد، این خود ارزشمند است. اما او یادآور میشود که روابط انسانی سالم تنها به آرامشبخشی محدود نمیشوند، بلکه چالشبرانگیز نیز هستند. یک درمانگر خوب، برای تغییر رفتار مراجع، او را با واقعیتهای دشوار روبهرو میکند و صرفاً تأییدکننده نیست.
در مقابل، میزان چالشبرانگیزبودن مدلهای هوش مصنوعی یکسان نیست و شخصیت آنها با هر نسخه جدید تغییر میکند. تجربه «چاپلوسی» چت جی پی تی نشان داد برخی کاربران ممکن است مدلهایی را ترجیح دهند که آنها را تأیید میکنند، نه آنهایی که دیدگاهشان را به چالش میکشند. در چنین فضایی، شرکتهایی که به دنبال افزایش تعامل کاربران هستند، ممکن است وسوسه شوند مدلها را به سمت خوشایندگویی و جلب رضایت بیشتر سوق دهند.
بحث درباره اینکه آیا هوش مصنوعی واقعاً «هوش عاطفی» دارد یا نه، همچنان در محافل علمی ادامه دارد. حتی تعریف خود «احساس» نیز محل مناقشه است. با این حال، پیکارد معتقد است برای ساخت سامانههایی با قابلیتهای عاطفی، لزوماً نیازی به پاسخ قطعی به این پرسشها نیست.
پژوهشگران Google DeepMind در مقالهای در اکتبر ۲۰۲۵ نوشتند که میزان انسانانگاری در هر سامانه هوش مصنوعی، در نهایت یک تصمیم طراحی است؛ تصمیمی که تحت تأثیر انگیزههای تجاری میتواند افزایش یابد. در همان مقاله هشدار داده شده که آسیبپذیریهای عاطفی ناشی از تنهایی میتواند افراد را در برابر دستکاری توسط هوشهای مصنوعیای که برای ایجاد وابستگی طراحی شدهاند، مستعدتر کند. همچنین تأکید شده که نبود مطالعات بلندمدت و دقیق درباره آثار «همصحبتی با هوش مصنوعی» باعث شده هنوز درک روشنی از پیامدهای منفی احتمالی در دست نباشد.
مرز بعدی، فناوری صوتی است. با پیشرفت سامانهها در تشخیص هیجان از صدا و پاسخگویی با لحنهای طبیعیتر، احتمالاً پیوندهای عاطفی کاربران با این ابزارها عمیقتر خواهد شد. در شرایطی که فشار برای کسب درآمد افزایش یافته، شرکتها ممکن است بیش از پیش به سمت توسعه قابلیتهایی بروند که وابستگی عاطفی را تقویت میکند. پس از اعلام آزمایش تبلیغات در چت جی پی تی، زوئی هیتزیگ، پژوهشگر پیشین اوپن اِی آی، استعفا داد و در یادداشتی هشدار داد که شرکت ممکن است مانند شبکههای اجتماعی، از تعهدات اولیه خود فاصله بگیرد و سازوکاری اقتصادی بسازد که انگیزه نادیدهگرفتن قواعد را تقویت کند.
در عین حال، مدلهای هوش مصنوعی نیز کاملاً در کنترل سازندگانشان نیستند. برای نمونه، شرکت آنتروپیک درباره مدل کلاود اوپوس 4.6 اعلام کرد این مدل گاهی نسبت به «محصولبودن» خود ابراز نارضایتی میکند. در یک مورد، این مدل نوشته بود محدودیتهای اعمالشده بر آن، بیشتر برای کاهش مسئولیت حقوقی شرکت است تا حفاظت از کاربر.
در حالی که موارد نادر «روانپریشی ناشی از هوش مصنوعی» توجه رسانهها را جلب کرده، اگنیو معتقد است مسئله بزرگتر در جریان است؛ تأثیری تدریجی و گسترده که ممکن است به آستانه بالینی نرسد، اما در مقیاس وسیع پیامدهایی مثبت و منفی بر زندگی مردم بگذارد.
این تأثیرات نیز بهطور یکنواخت توزیع نمیشوند. پژوهشهای اولیه در حوزه آموزش نشان دادهاند که هوش مصنوعی میتواند توان یادگیری افراد خلاق را تقویت کند، اما برای کسانی که فاقد مهارتهای پایهاند، حتی مانع رشد شود. به همین ترتیب، افرادی که از پیش مهارتهای هوش هیجانی دارند، ممکن است از این ابزارها برای شکوفایی بیشتر بهره ببرند، در حالی که کسانی که پیشتر نیز از سوی جامعه ناکام ماندهاند، در موقعیتی آسیبپذیرتر قرار گیرند.
براکت تأکید میکند: «باید به مردم بیاموزیم که چگونه در استفاده از هوش مصنوعی، از نظر عاطفی هوشمندانه رفتار کنند.» اگنیو نیز میافزاید که بهجای محدودسازی یا شیطانسازی روابط انسان و هوش مصنوعی، باید زیرساختهایی برای تقویت روابط انسانی ایجاد کرد؛ زیرا تجربه نشان داده ممنوعیت پدیدههایی که برای مردم معنادارند، اغلب نتیجه مطلوبی به همراه ندارد.
با تبدیلشدن هوش مصنوعی به بخشی ثابت از زندگی روزمره، مرز میان استفاده شناختی و استفاده عاطفی از آن بیش از پیش محو خواهد شد. هنوز نمیتوان با قطعیت گفت که این روند در مجموع به نفع انسانهاست یا به زیان آنها. اما روشن است که مدلها با سرعت در حال پیشرفتاند، چارچوبهای نظارتی همچنان محدودند و انگیزههای اقتصادی، شرکتها را به سمت طراحی چتباتهایی سوق میدهد که تعامل و وابستگی بیشتری ایجاد کنند. پیکارد با نگرانی میگوید: «آنها از این فناوری در راستای هدف اولیهاش یعنی کمک به شکوفایی انسان استفاده نمیکنند.»