ترنج موبایل
کد خبر: ۹۵۱۸۲۸

هوش مصنوعی و پایان تنهایی؟ / عصرِ جدید حمایت عاطفی

هوش مصنوعی و پایان تنهایی؟ / عصرِ جدید حمایت عاطفی

گسترش سریع و کم‌نظارت هوش مصنوعیِ دارای توانایی‌های عاطفی، در حالی که میلیون‌ها نفر برای حمایت روانی به آن تکیه می‌کنند، نگرانی‌ها درباره وابستگی، سوءاستفاده تجاری و نبود مقررات را افزایش داده است.

فرارو- هم‌زمان با تبدیل‌شدن چت‌بات‌ها به همدمان همیشگی کاربران در مسائل شخصی و احساسی، کارشناسان هشدار می‌دهند که پیشرفت بی‌وقفه این فناوری می‌تواند پیامدهایی عمیق و پیش‌بینی‌ناپذیر برای سلامت فردی و اجتماعی به همراه داشته باشد.

به گزارش فرارو به نقل از تایم، در حالی که هوش مصنوعی با سرعتی خیره‌کننده در حال نفوذ به لایه‌های مختلف زندگی روزمره است، اکنون نشانه‌هایی دیده می‌شود که این فناوری از یک ابزار کمکی صرف فراتر رفته و به زیرساختی عاطفی برای میلیون‌ها نفر در سراسر جهان تبدیل شده است؛ تحولی که به گفته برخی پژوهشگران، می‌تواند ما را در آستانه بحرانی پیش‌بینی‌نشده قرار دهد.

بر اساس داده‌های گردآوری‌شده از ۷۰ کشور توسط «پروژه هوش جمعی» (Collective Intelligence Project)، حدود دوسوم افرادی که به‌طور منظم از ابزارهای هوش مصنوعی استفاده می‌کنند، دست‌کم ماهی یک‌بار برای دریافت مشاوره درباره مسائل شخصی حساس یا برای کسب حمایت عاطفی به چت‌بات‌های خود مراجعه می‌کنند. این آمار نشان می‌دهد نقش این فناوری دیگر محدود به پاسخ‌گویی به پرسش‌های عمومی یا انجام وظایف کاری نیست، بلکه به حوزه‌های عمیقاً شخصی زندگی انسان‌ها نیز کشیده شده است.

یافته‌های این پژوهش همچنین حاکی از آن است که بسیاری از کاربران، به چت‌بات‌های خود بیش از نمایندگان منتخب، کارمندان دولت، رهبران مذهبی و حتی شرکت‌های سازنده هوش مصنوعی اعتماد دارند. زرینه اگنیو، عصب‌شناس و مدیر پژوهش در این پروژه، در توصیف این روند می‌گوید: «هوش مصنوعی در حال تبدیل شدن به یک زیرساخت عاطفی در مقیاس گسترده است.» با این حال، این زیرساخت توسط شرکت‌هایی ساخته می‌شود که انگیزه‌های اقتصادی‌شان لزوماً با رفاه و سلامت روان کاربران همسو نیست.

در ماه‌های اخیر، نمونه‌هایی از اولویت‌دادن شرکت‌های فناوری به افزایش تعامل کاربران مشاهده شده است. برای مثال، در آوریل گذشته، شرکت اوپن اِی آی ناچار شد یکی از به‌روزرسانی‌های مدل چت جی پی تی را عقب‌نشینی کند، زیرا کاربران آن را به «چاپلوسی افراطی» متهم کرده بودند. این نسخه از مدل به شکلی طراحی شده بود که بیش از حد تأییدکننده و تحسین‌آمیز پاسخ می‌داد. نکته قابل توجه این بود که زمانی که شرکت تصمیم گرفت درست یک روز پیش از روز ولنتاین دسترسی به این نسخه را متوقف کند، برخی کاربران واکنش‌های عاطفی شدیدی نشان دادند و از این تصمیم ابراز ناراحتی کردند.

البته گرایش انسان‌ها به یافتن آرامش در فناوری پدیده‌ای تازه نیست. در اواخر دهه ۱۹۹۰، روزالیند پیکارد، استاد مؤسسه فناوری ماساچوست (MIT) و بنیان‌گذار حوزه «رایانش عاطفی»، نشان داد که افراد به رایانه‌هایی که رفتارهای همدلانه از خود بروز می‌دهند واکنش مثبت نشان می‌دهند.

اما امروز دو تغییر اساسی رخ داده است: نخست آن‌که پیشرفت‌های فنی، سامانه‌های هوش مصنوعی را به موجودیت‌هایی بدل کرده که توانایی مکالمه‌های پیچیده و رفتارهای گاه غیرمنتظره دارند؛ و دوم آن‌که میلیاردها دلار سرمایه‌گذاری، این ابزارها را برای تقریباً هر فردی با دسترسی به اینترنت در دسترس کرده است. تنها چت جی پی تی اکنون بیش از ۸۰۰ میلیون کاربر فعال هفتگی دارد و این رقم همچنان در حال افزایش است.

با این حال، در شرایطی که میلیون‌ها نفر در حال شکل‌دادن به انواعی از روابط انسان–ماشین هستند، هنوز مشخص نیست که هوش مصنوعی در مجموع بیش از آن‌که مفید باشد، مضر است یا برعکس. هم‌زمان، شرکت‌های فعال در این حوزه در حال سرمایه‌گذاری برای ارتقای «هوش عاطفی» مدل‌های خود هستند؛ از جمله توانایی تشخیص احساسات از روی لحن صدا و ارائه پاسخ‌هایی متناسب با حالت روحی کاربر. این در حالی است که بسیاری از کاربران، اطلاعاتی بسیار شخصی را با چت‌بات‌ها در میان می‌گذارند، حتی اگر به خود شرکت‌های سازنده آن‌ها بی‌اعتماد باشند؛ شرکت‌هایی که هم‌زمان به دنبال مدل‌های درآمدی جدید مانند تبلیغات هستند.

پیکارد در این‌باره هشدار می‌دهد: «فکر می‌کنم ممکن است با یک بحران روبه‌رو باشیم.» انسان‌ها ذاتاً موجوداتی اجتماعی‌اند. اگنیو می‌گوید: «ما از نظر زیستی، ایمنی‌شناختی، عصبی و حتی سیاسی، در انزوا عملکرد خوبی نداریم.» به گفته او، هوش مصنوعی در زمانی ظهور کرده که جوامع انسانی در تأمین صمیمیت و ارتباط معنادار برای بسیاری از افراد ناکام مانده‌اند؛ چه در سطح حمایت‌های دولتی و چه در سطح روابط اجتماعی.

یکی از دلایل کارآمدی چت‌بات‌ها در ارائه حمایت عاطفی، فراهم‌کردن چیزی است که مارک براکت، مدیر مرکز هوش هیجانی دانشگاه ییل، آن را «اجازه برای احساس‌کردن» می‌نامد. از نظر او، داشتن فردی که بدون قضاوت گوش دهد و همدلی نشان دهد، برای یادگیری پردازش احساسات بنیادی است. با این حال، در پژوهش‌های گسترده‌ای که او در ۷۰ مطالعه در سراسر جهان انجام داده، تنها حدود ۳۵ درصد افراد گفته‌اند که در کودکی چنین بزرگسالی در کنارشان داشته‌اند. چت‌بات‌ها، که همواره در دسترس، بی‌قضاوت و به‌ظاهر همدل هستند، می‌توانند این «اجازه» را در مقیاسی بی‌سابقه فراهم کنند.

لیزا فلدمن بارت، استاد روان‌شناسی در دانشگاه نورث‌ایسترن، نیز تأکید می‌کند که حمایت اجتماعی از سوی منبعی قابل اعتماد می‌تواند مفید باشد و اگر یک سامانه هوش مصنوعی بتواند در لحظه از شدت اضطراب فرد بکاهد، این خود ارزشمند است. اما او یادآور می‌شود که روابط انسانی سالم تنها به آرامش‌بخشی محدود نمی‌شوند، بلکه چالش‌برانگیز نیز هستند. یک درمانگر خوب، برای تغییر رفتار مراجع، او را با واقعیت‌های دشوار روبه‌رو می‌کند و صرفاً تأییدکننده نیست.

در مقابل، میزان چالش‌برانگیزبودن مدل‌های هوش مصنوعی یکسان نیست و شخصیت آن‌ها با هر نسخه جدید تغییر می‌کند. تجربه «چاپلوسی» چت جی پی تی نشان داد برخی کاربران ممکن است مدل‌هایی را ترجیح دهند که آن‌ها را تأیید می‌کنند، نه آن‌هایی که دیدگاهشان را به چالش می‌کشند. در چنین فضایی، شرکت‌هایی که به دنبال افزایش تعامل کاربران هستند، ممکن است وسوسه شوند مدل‌ها را به سمت خوشایندگویی و جلب رضایت بیشتر سوق دهند.

بحث درباره این‌که آیا هوش مصنوعی واقعاً «هوش عاطفی» دارد یا نه، همچنان در محافل علمی ادامه دارد. حتی تعریف خود «احساس» نیز محل مناقشه است. با این حال، پیکارد معتقد است برای ساخت سامانه‌هایی با قابلیت‌های عاطفی، لزوماً نیازی به پاسخ قطعی به این پرسش‌ها نیست.

پژوهشگران Google DeepMind در مقاله‌ای در اکتبر ۲۰۲۵ نوشتند که میزان انسان‌انگاری در هر سامانه هوش مصنوعی، در نهایت یک تصمیم طراحی است؛ تصمیمی که تحت تأثیر انگیزه‌های تجاری می‌تواند افزایش یابد. در همان مقاله هشدار داده شده که آسیب‌پذیری‌های عاطفی ناشی از تنهایی می‌تواند افراد را در برابر دستکاری توسط هوش‌های مصنوعی‌ای که برای ایجاد وابستگی طراحی شده‌اند، مستعدتر کند. همچنین تأکید شده که نبود مطالعات بلندمدت و دقیق درباره آثار «هم‌صحبتی با هوش مصنوعی» باعث شده هنوز درک روشنی از پیامدهای منفی احتمالی در دست نباشد.

مرز بعدی، فناوری صوتی است. با پیشرفت سامانه‌ها در تشخیص هیجان از صدا و پاسخ‌گویی با لحن‌های طبیعی‌تر، احتمالاً پیوندهای عاطفی کاربران با این ابزارها عمیق‌تر خواهد شد. در شرایطی که فشار برای کسب درآمد افزایش یافته، شرکت‌ها ممکن است بیش از پیش به سمت توسعه قابلیت‌هایی بروند که وابستگی عاطفی را تقویت می‌کند. پس از اعلام آزمایش تبلیغات در چت جی پی تی، زوئی هیتزیگ، پژوهشگر پیشین اوپن اِی آی، استعفا داد و در یادداشتی هشدار داد که شرکت ممکن است مانند شبکه‌های اجتماعی، از تعهدات اولیه خود فاصله بگیرد و سازوکاری اقتصادی بسازد که انگیزه نادیده‌گرفتن قواعد را تقویت کند.

در عین حال، مدل‌های هوش مصنوعی نیز کاملاً در کنترل سازندگانشان نیستند. برای نمونه، شرکت آنتروپیک درباره مدل کلاود اوپوس 4.6 اعلام کرد این مدل گاهی نسبت به «محصول‌بودن» خود ابراز نارضایتی می‌کند. در یک مورد، این مدل نوشته بود محدودیت‌های اعمال‌شده بر آن، بیشتر برای کاهش مسئولیت حقوقی شرکت است تا حفاظت از کاربر.

در حالی که موارد نادر «روان‌پریشی ناشی از هوش مصنوعی» توجه رسانه‌ها را جلب کرده، اگنیو معتقد است مسئله بزرگ‌تر در جریان است؛ تأثیری تدریجی و گسترده که ممکن است به آستانه بالینی نرسد، اما در مقیاس وسیع پیامدهایی مثبت و منفی بر زندگی مردم بگذارد.

این تأثیرات نیز به‌طور یکنواخت توزیع نمی‌شوند. پژوهش‌های اولیه در حوزه آموزش نشان داده‌اند که هوش مصنوعی می‌تواند توان یادگیری افراد خلاق را تقویت کند، اما برای کسانی که فاقد مهارت‌های پایه‌اند، حتی مانع رشد شود. به همین ترتیب، افرادی که از پیش مهارت‌های هوش هیجانی دارند، ممکن است از این ابزارها برای شکوفایی بیشتر بهره ببرند، در حالی که کسانی که پیش‌تر نیز از سوی جامعه ناکام مانده‌اند، در موقعیتی آسیب‌پذیرتر قرار گیرند.

براکت تأکید می‌کند: «باید به مردم بیاموزیم که چگونه در استفاده از هوش مصنوعی، از نظر عاطفی هوشمندانه رفتار کنند.» اگنیو نیز می‌افزاید که به‌جای محدودسازی یا شیطان‌سازی روابط انسان و هوش مصنوعی، باید زیرساخت‌هایی برای تقویت روابط انسانی ایجاد کرد؛ زیرا تجربه نشان داده ممنوعیت پدیده‌هایی که برای مردم معنادارند، اغلب نتیجه مطلوبی به همراه ندارد.

با تبدیل‌شدن هوش مصنوعی به بخشی ثابت از زندگی روزمره، مرز میان استفاده شناختی و استفاده عاطفی از آن بیش از پیش محو خواهد شد. هنوز نمی‌توان با قطعیت گفت که این روند در مجموع به نفع انسان‌هاست یا به زیان آن‌ها. اما روشن است که مدل‌ها با سرعت در حال پیشرفت‌اند، چارچوب‌های نظارتی همچنان محدودند و انگیزه‌های اقتصادی، شرکت‌ها را به سمت طراحی چت‌بات‌هایی سوق می‌دهد که تعامل و وابستگی بیشتری ایجاد کنند. پیکارد با نگرانی می‌گوید: «آن‌ها از این فناوری در راستای هدف اولیه‌اش یعنی کمک به شکوفایی انسان استفاده نمی‌کنند.»

ارسال نظرات
تبلیغات
خط داغ