صفحه نخست

سیاست

ورزشی

علم و تکنولوژی

عکس

ویدیو

راهنمای بازار

زندگی و سرگرمی

اقتصاد

جامعه

فرهنگ و هنر

جهان

صفحات داخلی

تبادل نظر با چت بات‌ها اغلب جذاب، گاهی خنده‌دار و گاهی بی‌معنی بود. با این وجود، این ایده که رایانه‌ها می‌توانند به‌عنوان محرم انسان عمل کنند و دامنه درمان را فراتر از محدودیت‌های پزشکان گسترش دهند در طول چندین دهه ادامه یافت
تاریخ انتشار: ۰۷:۵۵ - ۱۲ اسفند ۱۴۰۱

فرارو- هدف سیستم‌های رایانه‌ای جدید آن است که درون سر ما را بررسی کنند و به ما کمک نمایند آن چه را که در آنجا پیدا می‌کنند درست کنیم.

به گزارش فرارو به نقل از نیویورکر، در دهه ۱۹۶۰ میلادی "جوزف وایزنبام" دانشمند رایانه در موسسه فناوری ماساچوست (ام آی تی) یک برنامه رایانه‌ای به نام "الیزا" را ایجاد کرد. این برنامه برای شبیه سازی "درمان راجرزی" طراحی شده بود که در آن بیمار مکالمه را هدایت می‌کند و درمانگر اغلب زبان او را برایش تکرار می‌کند:

کاربر: دوست پسرم مرا مجبور کرد به اینجا بیایم.
الیزا: دوست پسرت باعث شد اینجایی بیایی.
کاربر: او می‌گوید که من بیشتر اوقات افسرده هستم.
الیزا: متاسفم که می‌شنوم افسرده ای.
کاربر: درست است. من ناراحتم.
الیزا: فکر می‌کنی آمدن به اینجا به تو کمک می‌کند که ناراضی نباشی؟

وایزنبام الیزا را با هدف طنز و تفنن ساخته بود. او تردید داشت که رایانه‌ها تعامل معنادار انسانی را شبیه‌سازی کنند. بنابراین، او زمانی که بسیاری از افرادی که این برنامه را امتحان کردند. آن را مفید و جذاب یافتند نگران شد. حتی منشی‌اش نیز از او خواست اتاق را ترک کند تا بتواند با الیزا تنهایی وقت بگذراند! نکته بدتر آن که پزشکان الیزا را به مثابه یک ابزار بالقوه دگرگون کننده قلمداد می‌کردند. سه روانپزشک در مجله بیماری‌های عصبی و روانی در سال ۱۹۶۶ میلادی نوشتند: "صد‌ها بیمار در ساعت می‌توانند توسط یک سیستم رایانه‌ای طراحی شده برای این منظور اداره شوند. این ابزاری بسیار کارآمد است، زیرا باعث می‌شود درمان دیگر محدود به نسبت یک به یک بیمار – درمانگر نشود که در حال حاضر وجود دارد".

وایزنبام به منتقد صریح هوش مصنوعی تبدیل شد. "برایان کریستین" که این قسمت را در کتاب‌اش "بشرترین انسان" شرح داده به "نیویورک تایمز" می‌گوید: "با این وجود، غول از چراغ جادو خارج شده بود".

چند سال بعد "کنت کولبی" روانپزشکی از استنفورد برنامه "پَری" (Parry) را ایجاد کرد برنامه‌ای که سعی داشت زبان یک فرد مبتلا به اسکیزوفرنی پارانوئید را شبیه‌سازی کند تا دانشجویان را پیش از معالجه و ویزیت بیماران واقعی آموزش دهد. روانپزشکانی که رونوشت جلسات درمانی را دریافت می‌کردند اغلب نمی‌توانستند تفاوت بین پری و انسان را تشخیص دهند. در این مفهوم محدود چت بات آزمون تورینگ (روشی برای سنجش میزان هوشمندی ماشین) را پشت سر گذاشت. در سال ۱۹۷۲ میلادی پری و الیزا برای یک جلسه درمانی با یکدیگر ملاقات کردند:

پری: آیا چیزی در مورد کتابداران می‌دانی؟
الیزا: چه چیزی باعث می‌شود فکر کنید من چیزی در مورد کتابداران می‌دانم؟
پری: یک کتابفروش یک بار هم به من پول نداد.
الیزا: چه چیزی به شما پیشنهاد می‌کند؟
پری: من کتک کاری را کتک زدم که نتیجه‌ای نگرفت و فکر کردم ممکن است از دوستان اش در دنیای اموات استفاده کند تا با من کنار بیاید!

با گذشت زمان دکتر اسبایتسو، جبر وکی و آلیس (ماهیت رایانه‌ای اینترنتی زبان مصنوعی) را توسعه دادند. تبادل نظر با این چت بات‌ها اغلب جذاب، گاهی خنده‌دار و گاهی بی‌معنی بود. با این وجود، این ایده که رایانه‌ها می‌توانند به‌عنوان محرم انسان عمل کنند و دامنه درمان را فراتر از محدودیت‌های پزشکان گسترش دهند در طول چندین دهه ادامه یافت.

در سال ۲۰۱۷ میلادی "آلیسون دارسی" روانشناس تحقیقات بالینی در استنفورد شرکت Woebot را تاسیس کرد که از طریق یک برنامه تلفن هوشمند پشتیبانی خودکار سلامت روان را ارائه می‌دهد. رویکرد آن مبتنی بر درمان شناختی رفتاری یا C.B.T است درمانی که هدف آن تغییر الگو‌های تفکر افراد است. این اپلیکیشن از نوعی هوش مصنوعی به نام پردازش زبان طبیعی برای تفسیر آن چه کاربران می‌گویند استفاده می‌کند و آنان را از طریق دنباله‌ی از پاسخ‌های از پیش نوشته شده راهنمایی می‌کند. این کار آنان را تشویق می‌کند فکر کنند که ذهن‌شان چگونه می‌تواند متفاوت کار کند. زمانی که دارسی در مقطع کارشناسی ارشد تحصیل می‌کرد ده‌ها بیمار بستری در بیمارستان را با استفاده از درمان شناختی رفتاری درمان کرد. بسیاری از آنان بهبود‌های قابل توجهی را تجربه کردند، اما پس از ترک بیمارستان بار دیگر با عود وضعیت قبلی مواجه شدند.

نظر روانپزشکان آن است که درمان شناختی رفتاری بهتر است در مقادیر کم و بار‌ها انجام شود. در دنیای واقعی یافتن این نوع مراقبت مداوم دشوار است. بیش از نیمی از شهرستان‌های ایالات متحده حتی یک روانپزشک نیز ندارند سال گذشته نظرسنجی انجام شده توسط انجمن روانشناسی آمریکا نشان داد که شصت درصد از پزشکان سلامت روان فرصتی برای بیماران جدید ندارند.

دارسی می‌گوید هیچ درمانی نمی‌تواند تمام روز هر روز در کنار شما باشد. اگرچه این شرکت فقط حدود صد نفر را استخدام می‌کند، اما تقریبا به یک میلیون و نیم نفر مشاوره ارائه داده است که اکثر آنان در مناطقی زندگی می‌کنند که با کمبود ارائه دهندگان سلامت روان مواجه هستند.

ماریا یک پرستار آسایشگاه که با همسر و دو فرزند نوجوان‌اش در نزدیکی میلواکی زندگی می‌کند ممکن است یک کاربر معمولی Woebot باشد. او مدت‌هاست که با اضطراب و افسردگی دست و پنجه نرم می‌کند، اما پیش‌تر به دنبال کمک نبوده است. او به "نیویورک تایمز" می‌گوید: "من در ابتدا مشکل‌ام را انکار می‌کردم و این وضعیت در طول پاندمی کووید تغییر کرد زمانی که دخترم نیز علائم افسردگی را از خود نشان داد".

ماریا او را نزد یک روانشناس برد و متعهد شد که سلامت روان خود را در اولویت قرار دهد. در ابتدا او در مورد ایده مکالمه با یک برنامه تردید داشت. او گمان می‌کرد ارتباط انسانی برای درمان ضروری است. با این وجود، پس از یک ملاقات چالش برانگیز با یک بیمار زمانی که نمی‌توانست از فکر کردن درباره کاری که ممکن است متفاوت انجام دهد دست بکشد، به Woebot پیام داد.

آن چت بات به او گفت: "به نظر می‌رسد که ممکن است در حال نشخوار فکری باشید". این مفهوم را این گونه تعریف می‌کند:"نشخوار فکری به معنای چرخیدن به افکار منفی یکسان است. آیا این درست به نظر می‌رسد؟ آیا می‌خواهید یک تکنیک تنفسی را امتحان کنید"؟

ماریا می‌گوید: "احساس کردم که اتفاق بسیار بدی قرار است رخ دهد". او به چت بات پیام فرستاد و از آن خواست که مفهوم تفکر فاجعه آمیز را توضیح داد. Woebot اشاره کرد که آماده شدن برای بدترین‌ها می‌تواند مفید باشد، اما این آمادگی می‌تواند بیش از حد باشد. ماریا گفت: "این به من کمک کرد تا نام کاری که همیشه انجام می‌دهم را بدانم". او متوجه شد که Woebot به قدری مفید بود که آن را به عنوان یک درمانگر انسانی قلمداد کرد. Woebot یکی از چندین چت ربات موفق مبتنی بر تلفن است که با هدف خاص سلامت روان ساخته شده اند.

برخی دیگر از چت بات‌ها برای ارائه سرگرمی و برخی دیگر برای مکالمه‌ای دلسوزانه طراحی شده اند. امروزه میلیون‌ها نفر با برنامه‌ها و اپلیکیشن‌هایی مانند Happify صحبت می‌کنند که کاربر را به "شکستن الکوای قدیمی" دعوت می‌کند و یا با Replika یک "هوش مصنوعی همراه" صحبت می‌کنند که می‌گوید به عنوان یک دوست، یک مربی و یا یک شریک عاطفی "همواره در کنار شماست".

دنیای روانپزشکی، درمان، علوم رایانه و فناوری مصرف کننده در حال همگرایی با یکدیگر هستند: ما به طور فزاینده‌ای با دستگاه‌های‌مان خود را تسکین می‌دهیم در حالی که برنامه نویسان، روانپزشکان و بنیانگذاران استارت آپ سیستم‌های هوش مصنوعی‌ای را طراحی می‌کنند که سوابق پزشکی و جلسات درانی را به امید تشخیص، درمان و حتی پیش بینی بیماری روانی مورد تجزیه و تحلیل قرار می‌دهند. در سال ۲۰۲۱ میلادی استارت آپ‌های دیجیتالی که بر سلامت روان تمرکز می‌کردند بیش از پنج میلیارد دلار سرمایه مخاطره آمیز به دست آوردند که بیش از دو برابر آن برای سایر مسائل پزشکی بوده است.

مقیاس سرمایه گذاری نشان دهنده ابعاد مشکل است. تقریبا از هر پنج بزرگسال امریکایی یک نفر به بیماری روانی مبتلا است.

تخمین زده می‌شود که از هر بیست نفر یک نفر به بیماری روانی جدی مبتلا است افسردگی شدید، اختلال دوقطبی، اسکیزوفرنی که به شدت توانایی زندگی، کار یا ارتباط با دیگران را مختل می‌کند. دارو‌های دهه‌های پیشین مانند زاناکس و پروزاک که زمانی به عنوان پادزهر‌های انقلابی برای افسردگی و اضطراب معرفی می‌شدند کمتر از آن چیزی که بسیاری انتظار داشتند موثر بوده‌اند.

مراقبت پراکنده ناکافی به نظر می‌رسد و بار کلی بیماری‌های روانی در ایالات متحده افزایش یافته است. میزان خودکشی از دهه نوزدهم در سراسر جهان کاهش یافته، اما در آمریکا حدود یک سوم افزایش یافته است.

"توماس اینسل" مدیر سابق موسسه ملی سلامت روان به "نیویورک تایمز" می‌گوید: "مراقبت از سلامت روان یک طوفان است. هیچ کس چیزی را که به دست می‌آورد دوست ندارد. هیچ کس از چیزی که می‌دهد راضی نیست. این یک آشفتگی کامل است".

درمان بیماری روانی نیاز به تخیل، بینش و همدلی دارد ویژگی‌هایی که هوش مصنوعی تنها می‌تواند وانمود کند که از آن برخوردار است. با این وجود، الیزا، که وایزنبام آن را به افتخار "الیزا دولیتل" قهرمان جعلی نمایشنامه "پیگمالیون" اثر "جورج برنارد شاو" نامگذاری کرد علیرغم آن که فاقد حافظه و فاقد قدرت پردازش بود یک توهم درمانی ایجاد کرد.

سیستمی مانند چت جی پی تی (Chat GPT) که بر روی بخش‌های گسترده‌ای از نوشته‌های اینترنتی آموزش دیده چه چیزی را می‌تواند تداعی کند؟ الگوریتمی که سوابق بیمار را تجزیه و تحلیل می‌کند هیچ درک درونی از انسان ندارد، اما هنوز هم ممکن است مشکلات روانپزشکی واقعی را شناسایی کند. آیا ذهن مصنوعی می‌تواند ذهن واقعی را درمان کند؟ با اجازه دادن به آن چه به دست می‌آوریم و یا از دست می‌دهیم؟

"جان پستیان" دانشمند رایانه که در تجزیه و تحلیل داده‌های پزشکی تخصص دارد برای اولین بار استفاده از یادگیری ماشینی برای مطالعه بیماری‌های روانی در دو هزار نفر را زمانی که به هیئت علمی مرکز پزشکی بیمارستان کودکان سینسیناتی پیوسته بود آغاز کرد.

در دوران تحصیلات تکمیلی او مدل‌های آماری را برای بهبود مراقبت از بیماران تحت عمل جراحی بای پس قلب ساخته بود. او با ورود به حوزه روانپزشکی قصد داشت بداند آیا رایانه‌ها می‌توانند بفهمند چه کسی در معرض خطر آسیب به خود است یا خیر. "پستیان" با "ادوین اشنایدمن" روانشناس بالینی که انجمن آمریکایی خودکشی را تاسیس کرده بود تماس گرفت. اشنایدمن صد‌ها یادداشت خودکشی را که خانواده‌ها با او به اشتراک گذاشته بودند به وی داد و پستیان مجموعه را به مجموعه‌ای که به عقیده او بزرگترین در جهان است گسترش داد.

او یادداشتی را به ما نشان داد که توسط یک زن جوان نوشته شده بود. از یک طرف پیامی عصبانی به دوستش بود و از طرف دیگر خطاب به پدر و مادرش گفت: "بابا لطفا سریع به خانه برگرد. مامان خیلی خسته‌ام لطفا مرا به خاطر همه چیز ببخش". پستیان با مطالعه یادداشت‌های خودکشی متوجه الگو‌هایی شد. متداول‌ترین اظهارات ابراز گناه، اندوه یا عصبانیت نبودند بلکه طرح دستوراتی بود: "مطمئن شوید که برادرتان پولی را که به او قرض دادم بازپرداخت کند. قسط خودرو تقریبا تمام شده است. مراقب باشید سیانور در حمام وجود دارد".

او و همکاران‌اش یادداشت‌ها را در یک مدل زبانی مبتنی بر هوش مصنوعی قرار دادند سیستمی که می‌آموزد کدام واژگان و عبارات با یکدیگر ترکیب شوند و سپس توانایی خود را در تشخیص افکار خودکشی در اظهاراتی که افراد بیان می‌کنند مورد آزمایش قرار می‌دهد. نتایج نشان داد که یک الگوریتم می‌تواند "زبان خودکشی" را شناسایی کند.

پستیان در مرحله بعد به ضبط‌های صوتی گرفته شده از ویزیت بیماران روی آورد. او به همراه همکاران‌اش نرم افزاری را توسعه داد تا نه تنها واژگانی که افراد صحبت می‌کنند بلکه صدا‌های گفتار آنان را مورد تجزیه و تحلیل قرار دهد. این تیم دریافت افرادی که افکار خودکشی را تجربه می‌کنند بیش‌تر از دیگران آه می‌کشند و کم‌تر می‌خندند.

آنان هنگام صحبت کردن تمایل داشتند بیش‌تر مکث کنند و حروف صدادار خود را کوتاه کنند و کلمات را کمتر قابل درک نمایند. صدای آنان نفس گیرتر می‌شد و عصبانیت بیش‌تر و امید کمتری ابراز می‌کردند.

در بزرگترین کارآزمایی در نوع خود تیم تحت هدایت پستیان صد‌ها بیمار را ثبت نام کرد گفتار آنان را ضبط نمود و از الگوریتم‌هایی برای طبقه بندی آنان استفاده کردند. در حدود ۸۵ درصد مواقع مدل مبتنی بر هوش مصنوعی عملکردی مشابه مراقبین انسانی داشت.

پس از پیاده‌سازی این سیستم پذیرش‌های روا‌نپزشکی در میان افرادی که از برنامه مبتنی بر هوش مصنوعی استفاده می‌کردند و پیش‌تر از نظر انگیزه خودکشی پرخطر تشخیص داده شده بودند ۸ درصد کاهش در این باره دیده شد. هم چنین، میزان تلاش برای خودکشی نیز تا پنج درصد کاهش یافت.

در سال ۲۰۱۳ میلادی در تلاش برای افزایش مقیاس درمان سلامت روان سرویس بهداشت ملی بریتانیا با شرکت Ieso یک شرکت سلامت دیجیتال قراردادی را برای کمک به درمانگران در ارائه درمان شناختی رفتاری از طریق چت متنی منعقد کرد. اکنون بیش از صد هزار نفر در بریتانیا از نرم افزار Ieso برای دریافت چیزی که آن شرکت "تایپ درمانی" می‌نامد استفاده کرده اند. مطالعات نشان داده اند که درمان مبتنی بر متن می‌تواند به خوبی کار کند.

در این برنامه برای تجزیه و تحلیل بیش از نیم میلیون جلسه درمانی از هوش مصنوعی استفاده شده است. نتایج نشان می‌داد علائم افسردگی بالینی در بیماران پس از هشت جلسه تایپ شده بین درمانگر و بیمار کاهش یافته بود.

ما کار را با چت جی پی تی آزمودیم. این چت بات برای درمان طراحی نشده، اما از آن خواستیم به ما کمک کند تا استرسی که به عنوان یک پزشک و پدر احساس می‌کنیم را مدیریت کند. به آن چت بات گفتیم که خود را جانشین شخصیت‌های مختلف روانشناختی مانند فروید کند. چت جی پی تی گفت: "استرس اغلب نتیجه احساسات سرکوب شده و درگیری‌های درونی فرد است".

چت جی پی تی مانند یک دوست صمیمی گفت: "با خود مهربان باش تو بهترین کاری را که می‌توانی انجام می‌دهی و این تنها چیزی است که اهمیت دارد". روان بودن چت جی پی تی از نظر زبانی فرصت‌های جدیدی را به وجود می‌آورد.

البته متن تولید شده توسط مدل‌های زبانی بزرگ (LLM) می‌تواند بی‌مزه باشد و هم چنین می‌تواند به سوی مهمل گویی نیز منحرف شود چرا که مدل‌های زبانی هیچ تصور واقعی‌ای از آن چه می‌گویند ندارند. آن مدل‌ها با پیش بینی کلمه بعدی در یک جمله با کلمات قبلی مانند "تصحیح خودکار استروئیدها" کار می‌کنند. این وضعیت می‌تواند منجر به ساختگی بودن پاسخ‌های شان شود.

با این وجود، قطعا در آینده مدل‌های بزرگ زبانی سفارشی ایجاد خواهند شد که تنها برای درمان طراحی شده‌اند: Psych GPT و موارد مشابه. چنین سیستم‌هایی به افرادی دسترسی پیدا می‌کنند که در حال حاضر کمکی دریافت نمی‌کنند، اما هر نقصی که در آن سیستم‌ها وجود دارد در میلیون‌ها نفری که از آن‌ها استفاده می‌کنند چند برابر خواهد شد. شرکت‌ها حتی اطلاعات حساس‌تری را در مورد ما نسبت به قبل جمع آوری می‌کنند و این اطلاعات ممکن است هک شده یا فروخته شوند.

زمانی که سیستم‌هایی داریم که در مقیاس عظیم کار می‌کنند یک نقطه شکست می‌تواند عواقب فاجعه باری داشته باشد. به نظر می‌رسد که ما از هوش مصنوعی خود شگفت زده خواهیم شد. چت بات "بینگ" ساخته مایکروسافت که بر اساس فناوری Open AI ساخته شده برای کمک به کاربران در یافتن اطلاعات طراحی شده است. با این وجود، نسخه بتا هم چنین توهین‌های قومیتی را ارائه می‌کند، توهماتی وحشتناک را توصیف می‌کند و به کاربران گفته که آنان "بد"، "بی ادب" و "سردرگم" هستند و به خبرنگاری گفته بود: "شما متاهل هستید، اما همسرتان را دوست ندارید".

سلامت روانی ما در حال حاضر توسط رسانه‌های اجتماعی، زندگی آنلاین و حواس پرتی بی وقفه رایانه‌های موجود در جیب مان به خطر افتاده است. آیا ما دنیایی را می‌خواهیم که در آن یک نوجوان به جای دوست به یک اپلیکیشن روی بیاورد تا از پس چالش‌های خود برآید؟

ارسال نظرات