
از بین بردن ترسهای غیرمنطقی به ما این امکان را میدهد تا به مسائل جدی تاثیرات اقتصادی و اجتماعی تازهترین پیشرفتها در حوزه هوش مصنوعی توجه کنیم.
فرارو- پیتر جیمز دنینگ، پژوهشگر و دانشمند رایانه و مدرس دانشگاه امریکایی در دانشگاههای پرینستون و جورج میسن فعالیت کرده است. دنینگ از پیشگامان اینترنت محسوب میشود و برای پژوهشهای گسترده و نظریاتش در حوزههای حافظه مجازی و سیستمهای عامل شناخته شده است. او بیشتر به دلیل کار پیشگامانه اش در عرصه حافظه مجازی و ابداع مدل مجموعه کاری برای رفتار برنامه در عرصه سیستم عامل که به معیاری مرجع برای تمام سیاستگذاریهای مدیریت حافظه تبدیل میشود شناخته شده است. او مقالات و کتابهای تاثیرگذاری متعددی از جمله مروری بر اصول بنیادی علوم رایانه، تفکر محاسباتی و نوآوری به عنوان مجموعهای از شیوههای یادگیری نوشته است. او در دانشگاه جورج میسن ریاست دپارتمان علم رایانه را برعهده داشت و مرکز مهندسی جدید را تاسیس کرد که در زمینه یادگیری مبتنی بر وب پیشگام بود. دنینگ ۲۶ جایزه برای خدماتش دریافت کرده است. دنینگ تاثیر عمدهای در آموزش محاسبات داشته است. در اوایل دهه ۱۹۷۰ میلادی او گروهی را رهبری کرد که اولین دوره اصلی اصول سیستم عامل (OS) را طراحی کرده بودند.
به گزارش فرارو به نقل از نشنال اینترست، پس از سرخوشی اولیه ایجاد شده در مورد مدلهای زبان بزرگ (LLM) که مولد نیروی هوش مصنوعی (AI) بوده اکنون حال و هوا تغییر کرده است. اکنون کانون توجه به سوی سناریوهای آخرالزمانی معطوف شده بر این فرض و مبنا که مدلهای زبان بزرگ خودآگاه شده، از کنترل خارج شده و باعث انقراض بشریت میشوند.
ترس از رباتهای هوشیار موضوع تازهای نیست. "آمبروز بیرس" نویسنده امریکایی در داستانی کوتاه در سال ۱۸۹۹ میلادی رباتی را که توسط مخترعی به نام موکسون ساخته شده بود به یاد آورد. به نظر میرسید که شبیه انسان است، ولی آن قدر باهوش نبود که بتواند در مقابل موکسون در شطرنج پیروز شود. زمانی که ربات متحمل شکست شد رگههایی از احساسات کنترل نشده رباتیک را آشکار ساخت: موکسون را به قتل رساند.
این ترس انسانی از رباتها محبوبیت خود را از زمان انتشار آن داستان در کتب، نمایشنامهها و فیلمها حفظ کرده است. برخی از رباتهای بد به سادگی به عنوان سیستمهای ماشینی ظاهر شدند مانند "هال" قاتل که در فیلم کلاسیک "۲۰۰۱: ادیسه فضایی" ساخته "استنلی کوبریک" به نمایش گذاشته شد. برخی از رباتها مانند آن چه در فیلم "ترمیناتور" به نمایش گذاشته شدند شبیه انسانها به نظر میرسند. هم چنین، فراتر از رباتهای قاتل گاهی اوقات شبکههای بزرگی از سیستمهای رباتیک مانند آن چه در فیلم "ماتریکس" به نمایش گذاشته شد وجود دارند که هدفشان به بردگی کشاندن بشریت است. حتی "آیزاک آسیموف" که سعی کرد با سه قانون که آسیب رساندن به انسان را ممنوع میکرد رباتها را مهار کند نگران بود که آنان بتوانند چنین قوانین و سخت گیریهایی را دور بزنند.
"چت جی پی تی" (Chat GPT) و "بارد" (Bard) دو نمونه برجسته مدلهای زبان بزرگ هستند که با پاسخهای پیچیده باعث ایجاد شگفتی میشوند. این سیستمها موج عظیمی از سرمایه گذاری را در خدمات جدید مدلهای زبان بزرگ راه اندازی کرده اند و باعث ایجاد اضطراب در این باره شده اند که چگونه تمایلشان به "توهم" (داستان سرهم کردن و از خود چیزی ساختن) ممکن است باعث ایجاد "اخبار جعلی" (فیک نیوز)، سرقت نتایج انتخاباتی و تقلب در آن، از دست دادن گسترده مشاغل، ضعیف اعتماد در تجارت یا حتی بی ثبات کردن امنیت ملی و در نهایت بروز ویرانی شود.
بدترین ترسها مربوط به این ظرفیت بالقوه است که ماشینها هوشیار شده و ما را تحت سلطه قرار دهند یا نابود کنند. گروهی متشکل از صداهای پیشرو از دنیای فناوری پیشرفته و سیاست به بهترین نحو که "هنری کیسینجر" آن را خلاصه کرده این مورد را نشان داده اند که پیشرفتهای فعلی در عرصه هوش مصنوعی جهان را در مسیر "مسابقهای دیوانه وار برای بروز برخی فجایع" قرار داده است.
هسته چت جی پی تی یک شبکه عصبی مصنوعی عظیم متشکل از ۹۶ لایه و ۱۷۵ میلیارد پارامتر است که بر روی صدها گیگابایت متن از اینترنت آموزش داده شده است. این چت بات هنگامی که با پرسشی مواجه میشود با فهرستی از محتملترین واژگان بعدی پاسخ میدهد. یک پسا پردازشگر یکی از واژگان را با توجه به احتمالات فهرست شده انتخاب میکند. آن واژه به فرمان اضافه شده و چرخه تکرار میشود. آن چه ظاهر میشود یک رشته روان از واژگان است که از نظر آماری با پرسش مرتبط هستند.
این رشتههای واژگانی از چندین سند متنی در مجموعه آموزشی ترسیم میشوند، اما رشتهها در هیچ سند واحدی ظاهر نمیشوند. چت جی پی تی قادر به تایید صحت پاسخ نیست. پاسخهایی از آن که بی معنی هستند "توهم" نامیده میشوند در صورتی که تمام آن پاسخها استنتاج آماری از دادههای آموزشی هستند.
مدلهای زبان بزرگ علیرغم غیر قابل اعتماد بودن میتوانند برای سرگرمی و تهیه پیش نویسهای اولیه اسناد، سخنرانی ها، پروژههای تحقیقاتی و کد مفید باشند. نکته هوشمندانه استفاده از آنها برای این اهداف است، اما نه در هر برنامهای که ممکن است بر اثر پاسخهای نامعتبر دچار آسیب شود.
آن نگرانیها درباره مدلهای زبان بزرگ قابل توجیه هستند؟ در مورد ترس از احساسات احتمالی آن وضعیت چگونه است؟ آیا مدلهای زبان بزرگ میتوانند به قدری متن را جذب کنند که تمام دانش بشری را داشته باشند و از هر یک از ما باهوشتر باشند؟ آیا مدلهای زبان بزرگ پایان تاریخ هستند؟ پاسخ یک نه واضح است.
این ادعا که امکان تسخیر تمام دانش بشری توسط ماشینها وجود دارد منطقی نیست. ما صرفا میتوانیم دانشی را در ماشینها قرار دهیم که بتوان آن را با رشتههایی از بیتها (bits) نشان داد. مهارتهای اجرایی مانند ورزش، موسیقی، نجاری استاد، یا نوشتن خلاق نمونههای بارز دانشی هستند که نمیتوان آنها را دقیقا توصیف و ثبت کرد. توصیف مهارت توانایی انجام کار را اعطا نمیکند. حتی اگر بتوان آن را بازنمایی کرد مهارت عملکرد در اَشکالی مانند افکار و بازتابهایمان، حالات حافظه عصبیمان و الگوهای شیمیایی عصبی – عضلانیمان است که برای ضبط غیر قابل دسترس میباشند. حجم انبوه همه این اطلاعات ثبت نشده و غیرقابل ثبت بسیار فراتر از آن چیزی است که ممکن است در یک پایگاه داده ماشین ذخیره شود. هر کارکردی که بتواند توسط مدلهای زبان بزرگ انجام شود در مقایسه با تواناییهای انسانی کوچک است.
علاوه بر این، استنباط آماری قطعا تمام ماجرای همکاری، خلاقیت، هماهنگی و رقابت انسانی نیست. آیا ما به قدری مسحور مدلهای زبان بزرگ شده ایم که سایر کارهایی که در زبان انجام میدهیم را نمیبینیم؟ ما روابط ایجاد میکنیم، ما از یکدیگر مراقبت میکنیم، ما خلق و خوی خود را میشناسیم و آن را هدایت میکنیم، ما قدرت میسازیم و آن را اعمال میکنیم، ما تعهداتی را میپذیریم و به آنها عمل میکنیم، ما سازمانها و جوامع را میسازیم، ما سنتها و تاریخها را خلق میکنیم، ما مسئولیت اقدامات را بر عهده میگیریم، ما اعتمادسازی میکنیم، ما عقل را پرورش میدهیم، ما دوست داریم و عشق میورزیم، ما چیزی را تصور میکنیم که پیشتر هرگز تصور نمیشد، ما گلها را بو میکنیم و با عزیزان مان جشن میگیریم. هیچ یک از این کارها آماری نیستند. شکاف بزرگی بین توانایی مدلهای زبان بزرگ و تواناییهای انسان وجود دارند.
هم چنین، فراتر از مدلهای زبان بزرگ هیچ نشانهای در چشم انداز پیشرفتهتر حتی نزدیک به هوشمندی وجود ندارد. بنابراین، بیایید نگرش هوشیارانهای نسبت به مدلهای زبان بزرگ داشته باشیم و بیان صحبتهای پرشور و هیچان درباره آن را مهار کنیم.
اگر از عبارت "مدل آماری زبان" به جای "مدل زبان بزرگ" استفاده کنیم وضعیت چگونه خواهد شد؟ توجه داشته باشید که در آن صورت پیشگویی انقراض بشریت تا چه اندازه کمتر تهدیدآمیز و حتی احمقانه به نظر میرسد اگر این گونه بیان شود:" بشریت به دلیل ناتوانی اش در کنترل مدلهای آماری زبان منقرض میشود".
از بین بردن ترسهای غیرمنطقی به ما این امکان را میدهد تا به مسائل جدی تاثیرات اقتصادی و اجتماعی آخرین پیشرفتها در هوش مصنوعی و تمایل مدلهای زبان بزرگ به عدم دقت و عدم اطمینان توجه کنیم. اجازه دهید به تنشهای ژئوپولیتیکی بین ایالات متحده، چین و روسیه نیز بپردازیم که میتواند توسط یک مسابقه تسلیحاتی لجام گسیخته در هوش مصنوعی تشدید شود که ممکن است شروع به جنگ را قابل تاملتر به نظر برساند و در واقع خطر تشدید تنش هستهای از سوی طرفی که در درگیری مبتنی بر ماشین بازنده میشود را افزایش میدهد.
از این نظر میتوان با کیسینجر موافق بود که هوش مصنوعی پیشرفته میتواند یک فاجعه انسانی را تسریع کند. مهمتر از همه مانند دورههای قبلی که پیشرفتهای تکنولوژیکی بزرگ را نشان میدادند چالش اکنون ترسیم مسیری عاقلانه در اطراف ترس و هیاهوی ایجاد شده در مورد فناوری تازه است.