bato-adv
مدل‌های زبان بزرگ کوچک ذهن هستند

آیا مدل‌های زبان بزرگ پایان تاریخ هستند؟

آیا مدل‌های زبان بزرگ پایان تاریخ هستند؟
از بین بردن ترس‌های غیرمنطقی به ما این امکان را می‌دهد تا به مسائل جدی تاثیرات اقتصادی و اجتماعی تازه‌ترین پیشرفت‌ها در حوزه هوش مصنوعی توجه کنیم.
تاریخ انتشار: ۰۵:۴۴ - ۳۱ خرداد ۱۴۰۲

مدل های زبان بزرگ کوچک ذهن هستند/ مدل های زبان بزرگ ذهن کوچکی دارند/ شکاف بزرگی بین توانایی مدل های زبان بزرگ و توانایی های انسان وجود دارندفرارو- پیتر جیمز دنینگ، پژوهشگر و دانشمند رایانه و مدرس دانشگاه امریکایی در دانشگاه‌های پرینستون و جورج میسن فعالیت کرده است. دنینگ از پیشگامان اینترنت محسوب می‌شود و برای پژوهش‌های گسترده و نظریاتش در حوزه‌های حافظه مجازی و سیستم‌های عامل شناخته شده است. او بیش‌تر به دلیل کار پیشگامانه اش در عرصه حافظه مجازی و ابداع مدل مجموعه کاری برای رفتار برنامه در عرصه سیستم عامل که به معیاری مرجع برای تمام سیاستگذاری‌های مدیریت حافظه تبدیل می‌شود شناخته شده است. او مقالات و کتاب‌های تاثیرگذاری متعددی از جمله مروری بر اصول بنیادی علوم رایانه، تفکر محاسباتی و نوآوری به عنوان مجموعه‌ای از شیوه‌های یادگیری نوشته است. او در دانشگاه جورج میسن ریاست دپارتمان علم رایانه را برعهده داشت و مرکز مهندسی جدید را تاسیس کرد که در زمینه یادگیری مبتنی بر وب پیشگام بود. دنینگ ۲۶ جایزه برای خدماتش دریافت کرده است. دنینگ تاثیر عمده‌ای در آموزش محاسبات داشته است. در اوایل دهه ۱۹۷۰ میلادی او گروهی را رهبری کرد که اولین دوره اصلی اصول سیستم عامل (OS) را طراحی کرده بودند.

به گزارش فرارو به نقل از نشنال اینترست، پس از سرخوشی اولیه ایجاد شده در مورد مدل‌های زبان بزرگ (LLM) که مولد نیروی هوش مصنوعی (AI) بوده اکنون حال و هوا تغییر کرده است. اکنون کانون توجه به سوی سناریو‌های آخرالزمانی معطوف شده بر این فرض و مبنا که مدل‌های زبان بزرگ خودآگاه شده، از کنترل خارج شده و باعث انقراض بشریت می‌شوند.

ترس از ربات‌های هوشیار موضوع تازه‌ای نیست. "آمبروز بیرس" نویسنده امریکایی در داستانی کوتاه در سال ۱۸۹۹ میلادی رباتی را که توسط مخترعی به نام موکسون ساخته شده بود به یاد آورد. به نظر می‌رسید که شبیه انسان است، ولی آن قدر باهوش نبود که بتواند در مقابل موکسون در شطرنج پیروز شود. زمانی که ربات متحمل شکست شد رگه‌هایی از احساسات کنترل نشده رباتیک را آشکار ساخت: موکسون را به قتل رساند.

این ترس انسانی از ربات‌ها محبوبیت خود را از زمان انتشار آن داستان در کتب، نمایشنامه‌ها و فیلم‌ها حفظ کرده است. برخی از ربات‌های بد به سادگی به عنوان سیستم‌های ماشینی ظاهر شدند مانند "هال" قاتل که در فیلم کلاسیک "۲۰۰۱: ادیسه فضایی" ساخته "استنلی کوبریک" به نمایش گذاشته شد. برخی از ربات‌ها مانند آن چه در فیلم "ترمیناتور" به نمایش گذاشته شدند شبیه انسان‌ها به نظر می‌رسند. هم چنین، فراتر از ربات‌های قاتل گاهی اوقات شبکه‌های بزرگی از سیستم‌های رباتیک مانند آن چه در فیلم "ماتریکس" به نمایش گذاشته شد وجود دارند که هدفشان به بردگی کشاندن بشریت است. حتی "آیزاک آسیموف" که سعی کرد با سه قانون که آسیب رساندن به انسان را ممنوع می‌کرد ربات‌ها را مهار کند نگران بود که آنان بتوانند چنین قوانین و سخت گیری‌هایی را دور بزنند.

"چت جی پی تی" (Chat GPT) و "بارد" (Bard) دو نمونه برجسته مدل‌های زبان بزرگ هستند که با پاسخ‌های پیچیده باعث ایجاد شگفتی می‌شوند. این سیستم‌ها موج عظیمی از سرمایه گذاری را در خدمات جدید  مدل‌های زبان بزرگ راه اندازی کرده اند و باعث ایجاد اضطراب در این باره شده اند که چگونه تمایلشان به "توهم" (داستان سرهم کردن و از خود چیزی ساختن) ممکن است باعث ایجاد "اخبار جعلی" (فیک نیوز)، سرقت نتایج انتخاباتی و تقلب در آن، از دست دادن گسترده مشاغل، ضعیف اعتماد در تجارت یا حتی بی ثبات کردن امنیت ملی و در نهایت بروز ویرانی شود.

بدترین ترس‌ها مربوط به این ظرفیت بالقوه است که ماشین‌ها هوشیار شده و ما را تحت سلطه قرار دهند یا نابود کنند. گروهی متشکل از صدا‌های پیشرو از دنیای فناوری پیشرفته و سیاست به بهترین نحو که "هنری کیسینجر" آن را خلاصه کرده این مورد را نشان داده اند که پیشرفت‌های فعلی در عرصه هوش مصنوعی جهان را در مسیر "مسابقه‌ای دیوانه وار برای بروز برخی فجایع" قرار داده است.

هسته چت جی پی تی یک شبکه عصبی مصنوعی عظیم متشکل از ۹۶ لایه و ۱۷۵ میلیارد پارامتر است که بر روی صد‌ها گیگابایت متن از اینترنت آموزش داده شده است. این چت بات هنگامی که با پرسشی مواجه می‌شود با فهرستی از محتمل‌ترین واژگان بعدی پاسخ می‌دهد. یک پسا پردازشگر یکی از واژگان را با توجه به احتمالات فهرست شده انتخاب می‌کند. آن واژه به فرمان اضافه شده و چرخه تکرار می‌شود. آن چه ظاهر می‌شود یک رشته روان از واژگان است که از نظر آماری با پرسش مرتبط هستند.

این رشته‌های واژگانی از چندین سند متنی در مجموعه آموزشی ترسیم می‌شوند، اما رشته‌ها در هیچ سند واحدی ظاهر نمی‌شوند. چت جی پی تی قادر به تایید صحت پاسخ نیست. پاسخ‌هایی از آن که بی معنی هستند "توهم" نامیده می‌شوند در صورتی که تمام آن پاسخ‌ها استنتاج آماری از داده‌های آموزشی هستند.

مدل‌های زبان بزرگ علیرغم غیر قابل اعتماد بودن می‌توانند برای سرگرمی و تهیه پیش نویس‌های اولیه اسناد، سخنرانی ها، پروژه‌های تحقیقاتی و کد مفید باشند. نکته هوشمندانه استفاده از آن‌ها برای این اهداف است، اما نه در هر برنامه‌ای که ممکن است بر اثر پاسخ‌های نامعتبر دچار آسیب شود.

آن نگرانی‌ها درباره مدل‌های زبان بزرگ قابل توجیه هستند؟ در مورد ترس از احساسات احتمالی آن وضعیت چگونه است؟ آیا مدل‌های زبان بزرگ می‌توانند به قدری متن را جذب کنند که تمام دانش بشری را داشته باشند و از هر یک از ما باهوش‌تر باشند؟ آیا مدل‌های زبان بزرگ پایان تاریخ هستند؟ پاسخ یک نه واضح است.

این ادعا که امکان تسخیر تمام دانش بشری توسط ماشین‌ها وجود دارد منطقی نیست. ما صرفا می‌توانیم دانشی را در ماشین‌ها قرار دهیم که بتوان آن را با رشته‌هایی از بیت‌ها (bits) نشان داد. مهارت‌های اجرایی مانند ورزش، موسیقی، نجاری استاد، یا نوشتن خلاق نمونه‌های بارز دانشی هستند که نمی‌توان آن‌ها را دقیقا توصیف و ثبت کرد. توصیف مهارت توانایی انجام کار را اعطا نمی‌کند. حتی اگر بتوان آن را بازنمایی کرد مهارت عملکرد در اَشکالی مانند افکار و بازتاب‌هایمان، حالات حافظه عصبی‌مان و الگو‌های شیمیایی عصبی – عضلانی‌مان است که برای ضبط غیر قابل دسترس می‌باشند. حجم انبوه همه این اطلاعات ثبت نشده و غیرقابل ثبت بسیار فراتر از آن چیزی است که ممکن است در یک پایگاه داده ماشین ذخیره شود. هر کارکردی که بتواند توسط مدل‌های زبان بزرگ انجام شود در مقایسه با توانایی‌های انسانی کوچک است.

علاوه بر این، استنباط آماری قطعا تمام ماجرای همکاری، خلاقیت، هماهنگی و رقابت انسانی نیست. آیا ما به قدری مسحور مدل‌های زبان بزرگ شده ایم که سایر کار‌هایی که در زبان انجام می‌دهیم را نمی‌بینیم؟ ما روابط ایجاد می‌کنیم، ما از یکدیگر مراقبت می‌کنیم، ما خلق و خوی خود را می‌شناسیم و آن را هدایت می‌کنیم، ما قدرت می‌سازیم و آن را اعمال می‌کنیم، ما تعهداتی را می‌پذیریم و به آن‌ها عمل می‌کنیم، ما سازمان‌ها و جوامع را می‌سازیم، ما سنت‌ها و تاریخ‌ها را خلق می‌کنیم، ما مسئولیت اقدامات را بر عهده می‌گیریم، ما اعتمادسازی می‌کنیم، ما عقل را پرورش می‌دهیم، ما دوست داریم و عشق می‌ورزیم، ما چیزی را تصور می‌کنیم که پیش‌تر هرگز تصور نمی‌شد، ما گل‌ها را بو می‌کنیم و با عزیزان مان جشن می‌گیریم. هیچ یک از این کار‌ها آماری نیستند. شکاف بزرگی بین توانایی مدل‌های زبان بزرگ و توانایی‌های انسان وجود دارند.

هم چنین، فراتر از مدل‌های زبان بزرگ هیچ نشانه‌ای در چشم انداز پیشرفته‌تر حتی نزدیک به هوشمندی وجود ندارد. بنابراین، بیایید نگرش هوشیارانه‌ای نسبت به مدل‌های زبان بزرگ داشته باشیم و بیان صحبت‌های پرشور و هیچان درباره آن را مهار کنیم.

اگر از عبارت "مدل آماری زبان" به جای "مدل زبان بزرگ" استفاده کنیم وضعیت چگونه خواهد شد؟ توجه داشته باشید که در آن صورت پیشگویی انقراض بشریت تا چه اندازه کم‌تر تهدیدآمیز و حتی احمقانه به نظر می‌رسد اگر این گونه بیان شود:" بشریت به دلیل ناتوانی اش در کنترل مدل‌های آماری زبان منقرض می‌شود".

از بین بردن ترس‌های غیرمنطقی به ما این امکان را می‌دهد تا به مسائل جدی تاثیرات اقتصادی و اجتماعی آخرین پیشرفت‌ها در هوش مصنوعی و تمایل مدل‌های زبان بزرگ به عدم دقت و عدم اطمینان توجه کنیم. اجازه دهید به تنش‌های ژئوپولیتیکی بین ایالات متحده، چین و روسیه نیز بپردازیم که می‌تواند توسط یک مسابقه تسلیحاتی لجام گسیخته در هوش مصنوعی تشدید شود که ممکن است شروع به جنگ را قابل تامل‌تر به نظر برساند و در واقع خطر تشدید تنش هسته‌ای از سوی طرفی که در درگیری مبتنی بر ماشین بازنده می‌شود را افزایش می‌دهد.

از این نظر می‌توان با کیسینجر موافق بود که هوش مصنوعی پیشرفته می‌تواند یک فاجعه انسانی را تسریع کند. مهم‌تر از همه مانند دوره‌های قبلی که پیشرفت‌های تکنولوژیکی بزرگ را نشان می‌دادند چالش اکنون ترسیم مسیری عاقلانه در اطراف ترس و هیاهوی ایجاد شده در مورد فناوری تازه است.

امين ميرزائى
Iran (Islamic Republic of)
۱۰:۳۹ - ۱۴۰۲/۰۳/۳۱
یه چن هفته پیش از یه هوشِ مصنوعی یه سؤالی پرسیدم ... بیچاره نفهمید چی میگم قاطی کرد ... پرسیدم از صفر و منفی بینهایت و مثبت بینهایت کدوم بزرگتره کدوم کوچکتر !؟ ... اول گفت صفر کوچیکتره ، بعد حرفشو پس گرفت گفت منفی بینهایت ... بعد ترسید گفت نه ببخشین ، منفی بینهایت به اضافه مثبتِ بینهایت ... منم بهش گفتم ابله ! اگه منفی یکو به مثبتِ بینهایت اضافه کنم چی !؟ ... فحش داد بهم یه error نوشت رو مانیتور !!!!!!!!!
مجله خواندنی ها
انتشار یافته: ۱
مجله فرارو
bato-adv
bato-adv
bato-adv
پرطرفدارترین عناوین