به گزارش فرارو به نقل از بلومبرگ، روزی نیست که پیش بینیهایی را درباره عذاب پیش رو نخوانم. در تازهترین مورد "الیزر یودکوفسکی" در نشریه "تایم" در هفته گذشته نوشته بود: "محتملترین نتیجه ساخت یک هوش مصنوعی فوقالعاده هوشمند تحت هر چیزی شبیه به شرایط فعلی این است که به معنای واقعی کلمه همه روی زمین خواهند مُرد. این یک احتمال بعید نیست بلکه در عمل رخ خواهد داد. اگر کسی یک هوش مصنوعی بسیار قدرتمند بسازد در شرایط کنونی من انتظار دارم که تک تک اعضای گونه انسانی و تمام حیات بیولوژیکی روی زمین اندکی پس از آن خواهند مُرد".
یودکوفسکی یک کاساندرای تصادفی نیست. او موسسه تحقیقاتی هوش ماشینی را رهبری میکند یک موسسه غیرانتفاعی در برکلی در کالیفرنیا و پیشتر در مورد مسئله هوش مصنوعی مطالب زیادی نوشته است. من هنوز به خوبی به یاد دارم زمانی که در حال تحقیق در مورد کتاب ام با نام "سرنوشت" بودم او درباره این که ممکن است کسی ناخواسته هوش مصنوعیای ایجاد کند که علیه ما باشد هشدار داده بود.
من در کتاب ام اشاره کردم که برای مثال، به هوش مصنوعی میگوییم که تغییرات آب و هوایی را متوقف کند و آن نتیجه میگیرد که برای این کار نابودی هوموساپینس یا انسان خردمند راه حل بهینه است. این یودکوفسکی بود که چند سال پیش قانون مور اصلاح شده را پیشنهاد کرد: هر ۱۸ ماه حداقل ضریب هوشی لازم برای نابودی جهان یک امتیاز کاهش یابد.
اکنون یودکوفسکی فراتر رفته است. او معتقد است که ما به سرعت در حال نزدیک شدن به یک دوره مهلک هستیم که در آن هوش مصنوعی هوشمندتر از خودمان را ایجاد میکنیم که "آن چه ما میخواهیم را انجام نمیدهد و به ما و به طور کلی به زندگی حساس اهمیت نمیدهد. نتیجه محتمل مواجه شدن بشر با یک هوش مافوق بشری مخالف یک ضرر کامل است".
او معتقد است که چنین هوش مصنوعیای میتواند به راحتی از اینترنت فرار کند تا "شکلهای زندگی مصنوعی بسازد" و در واقع جنگ بیولوژیکی را علیه ما راه اندازی کند. توصیه او روشن است. ما به یک تعلیق کامل برای توسعه هوش مصنوعی نیاز داریم.
این بسیار فراتر از نامه سرگشاده امضا شده توسط "ایلان ماسک" و "استیو وزنیاک" بنیانگذار اپل و بیش از ۱۵۰۰۰ چهره برجسته دیگر است که خواستار توقف شش ماهه توسعه هوش مصنوعی قدرتمندتر از وضعیت فعلی شده اند.
با این وجود، انگیزه آنان از امضای آن نامه همان انگیزه یودکوفسکی است: این باور که توسعه هوش مصنوعی با قابلیتهای مافوق بشری در غیاب هرگونه چارچوب نظارتی بین المللی، خطر ایجاد یک فاجعه را به همراه خواهد داشت. تنها تفاوت واقعی این است که یودکوفسکی شک دارد که چنین چارچوبی میتواند ظرف مدت شش ماه ابداع شود. او تقریبا در این مورد حق دارد.
تشابه آشکار با دو زمینه قبلی تحقیقات علمی بالقوه کشنده است: تسلیحات هستهای و جنگ بیولوژیکی. ما از همان ابتدا در تاریخ این رشتهها میدانستیم که ظرفیت بالقوه ایجاد فاجعه بسیار زیاد است و اگر نه انقراض بشریت بلکه دست کم مرگ در مقیاس وسیع را به همراه خواهد داشت.
با این وجود، تلاشها برای مهار گسترش تسلیحات هستهای و بیولوژیکی بسیار بیشتر از شش ماه به طول انجامید و تنها تا حدی موفقیتآمیز بود. در سال ۱۹۴۶ میلادی ایالات متحده طرح باروخ را برای بین المللی کردن تحقیقات هستهای پیشنهاد کرد.
با این وجود، اتحاد جماهیر شوروی آن طرح را رد کرد و به زودی یک مسابقه تسلیحات هستهای دیوانه کننده آغاز شد. بیشترین دستاوردی که حاصل شد محدود کردن تعداد کشورهایی بود که دارای تسلیحات هستهای بودند (از طریق معاهده منع گسترش سلاحهای هستهای که در سال ۱۹۷۰ میلادی لازم الاجرا شد) و کاهش سرعت و در نهایت معکوس کردن رشد زرادخانههای ابرقدرت ها.
کنوانسیون سلاحهای بیولوژیکی که در سال ۱۹۷۵ میلادی لازم الاجرا شد به طور کامل تحقیقات در مورد این سلاحها را پایان نداد. شوروی هرگز دست از این کار برنداشت و ما گمان میکنیم که انواع تحقیقات بیولوژیکی بسیار خطرناک در چین و جاهای دیگر انجام میشود از جمله آزمایشها با ویروسها که به نظر میرسد به طور فزایندهای منجر به پاندمی کووید -۱۹ شده است.
بنابراین، اگر یودکوفسکی درست میگوید که هوش مصنوعی بالقوه به اندازه سلاحهای هستهای یا بیولوژیکی خطرناک است بعید به نظر میرسد که مکثی شش ماهه دستاوردهای زیادی به همراه داشته باشد. از سوی دیگر، درخواست او برای توقف کامل تحقیق و توسعه تقریبا به اندازه طرح باروخ شانس موفقیت دارد. یکی از تفاوتهای آشکار بین آن سلاحهای کشنده قدیمی و هوش مصنوعی این است که بخش عمده تحقیقات در مورد هوش مصنوعی توسط بخش خصوصی انجام میشود.
طبق آخرین گزارش موسسه هوش مصنوعی استنفورد با محوریت انسان، سرمایهگذاری خصوصی جهانی در هوش مصنوعی در سال ۲۰۲۲ میلادی بالغ بر ۹۲ میلیارد دلار بوده که بیش از نیمی از آن در ایالات متحده صورت گرفته است. در مجموع ۳۲ مدل یادگیری ماشینی قابل توجه توسط شرکتهای خصوصی تولید شدند در مقایسه با تنها سه مدل تولید شده توسط موسسات دانشگاهی.
با چنین وضعیتی آیا قیاس وضعیت فعلی در مورد هوش مصنوعی با آن چه پیشتر "بمب" مینامیدیم درست است؟ این بستگی به سلیقه شما در داستانهای علمی - تخیلی دارد.
تقریبا همگی نام "اسکای نت" را شنیدهاید که در سال ۱۹۸۴ میلادی در فیلم "ترمیناتور" با بازی "آرنولد شوارتزنگر" جوان ساخته شد. برای خوانندگان جوانتر و کم سن و سالتر این یادداشت میگویم که فرض مبتنی بر آن بود که اسکای نت یک سیستم دفاعی رایانهای در آینده سرکش میشود و تلاش میکند تا با حمله هستهای بشریت را از بین ببرد.
"جان کانر" یکی از شخصیتهای اصلی داستانهای نابودگر است رهبر مقاومت انسانها در برابر اسکای نت و رباتهای ترمیناتور میباشد. اسکای نت با فرستادن ترمیناتورها به گذشته پاسخ میدهد، زیرا البته سفر در زمان برای کشتن مادر کانر آسان است. با این وجود، نسخههای دیگری از هوش مصنوعی نیز در داستانهای علمی – تخیلی وجود دارند.
برای مثال، در چرخه حیات اشیاء نرم افزاری نوشته "تد چیانگ" در سال ۲۰۱۰ میلادی هوش مصنوعی خود را بهعنوان "دایجینت" نشان میدهد در ابتدا حیوانات خانگی و همراهان رایانهای بی ضرر و درمانده و کمی شبیه به بچه شامپانزهها است. آنان مدت زمان زیادی را صرف یادگیری باهوش بودن میکنند. در این نسخه از جهان مشکل اخلاقی این است که ما انسانها وسوسه میشویم که از دایجنتها به عنوان بردههای رباتیک بهره برداری کنیم.
در اصل، منتقدان متعدد یودکوفسکی از ما میخواهند که باور کنیم هوش مصنوعی از از اسکای نت دقیقتر است. "مت پارلمر" موسس شرکت ماشین ابزار Gen Fab در حساب کاربری خود در توئیتر یودکوفسکی و دیگر چهرههای تندروی مخالف هوش مصنوعی را متهم کرد که از نظر تسلط بر عناصر فنی اساسی در این زمینه عمیق نمیاندیشند.
پالمر معتقد است که توقف تحقیقات هوش مصنوعی افراد بیمار را از پیشرفتهای بالقوه در علم پزشکی محروم میسازد. نیکلاس تامپسون" مدیرعامل آتلانتیک نیز با این نظر موافق است که یودکوفسکی و بدبینان نسبت به هوش مصنوعی در مورد خطرات ناشی از آن اغراق میکنند.
او افزوده است: "من اخیرا با استفاده از Dall-E و GPT-۴ یک کتاب کودکانه برای سالگرد تولد ۹ سالگی فرزندم درباره جام جهانی بین حیوانات عروسکی او درست کردم. خرسها پیروز شدند و او آن را دوست داشت. بیایید در یک زمان این راه امتحان کنیم. ما چیزهای جالبی خواهیم ساخت و در حین انجام آن یاد خواهیم گرفت".
بیایید چند پرسش مطرح کنیم: اگر در سال ۲۰۰۶ میلادی به طور جمعی تصمیم میگرفتیم توسعه رسانههای اجتماعی را به مدت شش ماه به حالت تعلیق در آوریم در حالی که در مورد آسیبهای احتمالی استفاده گسترده از آن فکر چه میشد؟ تاثیرات آن در آن زمان به سختی آشکار بود و هنوز هم مورد بحث است. در این میان، پس از تاخیر شش ماهه تا چه میزان در روند ارزیابی قرار میگرفتیم؟ و حتی اگر شرکتهای آمریکایی یک توقف شش ماهه ایجاد کنند چه کسی میتواند بگوید که شرکتهای چینی این کار را انجام خواهند داد؟
در مورد هوش مصنوعی مشکل این بحث دوجانبه است. نخست آن که به نظر میرسد مدافعان هوش مصنوعی همگی سرمایه گذاری زیادی روی هوش مصنوعی انجام داده اند. دوم آن که آنان اکثرا اذعان دارند که حداقل خطری در توسعه هوش مصنوعی با هوش برتر از ما وجود دارد. توسعه دهندگان هوش مصنوعی یک نتیجه گیری نهایی برای ما دارند: به ما اعتماد کنید که این کار را اخلاقی انجام میدهیم، زیرا اگر ما را مهار کنید افراد بد کسانی هستند که توسعه را انجام میدهند و سپس ممکن است اسکای نت را دریافت کنید.
من به شخصه هیچ سرمایه گذاریای روی هوش مصنوعی انجام نداده ام و همزمان زندگی مرا نیز تهدید نمیکند. مطمئنا جدیدترین مدلهای زبان بزرگ میتوانند روزنامه نگاری قابل قبولی را ایجاد کنند، اما روزنامه نگاری سرگرمی من است. هنوز هوش مصنوعیای وجود ندارد که بتواند زندگی نامه هنری کیسینجر را بهتر از من بنویسد به ویژه به این دلیل که تعداد بسیار زیادی از اسناد تاریخی مربوطه قابل خواندن توسط ماشین نیستند.
بخش عمده کارهایی که هوش مصنوعی انجام میدهد منافعی را به بشریت ارائه میدهد تهدیدی علیه آن نیست. برای مثال، Deep Mind’s Alpha Fold ساختار حدود ۲۰۰ میلیون پروتئین را تعیین کرده که یک جهش علمی بزرگ به جلو است. بحثی که امروز داریم درباره شاخه خاصی از هوش مصنوعی است: مدلهای زبانی بزرگ (LLM) که توسط سازمانهایی مانند Open AI به ویژه چت جی پی تی و جانشین قویتر آن جی پی تی -۴ تولید میشوند.
در آغاز کار Open AI آن شرکت وعده داد که ظرف مدت پنج سال وسایل نقلیه خودران با هوش مصنوعی هر راننده کامیون در آمریکا را بیکار خواهند کرد. با این وجود، روسای آن شرکت ماند ایلان ماسک متوجه شدند که آموزش شبکههای عصبی برای رانندگی سختتر از آن چیزی است که آنان تصور میکردند. از این رو Open AI به سمت مدلهای زبانی بزرگ یا LLM حرکت کرد.
به سرعت آشکار شد که ساخت مدلهای زبانی بزرگ به اندازه کافی قدرتمند به منظور تولید نتایج معتبر برای یک سازمان غیرانتفاعی به دلیل قدرت محاسباتی عظیم مورد نیاز بسیار گران است. ماموریت نهایی Open AI ساخت هوش مصنوعی عمومی "ایمن" است. هدف این است که "از مسابقه ساختن سیستمهای هوش مصنوعی خطرناک که توسط رقابت ایجاد میشود جلوگیری کرده و در عوض ایمنی بشریت را در اولویت قرار دهیم".
با این وجود، رقابت اکنون در گرفته است. مسابقه مدل زبانی بزرگ تا چه اندازه خطرناک است. ظاهرا اصلا خطرناک نیست. هوش مصنوعیای مانند چت جی پی تی اساسا در تلاش است تا "ادامه معقولی" از هر متنی را که تا کنون دریافت کرده است تولید کند جایی که منظور ما از "معقول" آن چیزی است که ممکن است انتظار داشته باشیم کسی پس از دیدن مطالبی که مردم در میلیاردها صفحه وب نوشته اند بنویسد.
وقتی چت جی پی تی کاری مانند نوشتن یک مقاله انجام میدهد اساسا کاری که انجام میدهد این است که بارها و بارها بپرسد "با توجه به متن نوشته شده تاکنون کلمه بعدی چه باید باشد"؟ و هر بار یک کلمه اضافه کند.
در مقابل، جی پی تی -۴ صرفا یک شبکه عصبی پیشبینی کلمه است که تعداد زیادی عملیات را روی آرایههای اعداد با GPU انجام میدهد واحدهای پردازشی که در اصل برای تسریع رندر گرافیکی طراحی شده بودند. در نتیجه، خروجی آن حتی از چت جی پی تی نیز بسیار شبیهتر به انسان است. با این وجود، پرسش این است که هنگامی که مدلهای زبانی بزرگ به طور کامل توسعه یافته و به کار گرفته شوند گمان میکنید بدترین تاثیرات بر کیفیت تولید کلی فرهنگی چه خواهند بود؟ علاوه بر بیکاری گسترده نویسندگان حرفهای دو مورد دیگر نیز محتمل هستند:
نخست آن که مدلهای زبانی بزرگ میتوانند حجم عظیمی از محتوا تولید کنند که سبک ها، ژانرها و گرایشهای موجود را تقلید میکند، اما فاقد اصالت و خلاقیت است. این امر میتواند منجر به اشباع بازار فرهنگی با محصولات بی مزه و تکراری شود.
دوم آن که امکان دستکاری و فریب فراهم میشود. از مدلهای زبانی بزرگ میتوان برای ایجاد محتوای فریبنده یا مضر استفاده کرد که از تعصبات، احساسات و ترجیحات انسانی سوء استفاده میکند. این امر میتواند شامل اخبار جعلی، تبلیغات، اطلاعات نادرست، دروغهای عمیق، کلاهبرداری، یا سخنان نفرت انگیز باشد که اعتماد، دموکراسی و انسجام اجتماعی را تضعیف میکند.
من به یاد کتاب "جنگل تاریک" اثر "سیکسین لیو" افتادم که در آن تهاجم "تری سولاران"های بیرحم و برتر از نظر فناوری به زمین را توصیف میکند. در واقع، ما در حال ساخت بیگانگان هستیم تا آنها را از سفر طولانی از فضا نجات دهیم. درس اصلی آن کتاب این است که اگر ما موجودات فضایی را سریعا نابود نکنیم آنان باید ما را نابود کنند. این موارد بدیهیات "جامعه شناسی کیهانی" لیو هستند: نخست آن که "بقا نیاز اولیه تمدن است". دوم آن که "تمدن پیوسته رشد میکند و گسترش مییابد، اما کل ماده در جهان ثابت میماند" و سوم آن که "زنجیرههای سوء ظن" و خطر "انفجار تکنولوژیک" در تمدن دیگری به این معنی است که در این جهان فقط قانون جنگل میتواند وجود داشته باشد.
هیچ کس نمیتواند از قبل پیش بینی کند که یک اکتشاف و اختراع مهم به چه نتیجهای منتهی میشود. چرا ممکن است جی پی تی -۴ یا جی پی تی -۵ به ضرر ما تمام شوند؟ زیرا ما تمام دادههای جهان را به آن میدهیم و بسیاری از آن دادهها از معتبرترین منابع میگویند که جهان توسط تغییرات آب و هوایی ساخته دست بشر تهدید میشود. راه حل واضح برای این مشکل باید از بین بردن کامل هومو ساپینسها باشد. چگونه ممکن است هوش مصنوعی ما را از بین ببرد؟ نه با تولید اندرویدهای قاتل شوارتزنگر بلکه صرفا با استفاده از قدرت آن برای تقلید از ما به منظور دیوانه کردن مان به صورت فردی و جمعی درون یک جنگ داخلی.
باور نمیکنید؟ به خبر پدر دو فرزند بلژیکی توجه کنید که پس هفتهها صحبت با یک چت بات هوش مصنوعی درباره ترس از تغییرات آب و هوایی، خودکشی کرد.
مدلهای زبانی بزرگ اتمها یا بیتها را دستکاری نمیکنند. آنان ما را دستکاری میکنند و مهم نیست که جی پی تی -۵ تصمیم بگیرد ما را از بین ببرد. در عوض، خطر این است که ما خود را به عنوان یک گونه با استفاده از مدلهای زبانی بزرگ برای اهداف شرم آور از هم جدا کنیم.
ما در حال حاضر در راه رسیدن به کابوس راسکولنیکف در پایان جنایت و مکافات هستیم که در آن بشریت مجموعا دیوانه میشود و به قتلگاه داخلی فرو میرود. به محتوای دیپ فیک و تولید تصاویر جعلی توسط جی پی تی -۴ نگاهی بیاندازید.
ترجمه: زهرا فدایی
* کاساندرا زیباترین دختر پریاموس بود و بسیاری به امید ازدواج با او، در جنگ تروآ، همراه پریاموس شدند. تا اینکه آپولون عاشقش شد و به او پیشگویی آموخت. اما چون کاساندرا به عشق او پاسخی نداد، آپولون او را محکوم کرد که همیشه صحیح پیشگویی کند، اما کسی پیشگوییهای او را باور نکند. کاساندرا بارها سقوط تروآ را پیشگویی کرد، اما در اثر نفرین آپولون، کسی حرف او را نپذیرفت و او را دیوانه پنداشتند. پس از شکست تروآ، آیاس در مقابل پالادیوم به او تجاوز کرد. آتنا به مجازات این کار، یونانیهای بسیاری را در راه بازگشت به وطن نابود کرد. سرانجام کاساندرا را به آگاممنون هدیه کردند. او سرنوشت آگاممنون و کلوتایمنسترا و فرزندانشان را پیشگویی کرد و به دست کلوتایمنسترا کشته شد.