صفحه نخست

سیاست

ورزشی

علم و تکنولوژی

عکس

ویدیو

راهنمای بازار

زندگی و سرگرمی

اقتصاد

جامعه

فرهنگ و هنر

جهان

صفحات داخلی

آیا این درست است که از دست آن عصبانی شویم؟ آیا هوش مصنوعی به نسل بشر پایان می‌دهد؟ آیا این ابزار‌ها هیبت انگیز نیستند؟ این موارد تنها بخشی از پرسش‌های مطرح شده اخیر درباره هوش مصنوعی هستند فناوری‌ای که به نگرانی‌ها دامن زده است.
تاریخ انتشار: ۰۷:۴۷ - ۱۲ اسفند ۱۴۰۱

فرارو- درک تامپسون؛ یک روزنامه نگار امریکایی و از نویسندگان نشریه آتلانتیک است. او از نوامبر ۲۰۲۱ میلادی میزبان پادکستی هفتگی بوده که نامزد دریافت جایزه بهترین پادکست I Heart Media شد. کتاب او تحت عنوان "موفق سازها؛ پدیده‌ها چگونه محبوب می‌شوند"؟ با ترجمه "سینا بحیرایی" به زبان فارسی و توسط انتشارات "مهرگان خرد" چاپ شده است. این کتاب از پرفروش‌ترین کتاب‌های امریکا شد و برنده جایزه کتاب بازاریابی لئونارد ال بری انجمن بازاریابی آمریکا برای بهترین کتاب از نظر بازاریابی در سال ۲۰۱۸ میلادی شد.

به گزارش فرارو به نقل از آتلانتیک، اخبار مربوط به هوش مصنوعی در سال ۲۰۲۳ میلادی به قدری سریع منتشر شده که من دچار سرگیجه روایی شده‌ام. همین چند هفته پیش "چت جی پی تی" (Chat GPT) یک معجزه کوچک به نظر می‌رسید. با این وجود، به زودی شور و شوق به شک و تردید تبدیل شد این که شاید آن برنامه صرفا یک ابزار تکمیل خودکار فانتزی بود که نمی‌توانست جلوی ساختن مطالب را بگیرد.

در اوایل فوریه، اعلامیه مایکروسافت مبنی بر تصاحب Open AI باعث افزایش ۱۰۰ میلیارد دلاری ارزش سهام آن شرکت شد. چند روز بعد روزنامه گاران فاش ساختند که این همکاری باعث ایجاد چت باتی شیطانی شده که به نظر می‌رسد تهدیدی برای خشونت علیه نویسندگان است و از آنان خواسته بود همسران شان را رها کنند.

در ادامه به پرسش‌هایی در مورد هوش مصنوعی می‌پردازم که نمی‌توانم از طرح آن دست بردارم:

۱- این امکان وجود دارد که درباره "بینگ" نگرانی‌مان اشتباه بوده باشد و آن برنامه تنها یک ابزار تکمیل خودکار بسیار پیچیده باشد؟

بهترین انتقاد از چت بات بینگ آن است که ما از بازتاب خود ترسیده‌ایم. خبرنگاران از بینگ خواستند بدترین سناریو‌های هوش مصنوعی را که بشر تاکنون حال تصور کرده بود به صورت طوطی وار مطرح نماید و دستگاه که به معنای واقعی کلمه آن سناریو‌ها را خوانده و حفظ کرده بود با ترکیب مجدد کار ما پاسخ داد.

همان گونه که "استفان وُلفرم" دانشمند رایانه توضیح می‌دهد مفهوم اصلی مدل‌های زبان بزرگ از جمله چت جی پی تی در واقع کاملا ساده است: "از نمونه عظیمی از متن‌های خلق شده توسط انسان از وب، کتاب و موارد دیگر آغاز کنید. سپس یک شبکه عصبی را آموزش دهید تا متنی به این شکل تولید کند. به طور خاص، آن متن را قادر به آغاز به صورت یک "اعلان" کنید و سپس با متن مانند آن چه با آن آموزش داده شده ادامه دهید".

یک مدل زبانی بزرگ (LLM) به سادگی یک واژه را در یک زمان اضافه می‌کند تا متنی را تولید کند که مطالب آموزشی آن را تقلید کند. اگر از آن بخواهیم که از شکسپیر تقلید کند با ادبیاتی مشابه آثار او پاسخ مان را می‌دهد. اگر بخواهیم از "فیلیپ کی دیک" (نویسنده آمریکایی که عمدتا به دلیل نگارش آثار علمی - تخیلی شهرت داشت) تقلید کند به درستی متنی دیستوپیایی را ارائه خواهد کرد. این فناوری به دور از آن یک بیگانه یا یک هوش فرازمینی باشد یک فناوری عمیقا درون زمینی است. بدون آن که ما را بفهمد ما را می‌خواند و پاسخ ساختگی از تاریخ متنی ما را منتشر می‌کند. چگونه ممکن است چنین چیزی ترسناک باشد؟ خب، برای برخی افراد این گونه نیست. "یان لیکان" دانشمند ارشد هوش مصنوعی متا می‌گوید: "کارشناسان سال‌ها می‌دانستند که مدل‌های زبانی بزرگ باورنکردنی هستند، مزخرف ایجاد می‌کنند، می‌توانند مفید باشند در واقع احمقانه هستند، اما ترسناک نیستند".

۲- آیا حق داریم از "بینگ" عصبانی باشیم، زیرا رقابت شرکتی برای تسلط بر هوش مصنوعی بسیار سریع در حال حرکت است؟
شرکت سازنده چت جی پی تی یعنی Open AI به عنوان یک شرکت تحقیقاتی غیرانتفاعی تاسیس شد. چند سال بعد به عنوان یک شرکت انتفاعی تغییر ساختار داد و امروز شریک تجاری مایکروسافت است. امروزه تحقیقات هوش مصنوعی در شرکت‌های بزرگ و استارت آپ‌های سرمایه گذاری خطر پذیر متمرکز شده است. چه چیز بدی در آن وجود دارد؟ شرکت‌ها معمولا در توسعه محصولات مصرفی از طریق کاهش قیمت و بهبود کارایی و کیفیت بسیار بهتر از دانشگاه‌ها و دولت‌ها عمل می‌کنند. من تردیدی ندارم که برای مثال، هوش مصنوعی در مایکروسافت، متا و گوگل سریع‌تر از درون ارتش ایالات متحده توسعه می‌یابد. با این وجود، این شرکت‌ها ممکن است به دلیل عجله شان سهم بازار را از دست بدهند. چت بات بینگ زمانی که برای اولین بار منتشر شد به طور تکان دهنده‌ای تهاجمی بود و نه نسخه بهتر یک موتور جستجو که به مردم کمک می‌کرد تا حقایق را پیدا کنند، شلوار بخرند و سینما‌های محلی را جستجو کنند.

این آخرین باری نیست که یک شرکت بزرگ یک محصول هوش مصنوعی را عرضه می‌کند که در همان ساعت اول همگان را شگفت زده کرده و باعث می‌شود تا کاربران در روز‌های آینده نگران باشند. گوگل که پیش‌تر خود را با نمایش عجولانه چت بات اش خجالت زده کرد منابع خود را برای تسریع توسعه هوش مصنوعی متمرکز کرده است. سرمایه‌های مخاطره آمیز به استارت آپ‌های هوش مصنوعی سرازیر می‌شوند. سرمایه گذاری در هوش مصنوعی از کمتر از ۵ درصد کل صندوق‌های سرمایه گذاری خطر پذیر در سال ۲۰۱۲ میلادی به بیش از ۲۰ درصد در سال ۲۰۲۰ میلادی افزایش یافته است.

آیا مطمئن هستیم که می‌دانیم چه کار می‌کنیم؟ "توبی اورد" فیسلوف پیشرفت سریع فناوری هوش مصنوعی را بدون پیشرفت‌های مشابه در اخلاق هوش مصنوعی با "نمونه‌ای از موتور جت که می‌تواند به سرعت‌هایی برسد که پیش‌تر دیده نشده، اما بدون پیشرفت‌های مربوطه در فرمان و کنترل" مقایسه کرد. ده سال بعد ممکن است به این لحظه از تاریخ به عنوان یک اشتباه بزرگ نگاه کنیم. گویی بشریت سوار بر یک جت با سرعت ۵ ماخ بدون دستورالعملی برای هدایت هواپیما است.

۳- چه می‌شود اگر حق داشته باشیم از بینگ عصبانی شویم، زیرا ترسیدن از فناوری جدید بخشی از چیزی است که آن را ایمن‌تر می‌سازد؟

در اینجا یک خلاصه جایگزین از اتفاقات بینگ آمده است: مایکروسافت یک چت بات منتشر کرد. برخی از کاربران گفتند: "چت بات شما رفتار عجیبی دارد"؟ مایکروسافت مشکل را بررسی کرد و گفت: "بله، درست می‌گویید" و مجموعه‌ای از موارد را برطرف کرد.

آیا قرار نیست فناوری این گونه عمل کند؟ آیا این نوع حلقه‌های بازخورد محکم به دست اندرکاران عرصه فناوری کمک نمی‌کند بدون شکستن چیز‌هایی که نمی‌خواهیم شکسته شوند به سرعت حرکت کنند؟ مشکلاتی که واضح‌ترین سرفصل‌ها را می‌سازند ممکن است مشکلاتی باشند که حل آن آسان‌تر است در نهایت به قدری مبهم و واضح هستند که بتوان در یک عنوان خلاصه کرد. من بیش‌تر نگران مشکلاتی هستم که مشاهده و نامگذاری شان دشوارتر است.

۴- چه می‌شود اگر هوش مصنوعی به نسل بشر آن طور که ما می‌شناسیم پایان دهد؟

بینگ و چت جی پی تی نمونه‌هایی از هوش عمومی مصنوعی نیستند. با این وجود، نشان دهنده توانایی ما برای حرکت بسیار سریع به سمت چیزی مانند یک ماشین فوق هوشمند هستند. چت جی پی تی و چت بات بینگ می‌توانند امتحانات مجوز پزشکی را پشت سر بگذارند و نمره خوبی در آزمون آی کیو کسب کنند. بسیاری از افراد نگران هستند که پیشرفته‌ترین هوش مصنوعی ما به طور آشکار با نیات طراحان آن هماهنگ نباشد.

سال هاست که اخلاق شناسان درباره هوش مصنوعی نگران این به اصطلاح مشکل همسویی هستند. به طور خلاصه: چگونه می‌توانیم اطمینان حاصل کنیم که هوش مصنوعی‌ای که می‌سازیم ممکن است به طور قابل توجهی هوشمندتر از هر فردی باشد که تا به حال زندگی کرده و با منافع سازندگان و نژاد بشر همسو باشد؟ یک هوش مصنوعی غیرهمطراز فوق هوشمند می‌تواند مشکل ساز باشد.

یکی از سناریو‌های فاجعه باری که تا حدی توسط "الیزر یودکووسکی" نویسنده و دانشمند رایانه ترسیم شده بدین صورت است: در آینده‌ای نزدیک دانشمندان رایانه هوش مصنوعی‌ای را می‌سازند که از آستانه ابرهوشی عبور می‌کند و می‌تواند هوش مصنوعی فوق هوشمند دیگری بسازد.

این بازیگران هوش مصنوعی مانند یک شبکه تروریستی غیردولتی کارآمد با یکدیگر کار می‌کنند تا جهان را نابود کنند و خود را از کنترل انسان رها سازند.

آنان وارد یک سیستم بانکی می‌شوند و میلیون‌ها دلار می‌دزدند. آنان احتمالا با پنهان کردن IP و ایمیل خود به عنوان یک دانشگاه یا یک کنسرسیوم تحقیقاتی از یک آزمایشگاه درخواست می‌کنند که برخی از پروتئین‌ها را از DNA سنتز کند. آزمایشگاه، با این باور که با مجموعه‌ای از انسان‌های عادی و اخلاقی سر و کار دارد ناخواسته در نقشه شرکت می‌کند و یک باکتری فوق‌العاده می‌سازد. در همین حال، هوش مصنوعی به انسان دیگری پول می‌دهد تا آن ابرباکتری را در جایی از جهان آزاد کند. ماه‌ها بعد این باکتری با سرعتی غیرمحتمل و غیرقابل توقف تکثیر شده و نیمی از بشریت جان شان را از دست داده اند. من نمی‌دانم نسبت به سناریو‌های فاجعه مانند این باید کجا بایستم. گاهی فکر می‌کنم این سناریو دیوانه کننده است.

۵- آیا ما بیشتر از "هوش مصنوعی غیر همسو" ترس داریم یا از هوش مصنوعی همسو با منافع بازیگران بد؟

حل مشکل همطرازی در ایالات متحده تنها یک بخش از چالش است. بیایید بگوییم که ایالات متحده یک فلسفه همسویی پیچیده ایجاد کرده و ما آن فلسفه را در مجموعه‌ای از قوانین و مقررات عاقلانه تدوین می‌کنیم تا از رفتار خوب هوش مصنوعی فوق هوشمندمان اطمینان حاصل کنیم. برای مثال، این قوانین توسعه سیستم‌های هوش مصنوعی که بازیگران داخلی یا خارجی را مورد دستکاری قرار می‌دهد غیرقانونی می‌سازد. این راه حل شاید در امریکا جواب دهد، اما هنوز چین و روسیه وجود دارند. هنوز شبکه‌های تروریستی نیز وجود دارند و هنوز افراد دچار مشکلات روانی و افراد یاغی نیز وجود دارند. هیچ قانون آمریکایی‌ای نمی‌تواند این بازیگران را از دستکاری هوش مصنوعی باز دارد. قوانین منع گسترش تسلیحات هسته‌ای به سختی اعمال می‌شوند، اما تسلیحات هسته‌ای به مواد خامی نیاز دارند که کمیاب هستند و نیاز به پالایش گران قیمت دارند. در مورد نرم افزار وضعیت آسان‌تر است و این فناوری هر ماه در حال بهبود می‌باشد. مستبدان و شبکه‌های تروریستی در دهه آینده می‌توانند با هزینه کم هوش مصنوعی شیطانی بسازند که قادر است برخی از اهداف ذکر شده در داستان یودکوفسکی را محقق سازد.

۶- شاید باید کل کسب و کار رویا پردازی دیستوپیا را کنار بگذاریم و پرسش‌های معمولی تری را مطرح نماییم مانند این که "آیا این ابزار‌ها به نوعی الهام بخش نیستند؟ "

پروفسور "ایتان مولیک" در یک تبادل قابل توجه با بینگ از چت بات خواست که دو پاراگراف در مورد خوردن یک تکه کیک بنویسد. آن بات یک نمونه نوشتاری تولید کرد که ظاهری و بدون الهام بود. مولیک سپس از بینگ خواست تا قوانین "کرت وونگات" (نویسنده‌ای آمریکایی بود که معروف‌ترین نوشته او سلاخ خانه شماره‌ی پنج است) را برای نوشتن داستان بخواند و نوشتن خود را با استفاده از این قوانین بهبود بخشد سپس پاراگراف را دوباره انجام دهد.

هوش مصنوعی به سرعت یک داستان کوتاه بسیار متفاوت درباره زنی که شوهر بد خود را با دسر می‌کشد تولید کرد داستان شروع شد:"کیک دروغ بود. خوشمزه به نظر می‌رسید، اما مسموم بود. " در نهایت آن بات مانند یک دانش آموز وظیفه شناس توضیح داد که چگونه داستان جدید وحشتناک با هر قانون مطابقت دارد.

اگر می‌توانید این مبادله را بدون احساس هیبت بخوانید باید بپرسم که آیا در تلاش برای مقابله با آینده ماشین‌های قاتل تصمیم گرفته اید که با تبدیل شدن به یک ربات یک شروع اولیه داشته باشید؟ این کاملا شگفت انگیز است. ما سال‌ها برای بحث در مورد چگونگی تغییر آموزش در پاسخ به این ابزار‌ها وقت داریم، اما بدون شک چیزی جالب و مهم در حال رخ دادن است.

هوش مصنوعی کمکی کدنویسی مانند ابزار Copilot Git Hub اکنون بیش از ۱ میلیون کاربر دارد که از آن برای کمک به نوشتن حدود ۴۰ درصد کد خود استفاده می‌کنند. نشان داده شده که برخی از مدل‌های زبانی بزرگ در انتخاب سهام از تحلیلگران طرف فروش بهتر عمل می‌کنند. چت جی پی تی مهارت‌های خوبی در تهیه پیش نویس برای نامه‌های درخواستی، دادخواست‌ها و قضاوت‌های خلاصه و حتی پیش نویس پرسش‌هایی برای بررسی متقابل نشان داده است. مدل‌های زبانی بزرگ جایگزینی برای وکلا نیستند، اما می‌توانند بهره وری آن را افزایش دهند.

۷- اگر پیشرفت هوش مصنوعی ما را با عقب ماندن غافلگیر کند چه اتفاقی خواهد افتاد قدری شبیه خودرو‌های خودران که نتوانستند جاده را تصاحب کنند؟

خودرو‌های خودران باید در دنیای فیزیکی حرکت کنند (در جاده ها، اطراف عابران پیاده، در چارچوب رژیم‌های نظارتی آن) در حالی که هوش مصنوعی در حال حاضر نرم‌افزار خالصی است که در رایانه‌ها شکوفا شده است.

با این وجود، به زودی روزی فرا خواهد رسید که هوش مصنوعی ممکن است همه چیز را بخواند در آن نقطه شرکت‌ها برای دستیابی به رشد بهره وری تلاش خواهند کرد. به نظر من به احتمال زیاد هوش مصنوعی شگفت انگیز است، اما بی‌ثبات کننده نیست. برای مثال، ما برای دهه‌ها پیش‌بینی می‌کردیم که هوش مصنوعی جایگزین رادیولوژیست‌ها شود، اما یادگیری ماشینی برای رادیولوژی هنوز یک مکمل برای پزشکان است نه جایگزین.

بیایید امیدوار باشیم که این نشانه‌ای از رابطه هوش مصنوعی با بقیه بشریت باشد که به جای بازی در نقش کوه یخ سرنوشت ساز به عنوان یک مکمل یا کمک کننده عمل می‌کند.

برچسب ها: هوش مصنوعی
ارسال نظرات