صفحه نخست

سیاست

ورزشی

علم و تکنولوژی

عکس

ویدیو

راهنمای بازار

زندگی و سرگرمی

اقتصاد

جامعه

فرهنگ و هنر

جهان

صفحات داخلی

این‌گونه به نظر می‌رسد که پیش‌بینی‌ها درمورد روزگاری که در نهایت کامپیوتر‌ها تصمیم می‌گیرند تا امور را به دست بگیرند، پایانی ندارد با این حال پژوهشی تازه از دانشگاه استنفورد توانایی‌های غیرقابل پیش‌بینی هوش مصنوعی را سراب می‌داند.
تاریخ انتشار: ۱۵:۱۷ - ۲۳ ارديبهشت ۱۴۰۲

استیون هاوکینگ در این باره هشدار داده بود که توسعه هوش مصنوعی ممکن است روزی به منزله پایان نسل بشر باشد.

به گزارش خبرآنلاین، ایلان ماسک، یکی از بنیانگذاران شرکت OpenAI هم در این رابطه گفته: «هوش مصنوعی مرا به طرز وحشتناکی می‌ترساند. توانایی آن به مراتب بیشتر از چیزی است که هر کسی می‌داند و روند پیشرفت آن به صورت تصاعدی بالاست.»

چندی پیش بیش از ۱۰۰۰ لیدر دنیای فناوری، نامه‌ای را به امضا رساندند که در آن بر این نکته تاکید شده بود که فناوری‌های هوش مصنوعی، خطرات عمیقی برای جامعه و بشریت ایجاد می‌کنند و در این نامه آن‌ها خواستار آن شدند که تحقیقات درباره هوش مصنوعی تا زمانی که خطرات احتمالی آن بیشتر شناخته شود، متوقف گردد.

یوشوا بنجیو، استاد و محقق هوش مصنوعی در دانشگاه مونترئال دراین باره گفته: «ما باید حسابی مراقب باشیم.»

این روز‌ها گزارش‌های منتشره در رسانه‌ها به طرز فزاینده‌ای، هشدار‌هایی را در مورد پیامد‌های ناخواسته این فناوری مخرب رو به رشد صادر می‌کنند و این درحالی است که در سوی دیگر وعده‌های جذاب و وسوسه کننده فوق‌العاده‌ای در مورد خدمات هوش مصنوعی در طیف وسیعی از بخش‌ها، از صنعت و اقتصاد و آموزش و علم گرفته تا کشاورزی، پزشکی و تحقیقات به گوش می‌رسد.

یکی از موارد نگرانی، درباره رفتار‌های پیش‌بینی نشده است که تحت عنوان مجموعه‌ای از تعاملات پیش‌بینی نشده و برنامه‌ریزی نشده در یک سیستم تعریف می‌شوند و از رفتار‌های برنامه‌ریزی شده ساده‌تر در بخش‌های جداگانه ناشی می‌شوند.

محققان بر این باورند که برخی شواهد از چنین رفتاری در برخی مدل‌ها مشاهده شده؛ مثلا در سیستم‌هایی که یاد می‌گیرند تا شطرنج بازی کنند و یا استراتژی‌هایی برای پیشرفت تعیین می‌کنند و یا زمانی که ربات‌ها تغییرپذیری‌هایی را در الگو‌های حرکتی به نمایش می‌گذارند که در ابتدا برنامه‌ریزی نشده بود.

اتان دایر، دانشمند کامپیوتر گوگل در واکنش به یک آزمایش هوش مصنوعی که در آن یک کامپیوتر به طرز غیرمنتظره‌ای به تنهایی و با بهره‌گیری از چند ایموجی، عنوانی برای یک فیلم انتخاب کرد گفت: «با وجودی که در انتظار شگفتی بودم، اما واقعا از کار‌هایی که این مدل‌ها می‌توانند انجام دهند، حیرت‌زده شدم.»، اما دایر احتمالا از شنیدن این خبر که یک تیم تحقیقاتی در دانشگاه استنفورد آب پاکی را برروی گزارش‌های رفتار‌های پیش‌بینی نشده ریخته، حیرت‌زده خواهد شد.

رایان شافر، براندو میراندا و سانمی کیوجو، هفته گذشته مقاله‌ای را منتشر و در آن اعلام کردند که شواهد رفتار‌های پیش‌بینی‌نشده مبتنی بر آماری است که به احتمال قریب به یقین به اشتباه تفسیر شده‌اند. آن‌ها در این باره گفته‌اند: «پیغام ما این است که ادعای قبلی درباره توانایی‌های پیش‌بینی‌نشده، احتمالا سرابی است که توسط تحلیل‌های محققان ایجاد شده است.»

آن‌ها در مقاله خود توضیح داده‌اندکه توانایی مدل‌های زبان بزرگ، با تعیین درصد پیش‌بینی‌های صحیح آن‌ها اندازه‌گیری می‌شود. تجزیه و تحلیل‌های آماری ممکن است به روش‌های متعددی ارائه شوند. محققان معتقدند که زمانی که نتایج در معیار‌های غیرخطی و یا ناپیوسته گزارش می‌شوند، تغییرات تند و تیز و غیرقابل پیش‌بینی‌ای به نظر می‌رسند که به اشتباه به‌عنوان شاخص‌های رفتاری پیش‌بینی نشده تعبیر خواهند شد.

در هر صورت یک ابزار جایگزین برای اندازه‌گیری داده‌های یکسان، استفاده از معیار‌های خطی است که تغییراتی هموار و پیوسته را نشان می‌دهد که برخلاف اندازه‌گیری‌های قبلی، از رفتار‌های قابل پیش‌بینی و غیر اضطراری خبر می‌دهند.

تیم دانشگاه استنفورد در ادامه به این نکته اشاره کرده که عدم استفاده از نمونه‌های بزرگ، منجر به نتیجه‌گیری‌های اشتباه می‌شود: «ادعا‌های موجود درباره توانایی‌های پیش‌بینی نشده، توسط تحلیل‌های محققان خلق شده‌اند و تغییرات اساسی در رفتار مدل در وظایف و امور خاص نیستند.»

آن‌ها در ادامه تاکید کردند که اگر چه روش‌شناسی در تحقیقات گذشته، احتمالا نتایج گمراه‌کننده‌ای را به همراه داشته، اما هر آنچه که در مقاله تحقیقاتی آن‌ها درج شده نیز نباید به این صورت تفسیر شود که مدل‌های زبانی بزرگ نمی‌توانند توانایی‌های پیش‌بینی نشده را به نمایش بگذارند و روش‌شناسی مناسب، می‌تواند به خوبی از چنین ظرفیت‌هایی رونمایی کند.

این محققان گفته‌اند: «دستورالعمل اصلی، برای یک کار ثابت و یک خانواده مدل ثابت است و محقق می‌تواند معیار‌هایی برای خلق یک توانایی پیش‌بینی‌نشده برگزیده و یا معیاری برای حذف یک توانایی پیش‌بینی نشده انتخاب کند.»

و یا همانطور که یکی از مفسران برجسته گفته: «خروجی الگوریتم، به اندازه پارامتر‌هایی که سازندگان آن تعیین کرده‌اند، خوب از آب در می‌آید. بدان معنا که فضا برای سوگیری‌های احتمالی در خود هوش مصنوعی وجود دارد.»

و این مفسر برجسته چه کسی است؟ ChatGPT مایکروسافت!

ارسال نظرات