هوش مصنوعی مقولهای است که با انتشار هر خبری دربارهی آن، دو واکنش متفاوت را در چهرهی خواننده مشاهده میکنیم: ابتدا حس خوشحالی از اینکه قرار است تعداد زیادی از مسئولیتهای انسان به دوش این فناوری بیافتد و دومی واکنشی است که گوگل و دانشگاه آکسفورد قصد دارند درصد وقوع آن را به حداقل برسانند.
به گزارش گجت نیوز و به نقل از نئووین، در واقع این واکنش همان عکسالعملی است که خیلی از افرادی که بیشتر زندگی خود را با ابزار آلات سنتی گذراندهاند، در برابر ورود یک فناوری و کشف جدید نشان میدهند، همان واکنشی که انسانهای اولیه بعد از کشف آتش و گرمای آن نشان دادند و همان واکنشی که انسانها بعد از تولد و ورود به دنیا از خود بروز میدهند: احساس ترس!
شاید بخش عظیمی از این موضوع که خیلی از انسانها از هوش مصنوعی و گسترش تواناییهای آن ترس دارند، به فیلمهای علمی و تخیلی سینمای هالیوود مربوط شود؛ جایی که فیلمهایی نظیر من یک ربات هستم، Her، ترمیناتور و حتی ماتریکس با ذهن مخاطبان خود بازی میکنند و هرکدام جنبههای بسیار متفاوتی از دنیای آینده به همراه هوش مصنوعی و سیستمهای رباتیک را به تصویر میکشند.
اما این ترس تنها به دلیل پخش و تماشای این فیلمهای فانتزی ایجاد نمیشود و حتی برخی از برترین دانشمندان و محققان جهان در زمینهی علوم مرتبط نظیر فیزیک و کامپیوتر هشدار دادهاند که هوش مصنوعی میتواند در صورت کنترل نشدن مناسب، آیندهی انسانها را به خطر بیندازد و حتی باعث منقرض شدن نسل انسان بشود؛ استیون هاوکینگ، نابغهی بزرگ علم فیزیک و اخترشناسی جهان که پیشازاین هم دربارهی نفوذ انسان به خارج از محدودهی منظومهی شمسی هشدار داده بود، در زمینهی هوش مصنوعی نیز چندان خوشبین نیست و معتقد است که اقدامات محققان و مخترعان در این زمینه باید کنترل و محدود شود.
با افزایش میزان این ترس در بین عموم مردم و انتشار هشدار توسط نهادهای مربوطه، محققین دانشگاه آکسفورد تصمیم گرفتهاند که در برابر این تهدید بایستند و روشهایی را ارائه دهند که در زمان اضطرار و بهطور مثال در جایی که رباتها از کنترل بشریت خارج شدهاند و کنترل مراکز اصلی کرهی زمین را به دست گرفتهاند، به کمک انسانها بیاید و آنها را از چنگال هوش مصنوعی آسیبناپذیر، نجات دهد.
محققان دانشگاه آکسفورد یک در پشتی برای هوش مصنوعی میسازند
اصل مطلب و چکیدهی تحقیق جامع و طرح تئوری محققان دانشگاه آکسفورد (Oxford) در انگلیس این است که آنها بتوانند یک فریمورک منطقی توسعه دهند که این فریمورک به انسانها اجازه دهد که در زمان اضطراری و در واقع روز مبادا، بتوانند الگوریتمهای اجرایی هوش مصنوعی را تحت کنترل آن در بیاورند، آنها را بهطور کامل غیر فعال کنند و یا برای مدت کوتاهی از کار بیندازند.
یکی از بخشهای جالب توجه این تحقیقات که توسط موسسهی آیندهی انسانیت (Future of Humanity) و به نام Safely Interruptible Agents منتشر شده است، این است که محققان دانشگاه آکسفورد بتوانند راهی را ایجاد کنند که هوش مصنوعی نتواند وجود این فریمورک و دخالت آن را تشخیص دهد، زیرا ممکن است که بعد از فهمیدن این موضوع، تلاش کند که آن را از بین ببرد و یا اجرایش را از الگوریتمهای خود خارج کند؛ شاید با خواندن این توضیحات بهتر متوجه شوید که هوش مصنوعی قرار است که به مانند یک نیروی هوشمند واقعی فعالیت کند، اینطور نیست؟
در واقع هوش مصنوعی توسط انسانها توسعه داده میشود و محققان و توسعهدهندگانی که بر روی این فناوری کار میکنند، سعی دارند که هوش آن را تا حد ممکن بالا ببرند و شاید با استفاده از قابلیتهایی نظیر یادگیری ماشینی و تعامل با مجموعههای آموزشی، حتی سطح دانش و هوش این فناوری از هوش خود انسانها بالا برود!
گوگل و آکسفورد پا به پای هم علیه هوش مصنوعی
طی هفتههای اخیر این موضوع و روند تحقیقات اخیر محققان دانشگاه آکسفورد بر روی هوش مصنوعی و مقابله با آن حسابی سر و صدا به پا کرده است و افراد تاثیرگذاری از دنیای علم و فناوری نسبت به آن واکنش نشان دادهاند؛ بهطور مثال ایلان ماسک مدیر کمپانیهای تسلا و اسپیس ایکس اعلام کرده است که در حال حاضر، تنها یک کمپانی است که او را در زمینهی هوش مصنوعی نگران میکند (بدون ذکر نام آن کمپانی) و به همین دلیل او مبلغ ۱۱ میلیون دلار را به موسسهی آیندهی انسانیت اهدا کرده است که محققان دانشگاه آکسفورد، تحقیقات بر روی کنترل و دفاع از انسانها در برابر هوش مصنوعی را ادامه دهند.
جالب است بدانید که علاوه بر دانشجویان دانشگاه آکسفورد انگلستان، تیم محققان Deep Mind در گوگل نیز در حال کار بر روی این مشکل هستند و هدف آنها این است که استفاده از هوش مصنوعی در آینده باعث به خطر افتادن جان و مال انسانها نشود.
در توضیحات تحقیقی که توسط محققان آکسفورد انجام شده، آمده است که آنها قصد دارند این فریمور را بهگونهای طراحی کنند که در موقع پیش آمدن بحران و مواقع اضطراری، هوش مصنوعی فریب خورده و تصور کند که دستورهای انسانها، در واقع همان تصمیماتی هستند که توسط خودش گرفته شدهاند و به این ترتیب برای مقابله با آن و دفاع از خود، اقدامی انجام ندهد.