صفحه نخست

سیاست

ورزشی

علم و تکنولوژی

عکس

ویدیو

راهنمای بازار

زندگی و سرگرمی

اقتصاد

جامعه

فرهنگ و هنر

جهان

صفحات داخلی

کد خبر: ۲۷۵۶۸۷
تاریخ انتشار: ۱۵:۰۲ - ۱۸ خرداد ۱۳۹۵
هوش مصنوعی مقوله‌ای است که با انتشار هر خبری درباره‌ی آن، دو واکنش متفاوت را در چهره‌ی خواننده مشاهده می‌کنیم: ابتدا حس خوشحالی از اینکه قرار است تعداد زیادی از مسئولیت‌های انسان به دوش این فناوری بیافتد و دومی واکنشی است که گوگل و دانشگاه آکسفورد قصد دارند درصد وقوع آن را به حداقل برسانند.

به گزارش گجت نیوز و به نقل از نئووین، در واقع این واکنش همان عکس‌العملی است که خیلی از افرادی که بیشتر زندگی خود را با ابزار آلات سنتی گذرانده‌اند، در برابر ورود یک فناوری و کشف جدید نشان می‌دهند، همان واکنشی که انسان‌های اولیه بعد از کشف آتش و گرمای آن نشان دادند و همان واکنشی که انسان‌ها بعد از تولد و ورود به دنیا از خود بروز می‌دهند: احساس ترس!

شاید بخش عظیمی از این موضوع که خیلی از انسان‌ها از هوش مصنوعی و گسترش توانایی‌های آن ترس دارند، به فیلم‌های علمی و تخیلی سینمای هالیوود مربوط شود؛ جایی که فیلم‌هایی نظیر من یک ربات هستم، Her، ترمیناتور و حتی ماتریکس با ذهن مخاطبان خود بازی می‌کنند و هرکدام جنبه‌های بسیار متفاوتی از دنیای آینده به همراه هوش مصنوعی و سیستم‌های رباتیک را به تصویر می‌کشند.

اما این ترس تنها به دلیل پخش و تماشای این فیلم‌های فانتزی ایجاد نمی‌شود و حتی برخی از برترین دانشمندان و محققان جهان در زمینه‌ی علوم مرتبط نظیر فیزیک و کامپیوتر هشدار داده‌اند که هوش مصنوعی می‌تواند در صورت کنترل نشدن مناسب، آینده‌ی انسان‌ها را به خطر بیندازد و حتی باعث منقرض شدن نسل انسان بشود؛ استیون هاوکینگ، نابغه‌ی بزرگ علم فیزیک و اخترشناسی جهان که پیش‌ازاین هم درباره‌ی نفوذ انسان به خارج از محدوده‌ی منظومه‌ی شمسی هشدار داده بود، در زمینه‌ی هوش مصنوعی نیز چندان خوشبین نیست و معتقد است که اقدامات محققان و مخترعان در این زمینه باید کنترل و محدود شود.

با افزایش میزان این ترس در بین عموم مردم و انتشار هشدار توسط نهادهای مربوطه، محققین دانشگاه آکسفورد تصمیم گرفته‌اند که در برابر این تهدید بایستند و روش‌هایی را ارائه دهند که در زمان اضطرار و به‌طور مثال در جایی که ربات‌ها از کنترل بشریت خارج‌ شده‌اند و کنترل مراکز اصلی کره‌ی زمین را به دست گرفته‌اند، به کمک انسان‌ها بیاید و آنها را از چنگال هوش مصنوعی آسیب‌ناپذیر، نجات دهد.

محققان دانشگاه آکسفورد یک در پشتی برای هوش مصنوعی می‌سازند
اصل مطلب و چکیده‌ی تحقیق جامع و طرح تئوری محققان دانشگاه آکسفورد (Oxford) در انگلیس این است که آنها بتوانند یک فریمورک منطقی توسعه دهند که این فریمورک به انسان‌ها اجازه دهد که در زمان اضطراری و در واقع روز مبادا، بتوانند الگوریتم‌های اجرایی هوش مصنوعی را تحت کنترل آن در بیاورند، آنها را به‌طور کامل غیر فعال کنند و یا برای مدت کوتاهی از کار بیندازند.

یکی از بخش‌های جالب توجه این تحقیقات که توسط موسسه‌ی آینده‌ی انسانیت (Future of Humanity) و به نام Safely Interruptible Agents منتشر شده است، این است که محققان دانشگاه آکسفورد بتوانند راهی را ایجاد کنند که هوش مصنوعی نتواند وجود این فریمورک و دخالت آن را تشخیص دهد، زیرا ممکن است که بعد از فهمیدن این موضوع، تلاش کند که آن را از بین ببرد و یا اجرایش را از الگوریتم‌های خود خارج کند؛ شاید با خواندن این توضیحات بهتر متوجه شوید که هوش مصنوعی قرار است که به مانند یک نیروی هوشمند واقعی فعالیت کند، اینطور نیست؟

در واقع هوش مصنوعی توسط انسان‌ها توسعه داده می‌شود و محققان و توسعه‌دهندگانی که بر روی این فناوری کار می‌کنند، سعی دارند که هوش آن را تا حد ممکن بالا ببرند و شاید با استفاده از قابلیت‌هایی نظیر یادگیری ماشینی و تعامل با مجموعه‌های آموزشی، حتی سطح دانش و هوش این فناوری از هوش خود انسان‌ها بالا برود!

گوگل و آکسفورد پا به پای هم علیه هوش مصنوعی
طی هفته‌های اخیر این موضوع و روند تحقیقات اخیر محققان دانشگاه آکسفورد بر روی هوش مصنوعی و مقابله با آن حسابی سر و صدا به پا کرده است و افراد تاثیرگذاری از دنیای علم و فناوری نسبت به آن واکنش نشان داده‌اند؛ به‌طور مثال ایلان ماسک مدیر کمپانی‌های تسلا و اسپیس ایکس اعلام کرده است که در حال حاضر، تنها یک کمپانی است که او را در زمینه‌ی هوش مصنوعی نگران می‌کند (بدون ذکر نام آن کمپانی) و به همین دلیل او مبلغ ۱۱ میلیون دلار را به موسسه‌ی آینده‌ی انسانیت اهدا کرده است که محققان دانشگاه آکسفورد، تحقیقات بر روی کنترل و دفاع از انسان‌ها در برابر هوش مصنوعی را ادامه دهند.

جالب است بدانید که علاوه بر دانشجویان دانشگاه آکسفورد انگلستان، تیم محققان Deep Mind در گوگل نیز در حال کار بر روی این مشکل هستند و هدف آنها این است که استفاده از هوش مصنوعی در آینده باعث به خطر افتادن جان و مال انسان‌ها نشود.

در توضیحات تحقیقی که توسط محققان آکسفورد انجام شده، آمده است که آنها قصد دارند این فریمور را به‌گونه‌ای طراحی کنند که در موقع پیش آمدن بحران و مواقع اضطراری، هوش مصنوعی فریب خورده و تصور کند که دستورهای انسان‌ها، در واقع همان تصمیماتی هستند که توسط خودش گرفته شده‌اند و به این ترتیب برای مقابله با آن و دفاع از خود، اقدامی انجام ندهد.
ارسال نظرات