صفحه نخست

سیاست

ورزشی

علم و تکنولوژی

عکس

ویدیو

راهنمای بازار

زندگی و سرگرمی

اقتصاد

جامعه

فرهنگ و هنر

جهان

صفحات داخلی

«یاشوا بنجیو»، دانشمند علوم کامپیوتر که یکی از پدرخوانده‌های هوش مصنوعی نیز شناخته می‌شود، درمورد خطرات توسعه بی‌قاعده این فناوری هشدار داده است. او توسعه هوش مصنوعی را به ساخت هیولا‌هایی تشبیه کرده که از انسان قوی‌ترند. یاشوا بنجیو ازجمله افرادی است که بخش عمده‌ای از دوران حرفه‌ای خود را به تحقیق درمورد شبکه‌های عصبی و الگوریتم‌های یادگیری عمیق اختصاص داده است. محصولاتی مانند ChatGPT و Claude نتیجه مستقیم تحقیقات این دانشمند کانادایی هستند. او نگران توسعه هوش مصنوعی است و در مصاحبه‌ای اختصاصی با یاهو فاینانس این نگرانی‌ها را بیان کرده است.
تاریخ انتشار: ۲۱:۳۴ - ۲۱ مهر ۱۴۰۳

«یاشوا بنجیو»، دانشمند علوم کامپیوتر که یکی از پدرخوانده‌های هوش مصنوعی نیز شناخته می‌شود، درمورد خطرات توسعه بی‌قاعده این فناوری هشدار داده است. او توسعه هوش مصنوعی را به ساخت هیولا‌هایی تشبیه کرده که از انسان قوی‌ترند.

به گزارش دیجیاتو، یاشوا بنجیو ازجمله افرادی است که بخش عمده‌ای از دوران حرفه‌ای خود را به تحقیق درمورد شبکه‌های عصبی و الگوریتم‌های یادگیری عمیق اختصاص داده است. محصولاتی مانند ChatGPT و Claude نتیجه مستقیم تحقیقات این دانشمند کانادایی هستند. او نگران توسعه هوش مصنوعی است و در مصاحبه‌ای اختصاصی با یاهو فاینانس این نگرانی‌ها را بیان کرده است.

یاشوا بنجیو، پدرخوانده هوش مصنوعی، درمورد توسعه بی‌قاعده این فناوری هشدار داد

به گفته بنجیو، هوش نوعی قدرت است و هرکسی بتواند این قدرت را در سطح انسانی یا بالاتر کنترل کند، بسیار بسیار قدرتمند خواهد بود. او در ادامه گفت: «عموماً افرادی از فناوری استفاده می‌کنند که خواهان قدرت بیشتر هستند؛ تسلط اقتصادی، تسلط نظامی، تسلط سیاسی. قبل از ایجاد فناوری که بتواند قدرت را به روش‌های خطرناک متمرکز کند، باید بسیار مراقب باشیم.»

یاشوا بنجیو در پاسخ به این سؤال که چرا باید نگران هوش مصنوعی در سطح انسانی باشیم؟ 

گفت:«اگر این [هوش مصنوعی]به دست افراد نادرست بیفتد، می‌تواند بسیار خطرناک باشد. این ابزار‌ها می‌توانند به‌زودی به کمک تروریست‌ها و بازیگران دولتی بیایند که می‌خواهند دموکراسی‌های ما را نابود کنند. مسئله دیگری که وجود دارد و بسیاری از دانشمندان نیز به آن اشاره کرده‌اند، نحوه آموزش هوش مصنوعی است. ما به‌وضوح نمی‌دانیم چگونه می‌توانیم از استقلال این سیستم‌ها جلوگیری کنیم و نگذاریم اهدافی برای محافظت از خودشان داشته باشند. ما ممکن است کنترل این سیستم‌ها را از دست بدهیم؛ بنابراین در مسیری هستیم که شاید هیولا‌هایی بسازیم که از ما قدرتمندتر بشوند.»

 تاامروز افراد زیادی از حوزه فناوری و دانشمندان نگرانی‌هایشان درمورد آینده هوش مصنوعی و اثرات آن بر آینده بشریت را مطرح کرده‌اند؛ برای مثال، بیل گیتس به‌تازگی سه نگرانی بزرگ خود درمورد هوش مصنوعی را علنی کرده است. در مقابل، برخی دیگر از مدیران فناوری اعتقاد دارند جهان به هوش مصنوعی پیشرفته‌تر و بیشتری نیاز دارد و حتی باید سرمایه‌گذاری‌های بیشتری روی ساخت دیتاسنتر‌های هوش مصنوعی انجام شود.

ارسال نظرات