به گزارش فرارو به نقل از پروژه سندیکایی، چه چیزی قادر به توضیح این حجم از فوران وحشت در میان گروهی خاصی از نخبگان است؟ کنترل و تنظیم آشکارا در مرکز داستان قرار دارد، اما توسط چه کسی؟ در طول وقفه نیم ساله پیشنهادی زمانی که بشریت میتواند خطرات را ارزیابی کند چه کسی از انسانیت حمایت میکند؟ از آنجایی که آزمایشگاههای هوش مصنوعی در چین، هند و روسیه به کار خود (احتمالا در خفا) ادامه خواهند داد بحث عمومی جهانی در مورد این موضوع غیرقابل تصور است.
با این وجود، ما باید در نظر بگیریم که در اینجا چه چیزی در خطر است. "یووال نوح هراری" مورخ در سال ۲۰۱۵ میلادی در کتاب خود به نام "انسان خردمند" پیش بینی کرده بود که محتملترین نتیجه هوش مصنوعی یک شکاف رادیکال بسیار قویتر از شکاف طبقاتی در جامعه بشری خواهد بود. به زودی بیوتکنولوژی (فرآوری زیستی) و الگوریتمهای رایانهای به قدرت خود در تولید بدن، مغز و ذهن خواهند پیوست و در نتیجه شکاف بزرگتری "بین کسانی که میدانند چگونه بدن و مغز را مهندسی کنند و آنانی که نمیدانند" ایجاد خواهند کرد. در چنین دنیایی "کسانی که سوار قطار پیشرفت میشوند تواناییهای الهی در خلقت و نابودی را به دست میآورند در حالی که آنانی که پشت سر باقی میمانند با انقراض مواجه خواهند شد".
وحشت بازتاب یافته در نامه مرتبط با هوش مصنوعی ناشی از این ترس است که حتی کسانی که در "قطار پیشرفت" هستند نتوانند آن را هدایت کنند. اربابان فئودال دیجیتال کنونی ما ترسیدهاند. با این وجود، آن چه آنان میخواهند بحث عمومی نیست بلکه توافقی بین دولتها و شرکتهای فناوری به منظور حفظ قدرت در جایی است که متعلق به آنان میباشد.
گسترش گسترده قابلیتهای هوش مصنوعی یک تهدید جدی برای صاحبان قدرت محسوب میشود از جمله برای کسانی که هوش مصنوعی را توسعه میدهند و میخواهند مالک و کنترل کننده آن باشند. این به چیزی کمتر از پایان سرمایه داری آن گونه که ما میشناسیم اشاره میکند و در چشم انداز یک سیستم هوش مصنوعی خود بازتولید کننده که به ورودی کمتری از سوی عوامل انسانی نیاز خواهد داشت آشکار میشود (تجارت الگوریتمی بازار صرفا اولین گام در این مسیر است). انتخابی که برعهده ما گذاشته میشود بین شکل جدیدی از کمونیسم و هرج و مرج غیرقابل کنترل خواهد بود.
چت باتهای گفتگوی جدید به بسیاری از افراد تنها (یا نه چندان تنها) شبهای بی پایانی گفتگوی دوستانه درباره فیلم، کتاب، آشپزی یا سیاست را ارائه میدهند. برای استفاده مجدد از استعاره قدیمی من چیزی که مردم به دست خواهند آورد نسخه هوش مصنوعی قهوه بدون کافئین یا نوشابه بدون قند است: یک همسایه با رفتار دوستانه که به سادگی خود را با نیازهای شما سازگار میکند.
ساختاری از انکار فتیشیستی در اینجا وجود دارد: "من به خوبی میدانم که با یک شخص واقعی صحبت نمیکنم، اما به نظر میرسد که من هستم بدون هیچ یک از خطرات همراه آن".
در هر صورت، بررسی دقیق نامه هوش مصنوعی نشان میدهد این نامه تلاش دیگری برای منع غیرممکن است. این یک پارادوکس (تناقض) قدیمی است: برای ما به عنوان انسان غیرممکن است که در آینده پسا انسان شرکت کنیم بنابراین، باید توسعه آن را ممنوع کنیم. برای این که حول این فناوریها متمرکز شویم باید سوال قدیمی لنین را بپرسیم: آزادی برای چه کسی و برای انجام چه کاری؟ آیا ما خیلی بیشتر از آن چه که تصور میکردیم کنترل نشده بودیم؟
به جای هشدار درباره تهدید آزادی و حیثیتمان در آینه شاید ابتدا باید به این فکر کنیم که آزادی فعلی به چه معناست. تا زمانی که این کار را انجام ندهیم مانند افراد هیستریکی عمل میکنیم که به گفته "ژاک لکان" روانکاو فرانسوی به دنبال استادی ناامید هستیم، اما تنها استادی که بتوانیم بر آن مسلط شویم.
"رای کورزویل" آینده نگر پیش بینی میکند که به دلیل ماهیت تصاعدی پیشرفت فناوری ما به زودی با ماشینهای "معنوی" روبرو خواهیم شد که نه تنها همه نشانههای خودآگاهی را نشان میدهند بلکه از هوش انسانی نیز بسیار فراتر میروند. با این وجود، نباید این موضع "پسا بشری" برای مشغله پارادایمی مدرن را با دستیابی به تسلط کامل تکنولوژیکی بر طبیعت اشتباه گرفت. در عوض آن چه ما شاهد آن هستیم معکوس دیالکتیکی این روند است.
علوم "پسا بشری" امروزی دیگر در مورد سلطه نیست. باور آن شگفت انگیز است: مدلهای هوش مصنوعی "جعبه سیاه" چه نوع ویژگیهای احتمالی و برنامه ریزی نشدهای را ممکن است برای خود به دست آورند؟ هیچ کس نمیداند و هیجان خاصی در این باره نهفته است.
از این رو، در اوایل قرن حاضر "ژان پیر دوپوی" فیلسوف – مهندس فرانسوی در عرصه رباتیک، ژنتیک، فناوری نانو، حیات مصنوعی و هوش مصنوعی جدید وارونگی عجیبی از غرور سنتی انسان محور را تشخیص داد که فناوری آن را قادر میسازد.
او میگوید: "چگونه میتوانیم توضیح دهیم که علم به یک فعالیت خطرناک تبدیل شده که به گفته برخی از دانشمندان برجسته امروزه تهدید اصلی برای بقای بشریت است؟ برخی از فیلسوفان در پاسخ به این پرسش میگویند که رویای دکارت یعنی ارباب و مالک طبیعت شدن اشتباه بوده و باید فورا به وضعیت "تسلط بر تسلط" بازگردیم. آنان چیزی نفهمیده اند. آنان نمیبینند که فناوری که از طریق همگرایی همه رشتهها در افق ما نمایان میشود و دقیقا هدف آن عدم تسلط است. مهندس فردا نه به سبب سهل انگاری یا نادانی بلکه از روی اختیار شاگرد جادوگر خواهد بود".
بشریت در حال خلق خدا یا شیطان خود است. در حالی که نمیتوان نتیجه را پیش بینی کرد یک چیز قطعی است: اگر چیزی شبیه "پسا انسانیت" به عنوان یک واقعیت جمعی پدیدار شود جهان بینی ما هر سه موضوع تعیین کننده و همپوشاننده خود را از دست خواهد داد: انسانیت، طبیعت، و الوهیت. هویت ما به عنوان انسان تنها در برابر پس زمینه طبیعت غیر قابل نفوذ میتواند وجود داشته باشد، اما اگر زندگی به چیزی تبدیل شود که بتوان آن را به طور کامل توسط فناوری دستکاری کرد ویژگی "طبیعی" خود را از دست خواهد داد. وجود کاملا کنترل شده فاقد معناست، چه برسد به خوشبختی. مساله این است آیا ما هوش مصنوعیای که ایجاد کردیم را مورد پرستش قرار خواهیم داد؟
هر دلیلی برای نگرانی وجود دارد که بینشهای فنی - شناختی جهان پسا بشری، خیال پردازیهای ایدئولوژیکی هستند که ورطهای را که در انتظار ماست مبهم میسازند. نیازی به گفتن نیست که بیش از شش ماه مکث مورد نیاز است تا اطمینان حاصل شود که انسانها در آیندهای نه چندان دور بی ربط نشوند و زندگی شان بی معنا نخواهد شد.
اگر هوش مصنوعی در آینده بصورتی که ایلان ماسک گفته ، اجرایی شود ، یعنی بصورت تراشه در کنار مغز انسان استفاده شود ، تعادل کنونی بشر ازبین خواهد رفت و بعد از آن خواندن دروس از مقطع ابتدایی تا دانشگاه
بی معنی خواهد شد چون انسان هوشمند دیجیتالی بدون یادگیری به سطوح بالای علمی آنچنان که در نرم افزار تراشه طراحی شده ، خواهد رسید.
یعنی هر علمی که در تراشه طراحی شده ، در حد نهایت علم بشریت ، انسان آن را یاد خواهد گرفت.
بعد از آن
سیستم های عظیم آموزشی حذف گردیده ، بشر بسوی رقابت در نهایت حضیض اخلاقی سقوط خواهد کرد.
اندیشه های والای اخلاقی به مدار سلطه علم نوین درآمده و تمام
هویت های خوب بشر ازبین
خواهد رفت.
و حتی در صورت استفاده اخلاقی و خوب از آن ، یک رقابت پنهان برای حذف ارزشها کافی خواهد بود.