به گزارش فرارو به نقل از فارین پالسی، زمانی که صحبت از هوش مصنوعی پیشرفته به میان میآید بخش عمده بحث بر این موضوع متمرکز شده که آیا کارکنان یقه سفید اکنون با تهدید انقراض روبه رو شدهاند؟؛ مشابه تهدیدی که طبقه کارگر زمانی از سوی رباتها با آن مواجه شده بود. در حالی که محتمل است هوش مصنوعی بتواند بخشی از آن چه وکلا، حسابداران، معلمان، برنامه نویسان و روزنامه نگاران انجام میدهند را تکرار کند، باز هم این نقطهای نیست که مهمترین انقلاب رخ دهد.
تازهترین هوش مصنوعی که به عنوان ترانسفورماتورهای از پیش آموزشدیده مولد (GPT) شناخته میشود، نوید تغییر کامل ژئوپولیتیک جنگ و بازدارندگی را میدهد. جی پی تی این کار را به شیوههایی انجام میدهد که آرامش بخش نیست.
این فناوری میتواند جنگ را کمتر کشنده سازد و احتمالا بازدارندگی را تقویت کند. با گسترش چشمگیر نقش پهپادهای هدایت شده با هوش مصنوعی در نیروهای سه گانه ارتش، میتوان از جان انسانها محافظت کرد. با این وجود، در حال حاضر پنتاگون در حال آزمایش باتهای هوش مصنوعی است که میتوانند با جت جنگنده اف -۱۶ اصلاح شده پرواز کنند و روسیه نیز خودروهای تانک مانند خودران را آزمایش کرده است.
چین عجله دارد تا سیستمهای هوش مصنوعی خود را راه اندازی کند و اثربخشی پهپادهای مسلح نیز در سالهای آینده افزایش خواهد یافت. یکی از بزرگترین تلاشها اگرچه هنوز نوپاست پیشبرد هوش مصنوعی در برنامه محرمانه نیروی هوایی ایالات متحده، نسل بعدی سلطه هوایی میباشد که بر اساس آن حدود ۱۰۰۰ فروند پهپاد جنگی "وینگمن" به نام هواپیماهای رزمی مشارکتی در کنار ۲۰۰ هواپیمای خلبان عمل میکنند.
"داگلاس شاو" مشاور ارشد ابتکار عمل تهدید هستهای میگوید: "من به راحتی میتوانم آیندهای را تصور کنم که در آن تعداد پهپادها بسیار بیشتر از افراد نیروهای مسلح باشند".
به گفته "چارلز والد" ژنرال بازنشسته نیروی هوایی ایالات متحده این یک عامل افزایش دهنده نیرو خواهد بود. یکی از بزرگترین مشکلات در حال حاضر جذب نیرو است.
از سوی دیگر، نرم افزار مبتنی بر هوش مصنوعی میتواند قدرتهای بزرگ را وادار کند که زمان تصمیم گیری خود را به جای ساعتها یا روزها به چند دقیقه کاهش دهند. آنان ممکن است بیش از حد به ارزیابیهای استراتژیک و تاکتیکی هوش مصنوعی وابسته باشند؛ حتی زمانی که صحبت از جنگ هستهای به میان میآید. "هربرت لین" از دانشگاه استنفورد میگوید خطر این است که تصمیم گیرندگان میتوانند به تدریج به هوش مصنوعی جدید به عنوان بخشی از فرماندهی و کنترل تسلیحات تکیه کنند، زیرا این هوش مصنوعی با سرعتی بسیار بیشتر از انسانها عمل میکند.
"جیمز جانسون" از دانشگاه آبردین در اسکاتلند در کتابی که در سال جاری با عنوان "هوش مصنوعی و بمب" چاپ شد سناریوی یک جنگ هستهای تصادفی در دریای چین شرقی در سال ۲۰۲۵ میلادی را ترسیم میکند که توسط اطلاعات مبتنی بر هوش مصنوعی و توسط باتهای مجهز به هوش مصنوعی، دیپ فیکها (جعل عمیق) و عملیات پرچم دروغین تشدید میشود.
لین، کارشناس امنیت سایبری میگوید: "وقتی مردم باور میکنند که ماشینها در حال فکر کردن هستند احتمالا کارهای دیوانه وار انجام میدهند".
در گزارشی که در اوایل فوریه منتشر شد انجمن کنترل تسلیحات اعلام کرد که هوش مصنوعی و سایر فناوریهای جدید مانند موشکهای مافوق صوت میتوانند منجر به "مبهم کردن تمایز حمله متعارف و هسته ای" شوند. در این گزارش آمده است که بهره برداری از فناوریهای نوظهور به منظور استفاده نظامی با سرعتی بسیار سریعتر از ارزیابی خطرات آن و ایجاد محدودیتهایی برای استفاده پیش میرود. بنابراین، کاهش سرعت تسلیحات مبتنی بر فناوری ها، سنجش دقیق خطرات در انجام این کار و اعمال محدودیتهای معنادار در استفاده نظامی ضروری میباشد".
مقامهای امریکایی گفته اند که این کار را انجام میدهند، اما ممکن است در مسیری پرخطر حرکت کنند. وزارت دفاع امریکا در ژانویه سال جاری دستورالعمل خود را در مورد سیستمهای تسلیحاتی شامل استفاده از هوش مصنوعی به روز کرد و اعلام نمود که در توسعه و استقرار سیستمهای تسلیحاتی خودمختار باید از نیروهای انسانی استفاده شود.
با این وجود، پنتاگون در همان زمان در حال آزمایش بود که در یکپارچهسازی تصمیم گیری از همه شاخههای خدماتی و دستورات چندگانه رزمی از هوش مصنوعی بهره ببرد. با توجه به این که دولت بایدن صادرات فناوری پیشرفته به چین به ویژه نیمه هادیهای پیشرفته را سرکوب میکند که پیشتازی فعلی ایالات متحده در هوش مصنوعی حفظ شود، پنتاگون احتمالا این تلاشها را تسریع خواهد کرد.
"والد" میگوید: "من فکر میکنم هوش مصنوعی به اولویتبندی هدف کمک میکند. این موضوع میتواند در استراتژی در برابر چین مفید باشد، زیرا آن کشور در مقایسه با ایالات متحده برای پل زدن در اقیانوس آرام، دارای برتری میدانی است که میتواند در پاسخ حمله به تایوان اختلال ایجاد کند".
"جک شاناهان" رئیس مرکز مشترک هوش مصنوعی پنتاگون گفته است در حالی که وزارت دفاع امریکا مشتاقانه به دنبال "ادغام قابلیتهای هوش مصنوعی" میباشد این موضوع قطعا شامل فرماندهی و کنترل هستهای نمیشود. شاناهان افزوده که میتواند نقش هوش مصنوعی را در تعیین استفاده از نیروی کُشنده تصور کند.
او میافزاید: "من به طور مستقیم به سراغ سیستمهای تسلیحاتی خودمختار مرگبار نمیروم، اما میخواهم بگویم که از هوش مصنوعی در سیستمهای تسلیحاتی خود استفاده خواهیم کرد تا به ما مزیت رقابتی بدهد. این برای نجات جان افراد و کمک به جلوگیری از وقوع جنگ اهمیت دارد".
پرسش این است که آیا چینیها و روسها به همراه سایر طرفین از قوانین مشابه واشنگتن پیروی خواهند کرد؟
والد میگوید: "من فکر نمیکنم که ایالات متحده در مسیر اجازه دادن به چیزهایی که کنترل انسانی بر روی آن وجود ندارد، حرکت کند، اما مطمئن نیستم که سایر طرفین این کار را انجام ندهند. من فکر میکنم بزرگترین نگرانی اجازه دادن به این دستگاه برای کنترل امور است".
نگرانی دیگر آن است که فناوری پیشرفته هوش مصنوعی میتواند به بازیگران سرکش مانند تروریستها اجازه دهد تا در ساخت بمبهای کثیف یا سایر وسایل کشنده دانش کسب کنند. هوش مصنوعی در حال حاضر توسط بازیگران بسیار بیشتری نسبت به دوران جنگ سرد به اشتراک گذاشته شده؛ به این معنی که میتوان از آن برای شناسایی سایتهای تسلیحات هستهای استفاده کرد و مکانهای سایتها را پیدا کرد. "شاو" میگوید:"هوش مصنوعی پویایی پنهان کردن و یافتن چیزها را تغییر خواهد داد".
آن چه واضح به نظر میرسد این است که یک مسابقه تسلیحاتی جدید هوش مصنوعی در حال انجام است و احتمالا کاری برای متوقف کردن آن نمیتوان انجام داد.
"ایلان ماسک" و "استیو وزنیاک" در نامهای سرگشادهای در اواخر ماه مارس به همراه بیش از ۲۰۰۰ فرد پیشتاز و محقق در عرصه فناوری از آزمایشگاههای سراسر جهان خواستند تا آموزش جدیدترین مدلهای هوش دیجیتال را که ممکن است منجر به فاجعهای برای انسان شود متوقف سازند.
هشدار آنان در مورد تهدید وجودی ناشی از هوش مصنوعی برای جامعه انسانی، ممکن است تا حدی اغراق آمیز باشد. این نامه توسط برخی از کارشناسان هوش مصنوعی به عنوان متنی رعب انگیز قلمداد شد و به دلیل این که این توهم را ایجاد میکند که مدلها همواره میتوانند مانند فیلمهای علمی – تخیلی از نوع ترمیناتور باشند، مورد انتقاد قرار گرفته است.
لین با اشاره به کاراکتر شرور هوش مصنوعی که تمدن بشری را در فیلم معروف ۱۹۸۴ نابود کرد میگوید: "این اسکای نت نیست، اما میتواند منجر به خطای انسانی بر اساس وابستگی بیش از حد شود. این مهماتی با هدایت دقیق در برابر هوش انسانی و عقلانیت انسانی است".
علاوه بر این، این ایده که دولتها به خاطر ایمنی قصد داشته باشند توسعه هوش مصنوعی را به تاخیر بیاندازند موضوعی بعید به نظر میرسد. این نه تنها بدان خاطر است که بزرگترین شرکتهای فناوری جهان درگیر رقابت با یکدیگر به خصوص در سیلیکون ولی شده اند، بلکه به این دلیل است که فناوری جدید در یک محیط بین المللی در حال گسترش میباشد. محیطی که ایالات متحده، چین و روسیه اکنون در آن درگیر فضایی تلخ به منظور منازعه برای تسلط هستند.
ژنرال "دیوید دپتولا" یکی از فرماندهان سابق نیروی هوایی آمریکا میگوید: "به یاد داشته باشید که دشمن از فرصت استفاده میکند. حتی اگر تحقیقات در حوزه هوش مصنوعی و توسعه آن در امور نظامی را متوقف کنیم چینیها و تا حدی روسها مطمئنا تحقیقات هوش مصنوعی خود را ادامه خواهند داد. هر دو کشور از خود علاقه چندانی برای پیگیری توافقات آتی کنترل تسلیحات نشان نداده اند".
نامه سرگشاده اخیر تازهترین نمونه از چیزی بود که میتوان آن یک وحشت گسترده نامید از زمانی که چت جی پی تی در اواخر پاییز گذشته در صحنه ظاهر شد و شرکتهای بزرگ فناوری تلاش کردند تا سیستمهای مبتنی بر هوش مصنوعی خود را با هوش رقابتی انسان معرفی کنند.
در نامه مذکور آمده که موضوعات مورد بحث برای تمدن بشری اساسی هستند: آیا باید اجازه دهیم ماشینها کانالهای اطلاعاتی ما را با تبلیغات و دروغ پر کنند؟ آیا باید تمام مشاغل را خودکار کنیم؟ آیا باید ذهنهای غیرانسانی را پرورش دهیم در حالی که ممکن است در نهایت جایگزین ما شوند؟ آیا باید خطر از دست دادن کنترل تمدن خود را بپذیریم؟
با این وجود، نکته کلیدی این بود: اگر شرکتهایی که آزمایشگاههای هوش مصنوعی را تامین مالی میکنند با چنین تواقفی موافقت نمیکنند دولتها باید وارد عمل شوند و یک مهلت قانونی وضع کنند.
با این وجود، "ولادیمیر پوتین" رئیس جمهور روسیه در سال ۲۰۱۷ میلادی اعلام کرده بود " کسی که در این حوزه (هوش مصنوعی) رهبر شود فرمانروای جهان خواهد بود". او هم چنین گفته بود که سرنوشت جنگهای آینده را پهپادها تعیین خواهند کرد.
شاو از ابتکار عمل تهدید هستهای میگوید: "بزرگترین مشکل این است که ما واقعا در مورد آن چه که در آینده خواهد آمد گفتگو نمیکنیم".
بسیاری دیگر نیز با این نظر موافق هستند. سازمان پروژههای پژوهشی پیشرفتهٔ دفاعی (دارپا) در حال اجرای یک برنامه تحقیقاتی گسترده به نام AI Forward است. سخنگوی دارپا اخیرا اعلام کرده بود که سیستمهای مبتنی بر هوش مصنوعی مولد مانند چت جی پی تی مسائل جدیدی را در مورد "اطمینانی که احتمالا برای تصمیم گیری مرگ یا زندگی به آن نیاز داریم" مطرح کرده اند.