فرارو- از آنجایی که کسبوکارها بهرهوری را در اولویت قرار میدهند و تلاش میکنند هزینههایشان را کاهش دهند، هوش مصنوعی راهی آسان برای جایگزینی نیروی انسانی در نظر گرفته میشود.
به گزارش فرارو به نقل از سان، نکات منفی و نگرانیهای زیادی درباره دخالت هوش مصنوعی در زندگی روزمره انسانها وجود دارد. به علاوه، وقتی هوش مصنوعی شروع به خودآموزی کند چه اتفاقی میافتد؟
رسانهها ایده سیستمهای هوش مصنوعی را به عنوان ماشینهایی مطیع و متکی به انسانها رایج کردهاند. با این حال، توسعه دهندگان هوش مصنوعی آموختهاند این سیستمها میتوانند به راحتی از کنترل خارج شوند. خارج شدن کنترل هوش مصنوعی به این معنا است که این سیستمها ار خروجی خود یاد میگیرد و به اطلاعات جدیدی میرسند. محققان دانشگاه رایس و استنفورد از جمله اولین کسانی بودند که متوجه شدند کیفیت و تنوع پاسخهای هوش مصنوعی بدون جریان دائمی دادههای جدید و کاهش مییابند.
از کنترل خارج شدن کامل هوش مصنوعی زمانی اتفاق میافتد که یک مدل صرفاً بر از خروجی خودش آموزش ببیند، اما سیستمهای هوش مصنوعی همچنین میتوانند با استفاده از دادههای منتشر شده توسط سایر سیستمهای هوش مصنوعی آموزش ببینند. این اتفاق مشکلات زیادی ایجاد میکند، زیرا محتوای تولید شده در اینترنت هر چه بیشتر توسط هوش مصنوعی تولید میشود. سنجش میزان دادههای موجود در اینترنت که توسط هوش مصنوعی تولید شدهاند کاری دشوار است، اما این مقدار به سرعت در حال رشد است.
نیوزگارد، پلتفرمی که اعتبار سایتهای خبری را ارزیابی میکند، «اطلاعات نادرست تولید شده توسط هوش مصنوعی» را به صورت آنلاین ردیابی میکند. تا پایان سال ۲۰۲۳، این گروه ۶۱۴ وبسایت خبری غیرقابل اعتماد که محتوایشان توسط هوش مصنوعی تولید میشد را شناسایی کرد. این وبسایتها به ۱۶ زبان مختلف در اینترنت فعالیت میکنند و آدرسی معتبر مانند دیگر سایتهای خبری دارند. برخی از آنها حاوی اخبار نادرست سیاسی هستند، در حالی که برخی دیگر مرگ و مسائل مربوط به زندگی افراد مشهور را جعل میکنند.
خطر این سایتها زمانی آشکار میشود که مردم نتوانند میان اطلاعات منتشر شده توسط انسانها و هوش مصنوعی تمایز قائل شوند و محتوای گمراهکننده را واقعیت بدانند.
طرفداران هوش مصنوعی معتقدند این فناوری میتواند در زمینههای خاصی از کار پلیس همکاری داشته باشد؛ از بررسی جرایم گرفته تا پاسخگویی به تماسها با مراکز پلیس. برخی از کارشناسان فناوری بر این باورند که هوش مصنوعی به زودی نقشی کلیدی در تجزیه و تحلیل جرم ایفا خواهد کرد و فشار بر نیرو پلیس که با کمبود گسترده کارکنان مواجه است را کاهش خواهد داد. یک نظرسنجی در سال ۲۰۱۹ که توسط انجمن تحقیقات اجرایی پلیس آمریکا انجام شد نشان داد ۸۶ درصد از سازمانهای پلیس ایالت متحده با کمبود افسر رو به رو هستند.
در یک نظرسنجی دو سال بعد، نرخ استخدام نیرو پلیس با کاهش ۵ درصدی رو به رو بود، در حالی که نرخ بازنشستگی نزدیک به ۵۰ درصد افزایش داشت. به همین دلیل، برخی مشتاق هستند تا فناوری هوش مصنوعی را در نیرو پلیس به کار گیرند. هوش مصنوعی میتواند اطلاعات کلیدی از گزارشات را برای استفاده در تحقیقات برجسته کند. این فناوری جدید میتواند جمعآوری و تفسیر دادهها را خودکار کند؛ از این طریق تیمهای تجزیه و تحلیل جرم برای کارهای پیچیده زمان بیشتری در اختیار خواهند داشت. به طور مشابه، از این سیستمها میتوان برای کشف جعل اسناد غیرقانونی استفاده کرد.
یکی از محتملترین کاربردهای هوش مصنوعی در نیرو پلیس فناوری تشخیص چهره است؛ ابزاری که در حال حاضر نیز به طور گسترده مورد استفاده قرار میگیرد. هوش مصنوعی میتواند ویژگیهای چهره مجرامان را از روی تصاویر دوربینهای مداربسته تشخیص داده و ترسیم کند. سپس هوش مصنوعی تصویری که رسم کرده است را با تصاویر موجود در پایگاههای داده نیرو پلیس مطابقت میدهد تا شخص مجرم را پیدا کند.
حامیان استفاده از هوش مصنوعی در نیرو پلیس میعتقدند این فناوریها برای شناسایی مظنونان یا افراد ناپدید شده فوقالعاده عمل خواهد کرد، اما نگرانی در مورد حریم خصوصی و آزادیهای مدنی همچنان یک چالش بزرگ است. هوش مصنوعی با تشخیص نادرست میتواند تعصبات نژادی و جنسیتی را تشدید کند و منجر به رفتار ناعادلانه شود. علاوه بر این، این احتمال وجود دارد که ابزارهایی مانند تشخیص چهره علیه روزنامه نگاران یا مخالفان سیاسی مورد استفاده قرار گیرند.
تحلیلگران پیش بینی کرده بودند در سال ۲۰۲۳ به دلیل استفاده از هوش مصنوعی شاهد از دست دادن مشاغل مختلفی در زمینه حقوقی باشیم، اما چنین چیزی اتفاق نیفتاد. گزارشی از گلدمن ساکس تخمین زده است که تقریباً نیمی از کارهای قانونی را میتوان خودکار کرد. مطالعه دیگری که توسط محققان دانشگاه پرینستون، پنسیلوانیا و نیویورک انجام شد، نتیجه گرفت قانون بیش از همه در معرض حمله فناوریهای جدید است. به راحتی میتوان تصور کرد که چگونه رباتهای هوش مصنوعی سخنگو میتوانند در کارهای حقوقی دخالت کنند؛ به خصوص با وجود پیشرفت روزانه این فناوری و نزدیکی هر چه بیشتر آن به صدا و پاسخ انسانها.
با این حال، هوش مصنوعی در این زمینه نیز دارای معایبی است، به ویژه تمایل آن به ساختن اطلاعات نادرست و غیرواقعی! در حالی که طرفداران اصرار دارند این نقایص قابل برطرف شدن هستند، اما فعالیت هوش مصنوعی در زمینهای که کاملا وابسته به تفسیر و تحلیل حقایق است بسیار خطرناک است. استیون شوارتز، وکیل نیویورکی، یکی از مخالفان استفاده از هوش مصنوعی در زمینههای حقوقی است. شوارتز در ماه مه ۲۰۲۳ اعتراف کرد که از چت جی پی تی برای کمک به تحقیق در مورد یک پرونده استفاده کرد و شش حکم جعلی دادگاه را در پرونده مشتری خود ذکر کرده بود. شوارتز در جلسهای در ماه بعد گفت هرگز تصور نمیکرد چت جی پی تی بتواند دروغ بگوید و قصد گمراه کردن دادگاه را نداشت.
در حالی که نگرانی در مورد استخدام هوش مصنوعی چیز جدیدی نیست، ممکن است این اتفاق زودتر از آنچه فکر میکنید اتفاق بیفتد. برای ترم پییز امسال، کالج مورهاوس قصد دارد دستیاران آموزشی هوش مصنوعی را به کلاسهای درسی معرفی کند. برخلاف اساتید واقعی، این رباتها نیازی به خوردن، خوابیدن یا وقت شخصی ندارند، به این معنی که ۲۴ ساعته در دسترس دانشجویان خواهند بود.
دانش آموزان از طریق مرورگر گوگل کروم به برنامه دسترسی خواهند داشت و سوالات خود را در کادری تایپ میکنند یا میتوانند با کمک استاد مجازی خود صحبت کنند. سپس استاد مجازی یک پاسخ شفاهی به زبان مادری دانش آموز ارائه میدهد. این تلاش توسط محسینه موریس، استاد ارشد آموزش در دانشگاه مورهاوس رهبری میشود. انتظار میرود هر استاد دانشگاه در عرض سه تا پنج سال آینده یک دستیار هوش مصنوعی داشته باشد. به گفته موریس، این آزمایش مورهاوس را به طرح اولیه کلاسهای درس واقعیت مجازی در سایر کالجها و دانشگاهها تبدیل خواهد کرد.