این روزها در سراسر دنیا هیجان زیادی درباره بهرهگیری از تواناییهای هوش مصنوعی مولد در راستای تولید محتوا وجود دارد؛ از استفاده از بازاریابی گرفته تا ترجمه صدای پادکستها به زبانهای مختلف.
به گزارش خبرآنلاین، در کنار این وعدههای بزرگ و جذاب و در غیاب محدودیتی خاص برای هوش مصنوعی، نگرانیهای عظیمی نیز درمورد نحوه بهرهگیری از هوش مصنوعی در کارهای مختلف وجود دارد؛ از جمله درباره گسترش اطلاعات نادرست در مقیاسهای بزرگ و استفاده از آثار سازندگان بدون ذکر منبع و از دست رفتن گسترده مشاغل.
با در نظر داشتن تمام این ریسکها و مخاطرات، دولتهای سراسر دنیا در تلاشند تا قوانینی را برای بهرهگیری از هوش مصنوعی اعمال کنند تا در کنار حمایت از علم روز و نوآوری، ایمنی و استفاده عادلانه از هوش مصنوعی نیز در کشورشان لحاظ شود. در این مقاله قصد داریم به تلاشهای کشورهای مختلف در این مسیر بپردازیم:
دولت آمریکا تا به امروز به شرکتهای فناوری اجازه داده تا هریک به شیوه خودشان از هوش مصنوعی بهره ببرند، ولی قانونگذاران معتقدند که اعمال مقررات برای هوش مصنوعی ضروری است. در سال ۲۰۲۳ آنها جلسات متعددی را با شرکتهای پیشرو در زمینه هوشمصنوعی، از OpenAI گرفته تا Nvidia برگزار کردند.
قانونگذاران مباحثی را درباره الزامات صدور مجوز و گواهینامه مدلهای هوش مصنوعی پرخطر در صورت لزوم مطرح کردهاند. در عین حال، آژانسهای فدرال، از جمله اداره حمایت مالی از مصرف کنندگان، وزارت دادگستری و کمیسیون فرصتهای شغلی برابر و کمیسیون تجارت فدرال اعلام کردهاند که در حال حاضر بسیاری از برنامههای کاربردی هوش مصنوعی، مشمول قوانینی این چنینی هستند.
بریتانیا که محل استقرار شرکتهای هوش مصنوعی متعددی از جمله DeepMind (آزمایشگاه هوش مصنوعی گوگل) و شرکت سازنده ویدیوهای هوش مصنوعی Synthesia است، قصد دارد تا از وضع قوانین سنگینی که باعث خفه شدن نوآوریها میشود، اجتناب کند. رویترز دراین باره گزارش کرده که مقررات هوش مصنوعی در این کشور، براساس اصولی مثل ایمنی، شفافیت، انصاف و مسئولیتپذیری خواهد بود.
دولت بریتانیا در عین حال قصد دارد تا نقشی کلیدی را در وضع قوانین هوش مصنوعی ایفا کند. اولین نشست در زمینه ایمنی هوش مصنوعی در این کشور در اوایل ماه نوامبر برگزار شد. ریشی سوناک، نخست وزیر بریتانیا دراین رابطه گفته: «بریتانیا مدتهاست که خانه فناوریهای متحول کننده آینده بوده است و برای بهرهگیری کامل از فرصتهای خیرهکننده هوش مصنوعی، باید با خطرات پیشرو مقابله کرده و اطمینان حاصل کرد که هوش مصنوعی در سالهای آتی به شکلی ایمن توسعه خواهد یافت.»
بریتانیا قصد دارد تا به جای ایجاد و اختصاص یک ارگان جدید به مبحث هوش مصنوعی، مسئولیت مدیریت هوش مصنوعی را بین ارگانهای فعال در زمینه حقوق بشر، سلامت و ایمنی و رقابت تقسیم کند. این شیوه متفاوتی در مقایسه با قانونگذاران آمریکاست که به تاسیس ارگانی مستقل میاندیشند تا بدینترتیب به نظارت بر صدور مجوز به مدلهای هوش مصنوعی پرخطر بپردازند. شخصیتهای آکادمیک از منتقدان تاسیس یک ارگان مستقل هستند و بر این باورند که ایجاد یک ارگان کاملا جدید، به زمان زیادی نیاز خواهد داشت.
از سال ۲۰۲۱، اتحادیه اروپا که سابقه اجرای مقررات سختگیرانهتری در صنعت تکنولوژی در مقایسه با سایر مناطق دنیا را داراست، بر روی تصویب قانون هوش مصنوعی که اولین قانون هوش مصنوعی در دنیای غرب است، کار میکند.
این قانون به طبقهبندی سیستمهای هوش مصنوعی براساس ریسک آنها میپردازد. سیستمهای پرخطر، از جمله ابزارهای استخدام هوش مصنوعی و یا نرمافزارهای نمرهدهی امتحانات، در مقایسه با سیستمهایی با ریسک پائینتر، با استانداردهای بیشتری از جمله اعتبار سنجی دادهها و مستندسازی مواجه خواهند شد.
قوانین پیشنهادی استفاده مزاحم و تبعیضآمیز از هوش مصنوعی در امور مختلف، مثل سیستمهای شناسایی بیومتریک از راه دور در زمان واقعی و در فضاهای قابل دسترس عموم و یا سیستمهای خط مشی پیشبینی براساس پروفایل را ممنوع میکند.
اخیرا تیری برتون، عضو کمیسیون اروپا به این نکته اشاره کرد که اتحادیه اروپا در حال توسعه یک پیمان هوش مصنوعی است که به شرکتها کمک خواهد کرد تا برای اجرای قوانین هوش مصنوعی آماده شوند و نه فقط تکنولوژیهای بزرگ، بلکه استارتآپها نیز باید در بحثهای مربوط به توسعه حکمرانی هوش مصنوعی مدنظر قرار گیرند.
در گذشته مقامات استارتآپها اعلام کرده بودند که قوانین پیشنهادی اتحادیه اروپا، به شدت محدود کننده است.
در چین، ارائهدهندگان هوش مصنوعی مولد باید ارزیابی امنیتی شوند و ابزارهای هوش مصنوعی باید به ارزشهای سوسیالیستی این کشور پایبند باشند. اما تکنولوژی هوش مصنوعی مولد که برای استفاده در خارج از چین توسعه یافتهاند، شامل این قوانین نمیشوند. مراکز تحقیق و توسعه شرکتهای فناوری چینی از جمله Baidu، Tencent و هواووی در منطقه سیلیکون، ولی آمریکا به فعالیت میپردازند.
بزرگترین شرکتهای اینترنتی چینی از جمله علی بابا، Baidu و JD، که به رقابت با چت جی پی تی، محصول کمپانی OpenAI میپردازند، اخیرا چتباتهای هوش مصنوعی خودشان را معرفی کردهاند. در گذشته چین اعلام کرده بود که میخواهد تا سال ۲۰۳۰ رهبر جهانی هوش مصنوعی باشد و برنامههایی نیز برای تجاریسازی هوش مصنوعی در حوزههای مختلف، از شهرهای هوشمند گرفته تا کاربردهای نظامی ارائه کرده است.
به نظر میرسد که ژاپنیها قوانین نرمتری را در راستای استفاده از هوش مصنوعی در نظر دارند. اخیرا فومیو کیشیدا، نخست وزیر ژاپن اعلام کرد که در بسته اقتصادی بعدی، بودجهای برای توسعه هوش مصنوعی در شرکتهای کوچک و متوسط درنظر گرفته شده که این میتواند به جاماندگی ژاپن در فناوری کمک کند.
ژاپنیها در عین حال اعلام کردهاند که استفاده از تصاویر دارای کپی رایت برای آموزش مدلهای هوش مصنوعی، قوانین کپی رایت را نقض نمیکند. این بدان معناست که ارائه دهندگان هوش مصنوعی مولد میتوانند بدون کسب مجوز از صاحبان تصویر، از آثار دارای کپی رایت بهره ببرند.
یکی از اعضای مجلس نمایندگان ژاپن که عضو حزب دموکراتیک قانون اساسی این کشور است در این رابطه گفته: «در ژاپن، آثار برای تجزیه و تحلیل اطلاعات میتوانند صرفنظر از روش، چه برای اهداف غیرانتفاعی، چه برای سود و چه برای هر فعالیت دیگری غیر از تولیدمثل و یا برای محتوای به دست آمده از سایتهای غیرقانونی مورد استفاده قرار گیرند.»
او در عین حال به این نکته اشاره کرد که استفاده از تصاویر بر خلاف میل صاحب کپیرایت، از نظر حمایت از حقوق، مشکلساز خواهد بود و اعلام کرد که به قوانین و مقررات جدیدی برای حمایت از دارندگان حق کپی رایت نیاز است.
قانونگذاران در برزیل، تهیه پیشنویسی برای استفاده از هوش مصنوعی را آغاز کردهاند. این پیشنویس شامل الزام ارائهدهندگان سیستمهای هوش مصنوعی به ارائه ارزیابی ریسک قبل از عرضه محصولشان به عموم جامعه است.
قانونگذاران، صرفنظر از طبقهبندی ریسک سیستمهای هوش مصنوعی اعلام کردند که مردمی که توسط این سیستمها به هر نحوی آسیب دیدهاند، این حق قانونی را دارند که تا ۱۵ روز بعد از ارائه درخواستشان، توضیحاتی در مورد این تصمیم یا توصیه دریافت کنند. متخصصان آکادمیک معتقدند که توضیح اینکه چرا یک سیستم هوش مصنوعی، یک کار مشخص را انجام داده، اقدام سختی خواهد بود.
در ماه مارس سال ۲۰۲۳، ایتالیا اولین کشور غربی بود که به صورت موقت، ChatGPT را به دلیل جمعآوری غیرقانونی دادهها، ممنوع اعلام کرد. از آن زمان و طبق اعلام دولت ایتالیا، آنها ۳۰ میلیون یورو را برای کمک به افراد بیکار و کارگرانی که در ریسک از دست دادن شغلشان هستند اختصاص دادهاند تا به تقویت مهارتهای دیجیتالی خود بپردازند.