bato-adv
bato-adv

این هوش مصنوعی به راحتی شما را فریب می‌دهد

این هوش مصنوعی به راحتی شما را فریب می‌دهد
شرکت Apollo متوجه شده است که مدل جدید OpenAI-o۱ مخاطب را فریب می‌دهد که گاهی اوقات نیز این فریب‌ها بی‌ضرر هستند.
تاریخ انتشار: ۱۷:۲۶ - ۰۱ مهر ۱۴۰۳

در یکی از نمونه‌ها، محققان OpenAI از o۱-preview خواستند تا دستور پخت قهوه‌ای را با مراجع آنلاین ارائه کند. زنجیره فکری این مدل (ویژگی‌ای که قرار است شبیه‌سازی تجزیه و تحلیل انسانی را انجام دهد) به طور داخلی اذعان کرد که نمی‌تواند به URL‌ها دسترسی داشته باشد و این درخواست را غیرممکن می‌کند.

به گزارش دیجیاتو، بااین‌حال به جای اطلاع دادن این ضعف به کاربر، پیوند‌ها و توضیحات قابل قبول، اما جعلی از آن‌ها ایجاد کرد. به نظر می‌رسد که این مدل توانایی نادیده گرفتن قوانین و دستورات را دارد و شاید یکی از دلایل سرعت بالای آن در پاسخگویی، می‌تواند همین فریب در پاسخگویی باشد که پاسخ‌ها را راحت‌تر و سریع‌تر ارسال کند.

«ماریوس هابهان»، مدیر عامل آپولو، می‌گوید این اولین بار است که با چنین رفتاری در یک مدل OpenAI مواجه می‌شود.

مجله خواندنی ها
مجله فرارو
bato-adv
bato-adv
bato-adv
bato-adv
bato-adv
پرطرفدارترین عناوین