چهار تیپ شخصیتی کاربران ChatGPT
یک مطالعه جدید چهار تیپ شخصیتی را شناسایی کرده است که شامل همه کاربران ChatGPT میشود.
دانشمندان دانشگاه آکسفورد و کنسرسیومی از دانشگاه برلین مطالعهای را انجام دادهاند که نشان میدهد رویکرد «یکسان برای همه» فناوریهای قبلی دیگر برای کاربردهای متنوع هوش مصنوعی قابل استفاده نیست.
به گزارش باشگاه خبرنگاران به نقل از دیلیمیل، کریستوف گرلینگ، نویسنده اصلی این مطالعه از موسسه اینترنت و جامعه هامبولت، گفت: «استفاده از هوش مصنوعی شهودی به نظر میرسد، اما تسلط بر آن نیاز به کاوش و توسعه مهارتهای یادگیری تجربی دارد.» او افزود که «مناسب بودن وظیفه برای این فناوری بیش از هر زمان دیگری فردی است.»
محققان دادههای ۳۴۴ کاربر اولیه را در طول چهار ماه اول پس از راهاندازی عمومی ChatGPT در ۳۰ نوامبر ۲۰۲۰ تجزیه و تحلیل کردند و دریافتند که این کاربران اولیه را میتوان به چهار گروه اصلی طبقهبندی کرد:
علاقهمندان به هوش مصنوعی (۲۵.۶٪ از شرکتکنندگان): این کاربران بسیار درگیر هستند و به دنبال دستیابی به مزایای تولیدی و اجتماعی از هوش مصنوعی هستند. آنها تنها گروهی هستند که هنگام تعامل با چتبات، متوجه «حضور اجتماعی ملموس» شدند و با ابزارها مانند افراد واقعی رفتار کردند. آنها همچنین سطح بالاتری از اعتماد به سیستم را نشان دادند و هیچ نگرانی جدی در مورد حریم خصوصی نشان ندادند.
عملگرایان سادهلوح (۲۰.۶٪): آنها بر نتایج و راحتی تمرکز میکنند و مزایای عملی هوش مصنوعی را بر نگرانیهای مربوط به حریم خصوصی اولویت میدهند. در حالی که آنها به مزایای عملی و حرفهای اعتقاد دارند، علاقه آنها به مزایای اجتماعی کمتر از علاقهمندان به هوش مصنوعی است.
پذیرندگان محتاط (۳۵.۵٪): آنها کنجکاوی، عملی بودن و احتیاط را با هم ترکیب میکنند و دائماً مزایای عملکردی را در مقابل خطرات احتمالی میسنجند. این گروه نسبت به دو گروه قبلی نگرانی بیشتری در مورد حریم خصوصی دادهها نشان میدهند.
کاوشگران رزرو (۱۸.۳٪): آنها بیشترین نگرانی را در مورد این فناوری دارند، هنوز از مزایای آن متقاعد نشدهاند و نگرانیهای قابل توجهی در مورد حریم خصوصی ابراز میکنند. برخلاف سایر گروهها، آنها نمیتوانند مزایای شخصی استفاده از ChatGPT را ببینند.
محققان با کمال تعجب متوجه شدند که همه این گروهها، با وجود نگرانیهای جدی در مورد حریم خصوصی، همچنان به استفاده از چتباتها ادامه میدهند.
این تیم تحقیقاتی هشدار داد که تلاش برای انسانیسازی هوش مصنوعی میتواند نتیجه معکوس داشته باشد، زیرا کاربرانی که به حریم خصوصی اهمیت میدهند، ممکن است خود هوش مصنوعی را به جای شرکت توسعهدهنده آن، مسئول سوءاستفادههای احتمالی بدانند و این امر میتواند اعتماد به سیستم را با سرعت بیشتری از بین ببرد.