علمی فناوری 16:31 - 09 بهمن 1404
یک مطالعه جدید چهار تیپ شخصیتی را شناسایی کرده است که شامل همه کاربران ChatGPT می‌شود.

چهار تیپ شخصیتی کاربران ChatGPT

باشگاه خبرنگاران جوان؛ جوا فراهانی - دانشمندان دانشگاه آکسفورد و کنسرسیومی از دانشگاه برلین مطالعه‌ای را انجام داده‌اند که نشان می‌دهد رویکرد «یک‌سان برای همه» فناوری‌های قبلی دیگر برای کاربرد‌های متنوع هوش مصنوعی قابل استفاده نیست.

دکتر کریستوف گرلینگ، نویسنده اصلی این مطالعه از موسسه اینترنت و جامعه هامبولت، گفت: «استفاده از هوش مصنوعی شهودی به نظر می‌رسد، اما تسلط بر آن نیاز به کاوش و توسعه مهارت‌های یادگیری تجربی دارد.» او افزود که «مناسب بودن وظیفه برای این فناوری بیش از هر زمان دیگری فردی است.»

محققان داده‌های ۳۴۴ کاربر اولیه را در طول چهار ماه اول پس از راه‌اندازی عمومی ChatGPT در ۳۰ نوامبر ۲۰۲۰ تجزیه و تحلیل کردند و دریافتند که این کاربران اولیه را می‌توان به چهار گروه اصلی طبقه‌بندی کرد:

علاقه‌مندان به هوش مصنوعی (۲۵.۶٪ از شرکت‌کنندگان): این کاربران بسیار درگیر هستند و به دنبال دستیابی به مزایای تولیدی و اجتماعی از هوش مصنوعی هستند. آنها تنها گروهی هستند که هنگام تعامل با چت‌بات، متوجه «حضور اجتماعی ملموس» شدند و با ابزار‌ها مانند افراد واقعی رفتار کردند. آنها همچنین سطح بالاتری از اعتماد به سیستم را نشان دادند و هیچ نگرانی جدی در مورد حریم خصوصی نشان ندادند.

عملگرایان ساده‌لوح (۲۰.۶%): آنها بر نتایج و راحتی تمرکز می‌کنند و مزایای عملی هوش مصنوعی را بر نگرانی‌های مربوط به حریم خصوصی اولویت می‌دهند. در حالی که آنها به مزایای عملی و حرفه‌ای اعتقاد دارند، علاقه آنها به مزایای اجتماعی کمتر از علاقه‌مندان به هوش مصنوعی است.

پذیرندگان محتاط (۳۵.۵%): آنها کنجکاوی، عملی بودن و احتیاط را با هم ترکیب می‌کنند و دائماً مزایای عملکردی را در مقابل خطرات احتمالی می‌سنجند. این گروه نسبت به دو گروه قبلی نگرانی بیشتری در مورد حریم خصوصی داده‌ها نشان می‌دهند.

کاوشگران رزرو (۱۸.۳%): آنها بیشترین نگرانی را در مورد این فناوری دارند، هنوز از مزایای آن متقاعد نشده‌اند و نگرانی‌های قابل توجهی در مورد حریم خصوصی ابراز می‌کنند. برخلاف سایر گروه‌ها، آنها نمی‌توانند مزایای شخصی استفاده از ChatGPT را ببینند.

محققان با کمال تعجب متوجه شدند که همه این گروه‌ها، با وجود نگرانی‌های جدی در مورد حریم خصوصی، همچنان به استفاده از چت‌بات‌ها ادامه می‌دهند.

این تیم تحقیقاتی هشدار داد که تلاش برای انسانی‌سازی هوش مصنوعی می‌تواند نتیجه معکوس داشته باشد، زیرا کاربرانی که به حریم خصوصی اهمیت می‌دهند، ممکن است خود هوش مصنوعی را به جای شرکت توسعه‌دهنده آن، مسئول سوءاستفاده‌های احتمالی بدانند و این امر می‌تواند اعتماد به سیستم را با سرعت بیشتری از بین ببرد.

منبع: دیلی میل


12255753
 
پربازدید ها
پر بحث ترین ها

مهمترین اخبار علمی فناوری

علمی فناوری
«باشگاه خبرنگاران» ناسا موتور هسته‌ای متحولانه را برای تسریع ماموریت‌های اعماق فضا آزمایش کرد.
علمی فناوری
«باشگاه خبرنگاران» کارشناسان هشدار می‌دهند که برف‌روبی سنگین خطر ابتلا به بیماری قلبی را به همراه دارد.
علمی فناوری
«باشگاه خبرنگاران» یک مطالعه جدید چهار تیپ شخصیتی را شناسایی کرده است که شامل همه کاربران ChatGPT می‌شود.
علمی فناوری
«باشگاه خبرنگاران» ZTE مشخصات گوشی هوشمند آینده خود را که انتظار می‌رود رقیبی قدرتمند در بازار گوشی‌های هوشمند میان‌رده باشد، فاش کرده است.
علمی فناوری
«باشگاه خبرنگاران» گوجه فرنگی به دلیل محتوای بالای ریزمغذی‌های ضروری مانند فسفر و کلسیم، از جمله مفیدترین سبزیجات است.
علمی فناوری
«باشگاه خبرنگاران» روسکاسموس میزان شتابی را که فضانوردان در طول بازگشت از ایستگاه فضایی بین‌المللی به زمین تجربه می‌کنند، فاش کرده است.
علمی فناوری
«باشگاه خبرنگاران» گوگل، آلفاژنوم را برای رمزگشایی ژنوم انسان و تجزیه و تحلیل جهش‌های ارثی راه‌اندازی کرد.
علمی فناوری
«باشگاه خبرنگاران» احساس سردرد در کودکان می‌تواند دلایل مختلفی از جمله برخی بیماری‌های زمینه‌ای داشته باشد.
علمی فناوری
«باشگاه خبرنگاران» مرکز آزمون جهاددانشگاهی از اعلام نتایج نهایی موسسات باقیمانده آزمون استخدامی دانشگاه‌ها، دانشکده‌های علوم پزشکی و خدمات بهداشتی‌درمانی و مؤسسات تابعه وزارت بهداشت در سال ۱۴۰۴ خبر داد.
علمی فناوری
«باشگاه خبرنگاران» دانشمندان احتمال برخورد سیارک 2024 YR4 با قطر حدود ۶۰ متر با ماه در ۲۲ دسامبر ۲۰۳۲ را تقریباً ۴ درصد تخمین می‌زنند.

مشاهده مهمترین خبرها در صدر رسانه‌ها

صفحه اصلی | درباره‌ما | تماس‌با‌ما | تبلیغات | حفظ حریم شخصی

تمامی اخبار بطور خودکار از منابع مختلف جمع‌آوری می‌شود و این سایت مسئولیتی در قبال محتوای اخبار ندارد

کلیه خدمات ارائه شده در این سایت دارای مجوز های لازم از مراجع مربوطه و تابع قوانین جمهوری اسلامی ایران می باشد.

کلیه حقوق محفوظ است