علمی فناوری 20:47 - 05 اردیبهشت 1403
محققان گوگل می‌گویند با وجودی که دستیار‌های هوش مصنوعی ابزار‌هایی مفید و کاربردی هستند، اما می‌توانند کاربران را از نظر عاطفی بیش از حد به خود وابسته کنند.

هشدار محققان گوگل: کاربران ممکن است به دستیار‌های هوش مصنوعی وابستگی عاطفی پیدا کنند

محققان گوگل می‌گویند با وجودی که دستیار‌های هوش مصنوعی ابزار‌هایی مفید و کاربردی هستند، اما می‌توانند کاربران را از نظر عاطفی بیش از حد به خود وابسته کنند. این وابستگی عاطفی می‌تواند پیامد‌های اجتماعی منفی به‌دنبال داشته باشد.

دستیار‌های هوش مصنوعی این روز‌ها بیش‌از‌پیش درحال توسعه هستند و تقریباً در تمامی پلتفرم‌ها به ابزاری کاربرپسند تبدیل شده‌اند. با این شرایط، محققان گوگل در مقاله‌ای در مورد استفاده بیش از حد از آنها و وابستگی عاطفی کاربران نسبت به چنین ابزار‌هایی هشدار می‌دهند.

کاربران در معرض وابستگی عاطفی به هوش مصنوعی قرار دارند

براساس مقاله جدید آزمایشگاه تحقیقاتی DeepMind گوگل، دستیاران هوش مصنوعی پیشرفته و شخصی‌سازی‌شده مزایای بالقوه زیادی به‌همراه دارند و می‌توانند تغییراتی همه‌جانبه در زندگی ما ایجاد کنند. این ابزار‌ها می‌توانند وضعیت کار، آموزش و فعالیت‌های خلاقانه و همچنین نحوه برقراری ارتباط ما را تغییر دهند. محققان این مطالعه می‌گویند اگر توسعه هوش مصنوعی بدون برنامه‌ریزی مدبرانه باشد، می‌تواند به یک شمشیر دولبه تبدیل شود.

این مقاله می‌گوید: «این ابزار‌های غیرطبیعی (مصنوعی) حتی ممکن است محبتی خیالی و رویکردی عاشقانه نسبت به کاربر ابراز کنند. چنین وضعیت‌هایی می‌تواند پایه و اساس ایجاد وابستگی عاطفی طولانی‌مدت به هوش مصنوعی را برای کاربران ایجاد کنند.»

در صورت عدم کنترل این ارتباط، استقلال کاربر ممکن است تحت‌الشعاع قرار گیرد و روی روابط اجتماعی وی تأثیرگذار باشد. هوش مصنوعی حتی می‌تواند جایگزین تعامل انسانی شود.

این خطرات، صرفاً موضوعاتی نظری نیستند. حتی زمانی که هوش مصنوعی در حد یک چت‌بات باشد نیز می‌تواند روی کاربر تأثیر بگذارد. در سال ۲۰۲۳ کاربر پس از چت طولانی با چت‌بات متقاعد شده بود که خودکشی کند.

«ایسون گابریل»، دانشمند محقق در تیم تحقیقاتی DeepMind و یکی از نویسندگان مقاله در توییتی هشدار داد که انواع دستیار شخصی و دستیار‌های شبیه انسان، به‌صورت فزاینده‌ای برخی موضوعات در مورد انسان‌شناسی، حریم خصوصی، اعتماد و روابط مناسب را مطرح می‌کنند. او معتقد است که باید با دقت بیشتری به حوزه‌های اجتماعی و هوش مصنوعی توجه کرد.


12050440
 
پربازدید ها
پر بحث ترین ها

مهمترین اخبار علمی فناوری

علمی فناوری
«باشگاه خبرنگاران» مدیرکل دفتر سلامت دهان و دندان وزارت بهداشت از مصرف دخانیات به عنوان یکی از مهم‌ترین عوامل در ایجاد سرطان دهان خبر داد.
علمی فناوری
«باشگاه خبرنگاران» رییس کمیته امداد امام خمینی (ره) گفت: در کنکور سراسری سال ۱۴۰۲ حدود ۳۵ هزار دانش‌آموز تحت حمایت کمیته امداد شرکت کردند که از بین رتبه‌های برتر کنکور ۷ درصد از خانواده‌های تحت حمایت بودند.
علمی فناوری
«باشگاه خبرنگاران» معاون وزیر ارتباطات و مدیرعامل شرکت ملی پست از راه اندازی طرح سامانه ملی جی نف در ۱۲ شهر استان کهگیلویه و بویراحمد خبر داد.
علمی فناوری
«باشگاه خبرنگاران» رئیس انجمن رادیولوژی ایران گفت: هوش مصنوعی یک ابزار کمکی در جهت خدمت به پزشکان است که با کمک آن دقت و سرعت کار افزایش می‌یابد، اما جایگزین پزشک نخواهد شد.
علمی فناوری
«باشگاه خبرنگاران» کارشناس اداره کل غذایی و آشامیدنی سازمان غذا و دارو با استدلال علمی بیان کرد که نور آفتاب و انجماد بطری‌های یکبار مصرف را تخریب نمی‌کند.
علمی فناوری
«باشگاه خبرنگاران» اداره کل دارو و مواد تحت کنترل سازمان غذا و دارو از همه شرکت‌های فوریتی و وارد کننده برای تامین دارو‌های تک نسخه‌ای اردیبهشت ۱۴۰۳ دعوت کرد.
علمی فناوری
«باشگاه خبرنگاران» دلایل متعددی وجود دارد که چرا برخی افراد می‌توانند بسیار سریع بدوند در حالی که برخی دیگر آهسته‌تر می‌دوند. ژنتیک و ویژگی‌هایی که از والدین خود به ارث می‌برید جزء عواملی است که در سرعت نقش دارد، اما انتخاب‌ها و تجربیات شما نیز نقش ایفا می‌کن...
علمی فناوری
«باشگاه خبرنگاران» رئیس سازمان مدارس و مراکز غیردولتی و توسعه مشارکت‌های مردمی وزارت آموزش‌وپرورش گفت: مدارس هیئت امنایی در صورت برگزاری کلاس‌های فوق برنامه از والدین شهریه دریافت می‌کنند.
علمی فناوری
«باشگاه خبرنگاران» نتایج یک تحقیق جدید نشان داده است برنامه‌های کنونی برای حذف دی اکسید کربن با هدف محدود کردن گرمایش زمین کافی نیست.
علمی فناوری
«باشگاه خبرنگاران» قابلیت My Week در Google Photos تجربه تعاملی تری را در اختیار شما قرار خواهد داد.

مشاهده مهمترین خبرها در صدر رسانه‌ها

صفحه اصلی | درباره‌ما | تماس‌با‌ما | تبلیغات | حفظ حریم شخصی

تمامی اخبار بطور خودکار از منابع مختلف جمع‌آوری می‌شود و این سایت مسئولیتی در قبال محتوای اخبار ندارد

کلیه خدمات ارائه شده در این سایت دارای مجوز های لازم از مراجع مربوطه و تابع قوانین جمهوری اسلامی ایران می باشد.

کلیه حقوق محفوظ است