علمی فناوری 17:56 - 18 آذر 1404
کارشناسان احتمال انقراض نسل انسان به دلیل توسعه هوش مصنوعی و مشکلاتی که آن به دنبال خواهد داشت را بعید نمی‌دانند.

احتمال انقراض نسل انسان به دلیل هوش مصنوعی

باشگاه خبرنگاران جوان؛ جواد فراهانی - رومن یامپولسکی، محقق متخصص در امنیت هوش مصنوعی، هشدار می‌دهد که توسعه سریع این فناوری می‌تواند منجر به انقراض بشریت شود.

یامپولسکی تخمین می‌زند که احتمال وقوع این سناریوی فاجعه‌بار در ۱۰۰ سال آینده به ۹۹.۹ درصد می‌رسد.

این محقق هوش مصنوعی، هشدار خود را بر اساس مشاهداتش مبنی بر اینکه همه سیستم‌های هوش مصنوعی فعلی فاقد حفاظات امنیتی کافی هستند، بیان می‌کند و هیچ امیدی نمی‌بیند که نسل‌های آینده این فناوری‌ها مشکلات اساسی خود را حل کنند. بنابراین، او به فهرست رو به رشدی از متخصصان نگران، از جمله برخی از پیشگامان این حوزه، می‌پیوندد.

یامپولسکی کتابی با عنوان «هوش مصنوعی: غیرقابل توضیح، غیرقابل پیش‌بینی، غیرقابل کنترل» منتشر کرده است که در آن خطرات اصلی، مانند عدم توانایی در پیش‌بینی رفتار هوش مصنوعی یا درک دلایل تصمیمات آن را توضیح می‌دهد.

این کتاب به مسائل پیچیده‌ای مانند اینکه چه کسی این فناوری را کنترل می‌کند و پیامد‌های ناخواسته آن چه می‌تواند باشد، می‌پردازد و با بحث‌های فلسفی در مورد اینکه آیا هوش مصنوعی می‌تواند دارای آگاهی یا شخصیت باشد، به پایان می‌رسد.

در حالی که پیشکسوتانی مانند یامپولسکی جزء بدبین‌ترین افراد هستند، تحقیقات دیگر تخمین‌های نه چندان وخیمی ارائه می‌دهند. مطالعه‌ای که توسط دانشگاه‌های آکسفورد و بن انجام شد و بیش از ۲۷۰۰ متخصص را مورد بررسی قرار داد، احتمال انقراض انسان به دلیل هوش مصنوعی را تنها ۵ درصد تخمین زد.

کاتیا گریس، محقق، توضیح می‌دهد که اکثر متخصصان خودِ خطر را تصدیق می‌کنند، اما اختلاف نظر واقعی در میزان دقیق آن نهفته است.

از سوی دیگر، چهره‌های برجسته‌ای مانند اندرو نگ، یکی از بنیانگذاران گوگل برین و یان لکان، پیشگام هوش مصنوعی، ایده انقراض کامل انسان را رد می‌کنند. لکان استدلال می‌کند که برخی از هشدار‌های اغراق‌آمیز ممکن است اهدافی غیر از علم داشته باشند.

از سوی دیگر، سم آلتمن، رئیس OpenAI، اظهارات جنجالی مطرح کرد و هشدار داد که هوش مصنوعی تعداد زیادی از مشاغلی را که او آنها را «کار واقعی» توصیف نکرده بود، از بین خواهد برد که انتقادات گسترده‌ای را به دنبال داشت. او همچنین پیش‌بینی کرد که این فناوری منجر به تغییرات اساسی در «قرارداد اجتماعی» موجود خواهد شد.

بیش از یک دهه پیش، در سال ۲۰۱۵، آلتمن جمله معروفی گفت: «هوش مصنوعی به احتمال زیاد به پایان جهان منجر خواهد شد، اما قبل از آن، شرکت‌های بزرگی ایجاد خواهد کرد.»

منبع: اکسپرس


12248494
 
پربازدید ها
پر بحث ترین ها

مهمترین اخبار علمی فناوری

علمی فناوری
«باشگاه خبرنگاران» یک مطالعه جدید نشان داده است که مصرف زیاد قهوه ممکن است درد مزمن را در بزرگسالان مسن‌تر تشدید کند.
علمی فناوری
«باشگاه خبرنگاران» کارشناسان احتمال انقراض نسل انسان به دلیل توسعه هوش مصنوعی و مشکلاتی که آن به دنبال خواهد داشت را بعید نمی‌دانند.
علمی فناوری
«باشگاه خبرنگاران» رئیس دانشگاه تهران گفت: سهم پژوهش در کشور حتی به نیم درصد هم نمی‌رسد و پیشرفت علمی بدون آزادی و تأمین منابع ممکن نیست.
علمی فناوری
«باشگاه خبرنگاران» به گفته کارشناسان بین‌المللی، از دست دادن حس بویایی به نشانه مهمی تبدیل شده است که می‌تواند طیف وسیعی از بیماری‌ها را آشکار کند.
علمی فناوری
«باشگاه خبرنگاران» تلسکوپ‌های فضایی سیاه‌چاله‌ای را شناسایی کردند که «از خورشید تقلید» و شدیدترین باد‌های کیهانی شناخته شده را آزاد می‌کند.
علمی فناوری
«باشگاه خبرنگاران» شیائومی بلک شارک پد ۷ پرو، دارای شاسی بادوام ساخته شده از آلومینیوم، پلاستیک محکم و شیشه مقاوم در برابر ضربه و خش خواهد بود.
علمی فناوری
«باشگاه خبرنگاران» مدیرکل روابط عمومی سازمان سنجش از ثبت‌نام بیش از ۷۵ هزار داوطلب در آزمون کارشناسی ارشد ۱۴۰۵ خبر داد و گفت: نام‌نویسی در این آزمون تا یکشنبه هفته آینده ادامه دارد.
علمی فناوری
«باشگاه خبرنگاران» کارشناس بیماری‌های عفونی معاونت درمان وزارت بهداشت گفت: ویروس آنفلوآنزای امسال جدید نیست و تنها به دلیل تغییر جهش، سرایت‌پذیری آن افزایش یافته است.
علمی فناوری
«باشگاه خبرنگاران» وزیر آموزش‌وپرورش از اجرای گسترده آموزش‌های هوش مصنوعی برای معلمان و دانش‌آموزان کشور خبر داد.
علمی فناوری
«باشگاه خبرنگاران» رئیس مرکز تأمین مالی و توسعه سرمایه‌گذاری گفت: با تصویب آیین‌نامه‌های جدید و راه‌اندازی اوراق توسعه فناوری، دارایی‌های نامشهود برای نخستین بار در اقتصاد کشور رسمیت یافته و قابل توثیق شده است.

مشاهده مهمترین خبرها در صدر رسانه‌ها

صفحه اصلی | درباره‌ما | تماس‌با‌ما | تبلیغات | حفظ حریم شخصی

تمامی اخبار بطور خودکار از منابع مختلف جمع‌آوری می‌شود و این سایت مسئولیتی در قبال محتوای اخبار ندارد

کلیه خدمات ارائه شده در این سایت دارای مجوز های لازم از مراجع مربوطه و تابع قوانین جمهوری اسلامی ایران می باشد.

کلیه حقوق محفوظ است