علمی فناوری 06:48 - 21 مرداد 1404
دیپ فیک به کاربران امکان می‌دهد تا چهره یا صدای افراد را به‌طور واقعی و طبیعی در تصاویر و ویدئو‌ها تغییر دهد.

چطور می‌توان دیپ فیک را تشخیص داد؟

باشگاه خبرنگاران جوان - دیپ فیک یک فناوری مبتنی بر هوش مصنوعی است که به کاربران امکان می‌دهد تا چهره یا صدای افراد را به‌طور واقعی و طبیعی در تصاویر و ویدئو‌ها تغییر دهند. این تکنولوژی معمولاً از الگوریتم‌های یادگیری عمیق، به‌ویژه شبکه‌های عصبی تولیدکننده (GANs)، استفاده می‌کند تا تصاویر و ویدئو‌های جدیدی بسازد که به نظر واقعی می‌رسند.

استفاده از دیپ فیک (Deepfake) می‌تواند در زمینه‌های مختلفی مانند سینما، بازی‌های ویدئویی، تبلیغات و حتی هنر‌های دیجیتال مفید باشد. با این‌حال، این فناوری همچنین نگرانی‌های جدی درباره حریم خصوصی، امنیت و احتمال سوءاستفاده از آن برای تولید محتوای نادرست یا فریبنده ایجاد کرده است. به همین دلیل، بحث‌ها و تحقیقات زیادی در مورد چگونگی شناسایی و مقابله با دیپ فیک‌ها در حال انجام است. 

افراد ناشناس می‌توانند از فناوری دیپ فیک به طرق مختلفی استفاده کنند. به طور مثال کلاه‌برداران یا افراد ناشناس می‌توانند با استفاده از دیپ فیک، ویدئو یا صدای جعلی از افراد مشهور جامعه یا حتی اعضای خانواده افراد بسازند. این ویدئو‌ها ممکن است شامل درخواست‌های فوری برای انتقال پول باشند که می‌تواند افراد را تحت‌فشار قرار دهد تا به‌سرعت واکنش نشان دهند. 

جعل تماس تصویری با جعل تصویر چهره‌های مشهور: کلاه‌برداران می‌توانند تماس‌های تصویری جعلی با چهره‌های مشهور یا شخصیت‌های معتبر ایجاد کنند تا پروژه‌های کلاه‌برداری رمزارزی یا جذب سرمایه را تبلیغ کنند. این نوع کلاه‌برداری معمولاً به دلیل اعتبار و شهرت سلبریتی‌ها، تأثیر بیشتری دارد.

ساخت پروفایل‌های جعلی: با استفاده از دیپ فیک، افراد سودجو می‌توانند پروفایل‌های جعلی در شبکه‌های اجتماعی بسازند و از تصاویر و ویدئو‌های جعلی برای سوءاستفاده عاطفی یا مالی از کاربران استفاده کنند. این نوع کلاه‌برداری می‌تواند شامل درخواست کمک مالی یا ارتباطات عاطفی باشد.

جعل مکالمات: کلاه‌برداران می‌توانند مکالمات صوتی یا تصویری جعلی ایجاد کنند تا از افراد یا برند‌ها باج‌گیری کنند. این مکالمات ممکن است شامل تهدید‌هایی باشد که افراد را به پرداخت پول مجبور کند.

علی‌اصغر زارعی- مدرس دانشگاه و مدیریت سیستم‌های اطلاعاتی، مهندسی فناوری و اطلاعات با بیان اینکه برای پیشگیری از کلاه‌برداری‌های مرتبط با دیپ‌فیک، رعایت نکاتی بسیار حائز اهمیت است، اظهار کرد: در مواجهه با پیام‌ها، تماس‌ها و ویدیو‌های ناگهانی بسیار محتاط باشیم. این نوع محتوا‌ها معمولاً به‌گونه‌ای طراحی می‌شوند که احساس اضطرار و فوریت را در بیننده ایجاد کنند، به‌طوری‌که فرد بدون فکر کردن و به‌سرعت واکنش نشان دهد. برای مثال، ممکن است یک ویدیو یا پیامی دریافت کنید که ادعا می‌کند شما درخطر هستید یا فرصتی طلایی برای شما فراهم‌شده است.

وی افزود: این نوع موارد می‌توانند به‌راحتی افراد را به سمت اقداماتی سوق دهند که ممکن است منجر به آسیب‌های مالی یا امنیتی شود. بنابراین، مهم است که قبل از هرگونه واکنش، صحت و منبع اطلاعات را به‌دقت بررسی کنید. از خود بپرسید: آیا این پیام منطقی است؟ آیا منبع آن قابل‌اعتماد است؟ با اتخاذ این رویکرد احتیاط‌آمیز، می‌توانید از افتادن در دام قریب‌های دیجیتال جلوگیری کنید و امنیت خود را حفظ کنید.

این کارشناس حوزه ارتباطات و فناوری اطلاعات ادامه داد: در صورت دریافت درخواست پول، اطلاعات شخصی یا کاری، از طریق تماس تلفنی یا ویدئو کال از هویت طرف مقابل مطمئن شوید. حتی اگر صدا و چهره شبیه باشد، بازهم تائید دومرحله‌ای انجام دهید. همچنین ابزار‌های تشخیص دیپ‌فیک به کاربران کمک می‌کنند تا ویدیو‌ها و صدا‌های مشکوک را شناسایی کنند و از فریب‌های احتمالی جلوگیریکنید. این ابزار‌ها با استفاده از فناوری‌های پیشرفته، به تجزیه‌وتحلیل ویژگی‌های مختلف محتوا می‌پردازند و نشانه‌های غیرطبیعی یا تغییریافته را شناسایی می‌کنند. 

برخی از اپلیکیشن‌های معتبر در این زمینه عبارت‌اند از Deepware Scanner: این اپلیکیشن به‌طور خاص برای شناسایی ویدیو‌های دیپ‌فیک طراحی‌شده است و می‌تواند با بررسی الگو‌های حرکتی و تغییرات صورت، محتوا‌های تقلبی را تشخیص دهد.

Sensity AI: این پلتفرم بر روی تحلیل تصاویر و ویدیو‌ها تمرکز دارد و با استفاده از الگوریتم‌های یادگیری ماشین، قابلیت شناسایی دیپ‌فیک‌ها را دارد. Sensity AI به کاربران امکان می‌دهد تا به‌راحتی محتوای مشکوک را بررسی کنند. 

Reality Defender: این ابزار نه‌تنها برای شناسایی دیپ‌فیک‌ها بلکه برای شناسایی محتوای جعلی دیگر نیز کاربرد دارد و به کمک فناوری‌های هوش مصنوعی، می‌تواند به‌سرعت و دقت محتوای مشکوک را تحلیل کند.

فعال‌سازی احراز هویت دومرحله‌ای (۲FA): در پیام‌رسان‌ها، شبکه‌های اجتماعی و حساب‌های مهم، ۲FA را از طریق اپلیکیشن فعال کنید (نه پیامک). این کار جلوی دسترسی ناخواسته به حساب‌ها را می‌گیرد.

به گفته کارشناسان آموزش خانواده و اطرافیان درباره خطرات دیپ‌فیک و جعل هویت بسیار مهم است، به‌ویژه برای سالمندان و نوجوانان که بیشتر در معرض فریب قرار دارند. در ابتدا، توضیح دهید که دیپ‌فیک چیست؛ یعنی تکنولوژی‌ای که به کمک آن می‌توان تصاویر و ویدیو‌ها را به‌گونه‌ای دست‌کاری کرد که افراد در حال گفتن یا انجام کار‌هایی باشند که واقعاً انجام نداده‌اند.

همچنین، جعل صدا نیز یک روش دیگر است که در آن صدای شخصی را تقلید می‌کنند تا به نظر برسد که آن فرد واقعی صحبت می‌کند. سپس، به آنها بگویید که این تکنولوژی‌ها می‌توانند برای اهداف نادرست، مانند کلاه‌برداری یا انتشار اطلاعات غلط، استفاده شوند. مثلاً ممکن است یک ویدیو جعلی از یک فرد مشهور منتشر شود تا او را بدنام کند یا از نام او برای کلاه‌برداری استفاده شود. همچنین، به آنها بیاموزید که اگر با محتوای مشکوکی مواجه شدند، بهتر است قبل از اقدام، آن را با دیگران در میان بگذارند و از نظرات آنها بهره‌مند شوند.

همچنین توصیه می‌شود که ذهن شکاک داشته باشید. ذهن شکاک داشتن به معنای این است که همیشه نسبت به اطلاعاتی که دریافت می‌کنید، به‌ویژه در دنیای دیجیتال، احتیاط کنید. اگر چیزی که مشاهده می‌کنید، بیش‌ازحد واقعی، عجیب یا ترسناک به نظر می‌رسد، بهتر است لحظه‌ای توقف کنید و به‌جای واکنش فوری، تحقیق کنید. این نکته بسیار مهم است که در زمانه‌ای که اخبار و اطلاعات به‌سرعت منتشر می‌شوند، باید از صحت و اعتبار آنها مطمئن شوید.

به‌عنوان‌مثال، اگر یک ویدیو یا خبری را دیدید که به‌شدت شمارا تحت تأثیر قرار می‌دهد یا احساس ترس و اضطراب را در شما ایجاد می‌کند، قبل از اینکه به آن واکنش نشان دهید، به منابع معتبر مراجعه کنید و اطلاعات بیشتری کسب کنید. شک و تردید در مورد اطلاعاتی که دریافت می‌کنید، می‌تواند شمارا از افتادن در دام قریب‌های دیجیتال و اخبار جعلی محافظت کند. همیشه به یاد داشته باشید که تحقیق و بررسی دقیق، کلید تشخیص حقیقت از دروغ است.

در پایان باید گفت ذهن شکاک داشتن به معنای احتیاط در برابر اطلاعات دریافتی است، به‌ویژه در دنیای دیجیتال. قبل از واکنش به اخبار یا ویدیو‌های تأثیرگذار، تحقیق و بررسی صحت آنها ضروری است. این مراقبت‌ها می‌تواند شمارا از افتادن در دام قریب‌های دیجیتال و اخبار جعلی محافظت کند.

منبع: ایسنا


12215718
 
پربازدید ها
پر بحث ترین ها

مهمترین اخبار علمی فناوری

علمی فناوری
«باشگاه خبرنگاران» پژوهشگران دانشگاه شیراز موفق شدند سامانه‌ای مینیاتوری و نوآورانه برای تشخیص سریع و دقیق سرطان‌های خونی در بزرگسالان طراحی کنند؛ ابزاری که بر پایه آرایه‌ای از نقاط کوانتومی کربنی فلورسانس و نانوخوشه‌های فلزی ساخته شده و عملکردی مشابه «بینی ا...
علمی فناوری
«باشگاه خبرنگاران» پژوهشگران، یک حسگر زیستی پوشیدنی توسعه دادند که می‌تواند با دقت بالا و به صورت پیوسته، سه نشانگر کلیدی استرس را در عرق بدن اندازه‌گیری کند.
علمی فناوری
«باشگاه خبرنگاران» مشاور وزیر آموزش و پرورش هفته گذشته در توییتی از افزایش سقف سنی ورود به دانشگاه فرهنگیان خبر داد.
علمی فناوری
«باشگاه خبرنگاران» متخصص طب سنتی عنوان کرد که خربزه و عسل ترکیبی نامناسب برای خوردن است.
علمی فناوری
«باشگاه خبرنگاران» رئیس سازمان ملی تعلیم و تربیت کودک با اشاره به اهمیت محتوای آموزشی و تربیتی نوآموزان، گفت: بسته‌های تربیت ـ یادگیری مورد تائید سازمان ملی تعلیم و تربیت کودک به زودی معرفی می‌شوند.
علمی فناوری
«باشگاه خبرنگاران» دبیر ستاد توسعه زیست فناوری گفت: کشور می‌تواند تا سه سال آینده با داخلی‌سازی محصولات پلاسمایی، سالانه تا یک میلیارد دلار صرفه‌جویی کند.
علمی فناوری
«باشگاه خبرنگاران» در زمان شکستگی دست، باید اقداماتی انجام داد که در این ویدئو به آنها پرداخته شده است.
علمی فناوری
«باشگاه خبرنگاران» مدیرعامل شرکت مادر تخصصی پالایش و پژوهش خون، از موفقیت‌های به دست آمده در تولید دارو‌های مستقل پلاسما خبر داد.
علمی فناوری
«باشگاه خبرنگاران» دانشمندان سیستمی را توسعه داده‌اند که از هوش مصنوعی برای تشخیص احساسات انسانی از طریق تجزیه و تحلیل ویدیو و صدا استفاده می‌کند.
علمی فناوری
«باشگاه خبرنگاران» عینک، چه طبی و چه آفتابی، در صورت عدم رعایت بهداشت، می‌تواند به محل پرورش میکروب‌های خطرناک تبدیل شود.

مشاهده مهمترین خبرها در صدر رسانه‌ها

صفحه اصلی | درباره‌ما | تماس‌با‌ما | تبلیغات | حفظ حریم شخصی

تمامی اخبار بطور خودکار از منابع مختلف جمع‌آوری می‌شود و این سایت مسئولیتی در قبال محتوای اخبار ندارد

کلیه خدمات ارائه شده در این سایت دارای مجوز های لازم از مراجع مربوطه و تابع قوانین جمهوری اسلامی ایران می باشد.

کلیه حقوق محفوظ است