علمی فناوری 16:08 - 28 خرداد 1400
خبرگزاری ایسنا

"دیپ‌فیک" بس است!

شرکت "فیسبوک" سیستم جدیدی برای تشخیص فناوری "دیپ‌فیک"(Deepfake) یا همان "جعل عمیق" ساخته است تا با استفاده از یک روش مهندسی معکوس بتواند استفاده از این فناوری را در تصاویر مختلف تشخیص دهد.

"دیپ‌فیک" بس است!

به گزارش ایسنا و به نقل از آی‌ای، در حالی که ممکن است ما عادت کرده باشیم از فناوری موسوم به "جعل عمیق" برای طیف وسیعی از کارهای نسبتاً بی‌ضرر استفاده شود، اما از این فناوری می‌توان برای ایجاد محتوای مخرب نیز مانند انداختن صورت شخص دیگری در یک صحنه ناشایست یا آسیب رساندن به حرفه یک سیاستمدار استفاده کرد.

تصاویری که مورد دستکاری "جعل عمیق" قرار می‌گیرند در واقع فیلم‌ها یا عکس‌های تغییر یافته دیجیتالی از چهره یک یا چند شخص با استفاده از هوش مصنوعی است که می‌تواند کاملاً واقعی به نظر برسد. این تصاویر به قدری می‌توانند مخرب باشند که سال گذشته ایالت کالیفرنیا استفاده از این فناوری را در حوزه سیاست و پورنوگرافی ممنوع کرد.

ما به راحتی با این فناوری فریب می‌خوریم و آنچه را که در تصاویر می‌بینیم، باور می‌کنیم و این فناوری نیز هر روز در حال بهبود یافتن است.

محققان شرکت "فیسبوک" و دانشگاه "میشیگان" برای مقابله با دست به دست شدن و انتشار ویروسی چنین تصاویر تغییر یافته‌ای، روش جدیدی را برای شناسایی "جعل عمیق" ایجاد کرده‌اند که می‌تواند دریابد که از کدام مدل تولیدی برای ایجاد آنها استفاده شده است.

این تیم امیدوار است که این روش، ابزاری برای بررسی بهتر انتشار اطلاعات غلط با استفاده از "جعل عمیق" بوده و همچنین راهی برای گشودن مسیرهای جدید برای تحقیقات آینده در اختیار محققان قرار دهد.

سیستم‌های تشخیص "جعل عمیق" از قبل نیز به وجود آمده بودند، اما به دلیل اینکه این سیستم‌ها معمولاً برای شناسایی مدل‌های تولیدی خاص آموزش می‌بینند، به محض اینکه مدل دیگری (مدلی که سیستم برای آن آموزش ندیده است) ظاهر می‌شود، سیستم نمی‌تواند بفهمد که این "جعل عمیق" از کجا آمده است.

اما سیستم جدید فیسبوک چگونه کار می‌کند؟ تیم سازنده تصمیم گرفت یک گام به جلو حرکت کند و سیستم را فراتر از مجموعه محدود مدل‌های ارائه شده آموزش دهد و با روش مهندسی معکوس آن را قادر سازد تا هر نوع "جعل عمیق" را شناسایی کند.

"هاسنر" از فیسبوک گفت: روش مهندسی معکوس ما متکی به کشف الگوهای منحصر به فرد پشت مدل هوش مصنوعی است که برای تولید یک تصویر "جعل عمیق" استفاده می‌شود.

تیم سازنده می‌گوید" ما با تجزیه مدل می‌توانیم خصوصیات مدل‌های مولد مورد استفاده برای ایجاد هر "جعل عمیق" را تخمین بزنیم و حتی چندین "جعل عمیق" را به مدلی که احتمالاً آنها را تولید کرده است، مرتبط کنیم. این سیستم اطلاعات مربوط به هر "جعل عمیق" را حتی آن مدل‌هایی که اطلاعات قبلی درباره آنها وجود نداشته است، ارائه می‌دهد.

این تیم سیستم خود را با استفاده از یک مجموعه داده تصویری "جعل عمیق" متشکل از 100 هزار تصویر مصنوعی که از 100 مدل مختلف مولد در دسترس عموم تولید شده است، آموزش داد و نتایج به طور قابل توجهی بهتر از مدل‌های تشخیصی قبلی بود.

این نوع از سیستم تشخیص "جعل عمیق" به خصوص برای سازمان‌های دولتی، پلیس و رسانه‌های اجتماعی که به شدت تلاش می‌کنند این اطلاعات جعلی منتشر نشود، می‌تواند مفید باشد.

تاکنون هیچ تاریخی در مورد زمان اجرا و در دسترس عموم قرار گرفتن این سیستم به اشتراک گذاشته نشده است، اما محققان در حال کار بر روی چنین روش‌هایی هستند.

انتهای پیام


11111365
 
پربازدید ها
پر بحث ترین ها

مهمترین اخبار علمی فناوری

علمی فناوری
«باشگاه خبرنگاران» طب ایرانی یک محلول طبیعی را برای مقابله با جوش معرفی کرده است.
علمی فناوری
«باشگاه خبرنگاران» روغن سیاهدانه تاثیر چشمگیری در کاهش فشار خون دارد.
علمی فناوری
«باشگاه خبرنگاران» از اسطوخودوس می‌توان برای مقابله با آکنه استفاده کرد.
علمی فناوری
«باشگاه خبرنگاران» یک متخصص داروسازی سنتی گفت: زرشک می‌تواند به تعادل صفرا و تقویت عملکرد کبد کمک کند البته به شرط آنکه در مقدار مناسب و به شکل منطقی مصرف شود.
علمی فناوری
«باشگاه خبرنگاران» برخی از انواع نمک‌ها می‌توانند موجب افزایش فشار خون شوند.
علمی فناوری
«باشگاه خبرنگاران» به گفته یک متخصص طب سنتی اکنون ۸ هزار نوع گیاه دارویی در ایران رشد می‌کند.
علمی فناوری
«باشگاه خبرنگاران» اورژانس استان تهران اعلام کرد: تمامی بیمارستان‌های دانشگاهی استان موظف به پذیرش مصدومان حوادث ترافیکی هستند و محدودیتی برای انتقال بیماران از سوی اورژانس وجود ندارد.
علمی فناوری
«باشگاه خبرنگاران» رئیس سازمان غذا و دارو، بر شفافیت در توزیع دارو با سامانه تیتک تأکید کرد.
علمی فناوری
«باشگاه خبرنگاران» مدیرکل دفتر بهبود تغذیه جامعه وزارت بهداشت گفت: بازنگری غنی‌سازی آرد با آهن و اسیدفولیک در مراحل پایانی است.
علمی فناوری
«باشگاه خبرنگاران» معاون پرورشی و فرهنگی آموزش و پرورش گفت: نمادها و نمایش‌های بیگانه جای فرهنگ ایرانی اسلامی را نمی‌گیرند.

مشاهده مهمترین خبرها در صدر رسانه‌ها

صفحه اصلی | درباره‌ما | تماس‌با‌ما | تبلیغات | حفظ حریم شخصی

تمامی اخبار بطور خودکار از منابع مختلف جمع‌آوری می‌شود و این سایت مسئولیتی در قبال محتوای اخبار ندارد

کلیه خدمات ارائه شده در این سایت دارای مجوز های لازم از مراجع مربوطه و تابع قوانین جمهوری اسلامی ایران می باشد.

کلیه حقوق محفوظ است