وبگردی 15:03 - 14 آذر 1404
الگوریتم‌های جدید، حتی پرچم فلسطین یا شعار آزادی را «محتوای خطرناک» تشخیص داده و به صورت سیستماتیک حساب کاربران حامی مقاومت را تعلیق می‌کنند.

پرچم فلسطین زیر تیغِ ربات‌ها؛ هوش مصنوعی چه چیزی را «خطرناک» می‌داند؟

باشگاه خبرنگاران جوان - در جدیدترین پرده از نمایش قدرت هوش مصنوعی، مدل‌های پیشرفته تصمیم گرفتند که صدای کدام کاربران در فضای مجازی خاموش بماند.
 
شرکت اوپن‌ای‌آی در تابستان ۲۰۲۳ به طور رسمی اعلام کرد که قصد دارد از مدل زبانی جی‌پی‌تی-۴ برای نظارت (مادریشن) و مدیریت محتوا استفاده کند؛ به این معنی که تصمیم‌گیری درباره مجاز یا غیرمجاز بودن یک متن را به هوش مصنوعی می‌سپارد.در بلاگ این شرکت نوشته شده است: «ما از جی‌پی‌تی-۴ برای توسعه سیاست محتوا و تصمیم‌گیری درباره نظارت استفاده می‌کنیم؛ این امر برچسب‌گذاری را منسجم‌تر می‌کند، چرخه بازخورد سیاست را تسریع می‌بخشد و نیاز به مداخله انسان را کاهش می‌دهد.»اوپن‌ای‌آی ادعا کرده است که این سامانه اجازه می‌دهد تا به‌جای ماه‌ها، در عرض «چند ساعت» تغییرات در سیاست‌گذاری‌ها اعمال شود و مدل بتواند به سرعت خود را با آن سیاست‌های جدید سازگار کند.به نظر می‌رسد این وعده، نوید مقیاس‌پذیری و کارآمدی را برای پلتفرم‌های بزرگ داده می‌دهد. اما همان «کارآمدی با هوش مصنوعی» که قرار است بار را از دوش انسان‌ها بردارد، در عمل می‌تواند به سانسور سامانمند و غیرشفاف منجر شود.

غول‌های فناوری سیاست‌های کنترلی خود را به‌روز کردند

غول‌های شبکه‌های اجتماعی نیز در سال‌های اخیر سیاست‌های خود را، عمدتاً در واکنش به فشارهای عمومی و حقوق بشری، بازتنظیم کرده‌اند. شرکت مِتا (Meta) که وابسته به فیس‌بوک و اینستاگرام است، در ژانویه ۲۰۲۵ بیانیه‌ای منتشر کرد با این مضمون:«ما اجازه گفت‌وگوی بیشتر خواهیم داد، با حذف برخی محدودیت‌ها در موضوعاتی که بخشی از گفت‌وگوی عمومی هستند، و تمرکز اجرای ما بر موارد غیرقانونی و با شدت بالا خواهد بود.»این تغییر در ظاهر یک رویکرد آزاداندیشانه بود؛ اما آنچه در عمل رخ داد، موجی از حذف، تعلیق، کاهش دیده شدن و سرکوب محتوا بود. این سرکوب به‌ویژه متوجه مطالبی شد که از فلسطین حمایت می‌کردند یا اخبار جنگ را بازتاب می‌دادند.ماهیت این ابزارهای خودکار، بسته به اینکه چه «سیاستی» به مدل داده شود و چه خطوط قرمزی تعریف گردد، می‌تواند به سانسور ساختاری و پنهان دامن بزند.

سانسور ساختاری، محتوای فلسطین را بی‌صدا کرد

در دسامبر ۲۰۲۳، نهاد دیده‌بان حقوق بشر (اچ‌آر‌دبلیو - Human Rights Watch) گزارشی منتشر کرد با عنوان «وعده‌های شکسته مِتا: سانسور سامانمند محتوای فلسطین در اینستاگرام و فیس‌بوک».این گزارش بیش از ۱,۰۵۰ مورد حذف یا سرکوب محتوا را در بازه اکتبر تا نوامبر ۲۰۲۳ مستندسازی کرد؛ محتوایی که عمدتاً صلح‌آمیز و حمایتی از فلسطین بود.نتیجه روشن بود: سانسور نه خطای مقطعی، بلکه نظامی، جهانی و ساختاری است. محتوایی که به بیان دیدگاه درباره بحران انسانی، اعتراض علیه جنگ یا حمایت از حقوق بشر می‌پرداخت، حذف یا «فیلتر پنهان» (شدو بن) می‌شد.حتی پرچم فلسطین یا شعارهایی مانند «از رودخانه تا دریا، فلسطین آزاد خواهد شد» که لزوماً دعوت به خشونت نبودند، به‌واسطه سیاست‌هایی مانند «سازمان‌ها و افراد خطرناک» مسدود شدند.
 

حذف گسترده، نتیجه سیاست داخلی شرکت است

اچ‌آر‌دبلیو نتیجه می‌گیرد که این حذف گسترده نه صرفاً تابع قوانین بین‌المللی یا فشار دولت‌ها، بلکه ناشی از سیاست‌های داخلی و اجرای خودکار (و اغلب ناآگاهانه) شرکت است.در یک نمونه، پژوهشی جدید با عنوان «نظارت طولی بر مدیریت محتوای مدل‌های زبانی بزرگ درباره مسائل اجتماعی» (۲۰۲۵) نشان داده است که رفتار مدل‌های زبانی در «رد تولید محتوا» (خودداری از ساخت) نه فقط منعکس‌کننده خط‌مشی آشکار شرکت، بلکه تابع تغییرات پنهان در سیاست‌های داخلی است.این تغییرات پنهان گاهی اصلاً به صورت عمومی اعلام نمی‌شوند. استفاده از مدل‌های زبانی بزرگ برای نظارت، نه فقط به‌عنوان ابزار کمکی، بلکه در مقام قاضی، باعث شد که تصمیم‌گیری درباره محتوای کاربران به یک فرایند داخلی و بسته منتقل شود.

قضاوت به ماشینی غیرشفاف سپرده شد

همان‌طور که خود اوپن‌ای‌آی توضیح می‌دهد، مدل‌ها بر اساس سند سیاست فعلی ارزیابی می‌شوند، نه بر اساس قضاوت انسانی مستقل. اما همان‌طور که محققان هشدار داده‌اند، دقت (اَکیورِسی) در چنین سامانه‌ای کافی نیست. مقاله‌ای دیگر با عنوان «مدیریت محتوا توسط مدل زبانی بزرگ: از دقت تا مشروعیت» تأکید می‌کند که «درست بودن» ماشینی در تشخیص محتوای ممنوعه نمی‌تواند جای «مشروعیت»، «شفافیت» و «دسترسی به فرایند اعتراض» را بگیرد.یعنی، وقتی قضاوت به ماشین سپرده می‌شود، خطاها و سوگیری‌ها می‌توانند سامانمند شوند: محتوایی که برای یک گروه خطرناک است، برای گروهی دیگر مجاز خواهد بود. این اتفاق به شکلی ناهمگون و پنهان رخ می‌دهد و استاندارد دوگانه‌ای را اعمال می‌کند.

صدای فعالان حقوق بشر خفه شد

در گزارش اچ‌آر‌دبلیو و بازتاب‌های رسانه‌ای، صدها کاربر از کشورهای مختلف گزارش داده‌اند که پست‌ها، استوری‌ها یا کامنت‌هایشان حذف شده یا حسابشان تعلیق شده است. همچنین امکان لایک، اشتراک، بازنشر یا استفاده از بخش پخش زنده و امکانات دیگر برایشان مسدود شده است.این اقدامات بدون اطلاع قبلی و بدون امکان اعتراض واقعی صورت گرفته است؛ یا در موارد بسیار کمی، امکان تجدیدنظر وجود داشته است.کاربران رفتارهای خود را تغییر داده‌اند: دیگر جرأت انتشار ندارند، خودسانسوری می‌کنند و دیدگاه‌شان را کم‌رنگ می‌کنند تا دوباره دچار پیامد نشوند.
 

خودسانسوری دیجیتال آغاز شد

در یکی از مصاحبه‌ها که در گزارش نقل شده بود، کاربری گفته است: «متوجه شدم بسیاری از کامنت‌هایم... به‌طور خودکار به‌عنوان هرزنامه (اِسپَم) حذف می‌شوند... در نهایت، حتی نمی‌توانستم به کامنت‌های پست‌های خودم پاسخ دهم.»این یعنی اینکه سانسور نه فقط حذف آشکار، بلکه «کاهش نامرئی دیده شدن» (شدو بن) را نیز در بر می‌گیرد؛ همان چیزی که برای مخاطب عام ملموس نیست.اما تأثیر این کاهش نامرئی دیده شدن در بلندمدت مدام افزایش می‌یابد و فضای گفتمان را محدود می‌کند. این محدودیت، صدای منتقدین و فعالان را در سطح وسیع خفه می‌کند.

هوش مصنوعی ساختار سانسور را دوباره بنا کرد

حجم محتوای تولیدشده توسط کاربران در شبکه‌های اجتماعی به حدی است که شرکت‌ها برای مدیریت آن به راهکارهای سریع‌تر و کم‌هزینه‌تر نیاز دارند. استفاده از مدل‌های زبانی بزرگ مانند جی‌پی‌تی-۴ وعده می‌دهد که سرعت و مقیاس را همزمان فراهم کند.اگر خط‌مشی شرکت محدود، مبهم یا دارای «لیست سازمان‌های خطرناک» باشد، آن سیاست وقتی به «ماشین قضاوت» سپرده شود، به سانسور گسترده و سامانمند تبدیل می‌شود.وقتی تصمیمات داخلی و خودکار گرفته می‌شوند، کاربر نمی‌داند چرا محتوایش حذف شده یا نرخ دیده شدنش کم شده است؛ در نتیجه احساس بی‌عدالتی می‌کند و خودسانسوری آغاز می‌شود.بنابراین صدها، هزاران و حتی میلیون‌ها کاربر که دیدگاه‌شان درباره حوادث مهم سیاسی و حقوق بشری است، دیگر امکان ابراز ندارند، محتوایشان دیده نمی‌شود و صدای آنان خفه می‌شود.

سانسور محتوای فلسطین یک الگوی برجسته بود

گزارش اچ‌آر‌دبلیو نشان می‌دهد که از میان ۱,۰۵۰ موردی که بررسی شده‌اند، ۱,۰۴۹ مورد مربوط به «ابراز صلح‌آمیز حمایت از فلسطین یا بیان نگرانی درباره حقوق بشر» بوده است.تنها یک مورد علیه محتوای حمایت از اسرائیل گزارش شده بود که این آمار، عدم توازن در اجرای سیاست‌های شرکت را به وضوح نشان می‌دهد.شش الگوی تکرارشونده سانسور شناسایی شدند: حذف پست، استوری یا کامنت، تعلیق یا حذف حساب، محدودیت در تعامل مانند لایک، کامنت یا بازنشر، محدودیت در دنبال کردن یا تگ کردن، مسدود کردن ویژگی‌هایی مثل پخش زنده یا کسب درآمد، و فیلتر پنهان (شدو بن). این شواهد نشان‌دهنده یک تصمیم فردی یا خطای تصادفی نیست، بلکه ساختاری نظام‌مند در حال اجراست.
 

هوش مصنوعی به پلیس شبکه بدل شد

در این میان، مدل‌های زبانی بزرگ، به‌خصوص جی‌پی‌تی-۴، به‌طور فزاینده‌ای به داورانی تبدیل شدند که نه بر اساس قضاوت انسانی، بلکه بر اساس اَلگوریتم و سیاست شرکت، درباره محتوای دیجیتال حکم می‌دهند.اما پژوهشگران هشدار می‌دهند که خود این سامانه‌ها نیز نامطلوب هستند: مدلی که برای تشخیص محتوا به کار می‌رود ممکن است سوگیری داشته باشد.آنچه مدل آن را «ناامن» تشخیص می‌دهد، شاید برای بخش بزرگی از انسان‌ها بیان آزاد باشد. مقاله «مدیریت محتوا توسط مدل زبانی بزرگ: از دقت تا مشروعیت» تأکید می‌کند که دقت فنی کافی نیست؛ چیزی که اهمیت دارد مشروعیتِ ساختار قضاوت است.مشروعیت به این معنا است که کاربران بدانند چرا محتوایشان حذف شد، چگونه تصمیم گرفته شده، و امکان اعتراض وجود داشته باشد.

تغییرات سیاستی پنهان، رفتار مدل را عوض کرد

همچنین پژوهش اخیر با عنوان «نظارت طولی بر مدیریت محتوای مدل‌های زبانی بزرگ درباره مسائل اجتماعی» نشان داده است که تغییرات سیاستی، حتی اگر علنی نشوند، به تغییرات فوری در رفتار مدل می‌انجامند. این مسئله یعنی مدل اساساً ابزاری برای اجرای سیاست‌های شرکت است، نه قضاوت مستقل یا عادلانه.آنچه در سال‌های اخیر رخ داده، دیگر صرفاً مدیریت محتوای خطرناک یا خشونت‌آمیز نبوده است. شرکت‌هایی مانند اوپن‌ای‌آی و مِتا، با بهره‌گیری از هوش مصنوعی، ظرفیت دارند تا آنچه جامعه می‌بیند و درباره‌اش بحث می‌کند را شکل دهند. این شکل‌دهی نه بر اساس شفافیت، بلکه بر اساس منافع خودشان، سیاست‌های داخلی یا فشار دولت‌ها رخ می‌دهد.

گذار از پلتفرم باز به دروازه‌بانی خصوصی هوشمند

آن‌ها اکنون «قضاوت‌چی» هستند؛ نه فقط «ناظران». این قضاوت، در باطن شرکت انجام می‌شود و به کاربران اطلاع داده نمی‌شود.همچنین هیچ روند واقعی اعتراض یا اصلاحی برای آن وجود ندارد. در این روند، صداهای الهام‌بخش، منتقدین، مدافعان حقوق بشر و اقلیت‌ها، که شاید مهم‌ترین بازندگان چنین نحوه اداره‌ای باشند، خاموش می‌شوند. ما دیگر درباره خطا یا اشتباه فنی حرف نمی‌زنیم، بلکه درباره یک ساختار جدیدِ قدرت در فضای مجازی صحبت می‌کنیم.

گزارش، ماهیت قدرت دیجیتال را فاش کرد

این ساختاری است که شرکت‌ها با ابزار هوش مصنوعی، نه با زور یا سانسور آشکار، بلکه با اَلگوریتم، سیاست داخلی، و قضاوت ماشینی، نقش «دروازه‌بان محتوا» را به دست گرفته‌اند.اگر این روند نادیده گرفته شود، نتیجه آن نه صرفاً حذف چند پست یا حذف چند کاربر، که تغییر مسیر گفتمان عمومی و خفقان دیریابِ بی‌صدا خواهد بود.گزارشی که اکنون پیش روی شماست، تلاشی است برای بیرون کشیدن آنچه پنهان است، نشان دادن ماهیت جدید قدرت دیجیتال و هشدار به جهانی که هنوز، شاید، فکر می‌کند اینترنت آزاد است. هدف از این آگاهی، حفظ فضایی است که در آن صداها بتوانند به صورت آزاد شنیده شوند.
 
منبع: فارس

12247416
 
پربازدید ها
پر بحث ترین ها

مهمترین اخبار وبگردی

وبگردی
«باشگاه خبرنگاران» الگوریتم‌های جدید، حتی پرچم فلسطین یا شعار آزادی را «محتوای خطرناک» تشخیص داده و به صورت سیستماتیک حساب کاربران حامی مقاومت را تعلیق می‌کنند.
وبگردی
«باشگاه خبرنگاران» در دسته‌بندی اخبارِ گوگل ۲۰۲۵، نام «ایران» با جهشی چشمگیر، رتبه دوم بیشترین جست‌و‌جو را پس از «چارلی کِرک» کسب کرد.
وبگردی
«باشگاه خبرنگاران» گشایش واقعی با «حرف زدن با خدا» و اتصال به قدرت بی‌نهایت رخ می‌دهد.
وبگردی
«باشگاه خبرنگاران» بازخوانی پرونده شهید احدی؛ پاسداری که در دهه ۶۰ تخصصش خنثی‌سازی بمب‌های گروهک‌ها بود و سرانجام جانش را سپر بلای مردم کرد.
وبگردی
«باشگاه خبرنگاران» دانشمندان می‌گویند مصرف روزانه ۱۰۰۰ میلی‌گرم ویتامین C می‌تواند اثرات مخرب آلودگی هوا را مهار کند، اما مصرف خودسرانه آن ممنوع است.
وبگردی
«باشگاه خبرنگاران» هر بار بوم جرثقیل باز می‌شد، عراقی‌ها آتش می‌ریختند؛ بچه‌های مسجد، اما در پناه بار‌ها پنهان می‌شدند و دوباره کار را از سر می‌گرفتند.
وبگردی
«باشگاه خبرنگاران» مغز انسان تنها یک کانال توجه دارد و انجام همزمان چند کار باعث کاهش توان شناختی، خستگی ذهنی و حتی افزایش خطر ابتلا به افسردگی می‌شود.
وبگردی
«باشگاه خبرنگاران» در آغاز سوره مؤمنون از مهارتی حرف زده می‌شود که آرامش را از بیرون نمی‌گیرد، از درون می‌سازد؛ همان حضور و تمرکزی که اگر در زندگی‌مان جاری بود، این‌همه آشفتگی، اضطراب و گرفتاری مجال ریشه گرفتن پیدا نمی‌کرد.
وبگردی
«باشگاه خبرنگاران» یک متخصص زنان و زایمان گفت: سقط‌های غیرقانونی می‌توانند به پارگی رحم، عفونت‌های شدید و حتی مرگ مادر منجر شوند.
وبگردی
«باشگاه خبرنگاران» یونسکو با انتشار هشدار تازه‌ای اعلام کرد که استفاده کنترل‌نشده از هوش مصنوعی در مدارس می‌تواند به‌جای کاهش نابرابری، شکاف آموزشی را بیشتر کند.

مشاهده مهمترین خبرها در صدر رسانه‌ها

صفحه اصلی | درباره‌ما | تماس‌با‌ما | تبلیغات | حفظ حریم شخصی

تمامی اخبار بطور خودکار از منابع مختلف جمع‌آوری می‌شود و این سایت مسئولیتی در قبال محتوای اخبار ندارد

کلیه خدمات ارائه شده در این سایت دارای مجوز های لازم از مراجع مربوطه و تابع قوانین جمهوری اسلامی ایران می باشد.

کلیه حقوق محفوظ است