متاپنل می گوید قوانین دیپ فیک در میان بحث بر سر عکس های برهنه باید به روز شوند



یک هیئت شرکت در تصمیمی در مورد مواردی از تصاویر صریح دو زن مشهور که توسط هوش مصنوعی ایجاد شده است، گفت: سیاست متا در مورد تصاویر عمیق جعلی ناخواسته نیاز به به روز رسانی دارد، از جمله زبانی که “به اندازه کافی واضح نیست”.

هیئت نظارت نیمه مستقل دریافت که در یک مورد این غول رسانه های اجتماعی نتوانسته عکس صمیمی یک زن مشهور هندی را که هویتش فاش نشده است، حذف کند تا اینکه هیئت نظارت شرکت وارد ماجرا شد.

عکس‌های Deepfake از زنان برهنه و افراد مشهور، از جمله تیلور سویفت، در رسانه‌های اجتماعی منتشر شده‌اند، زیرا فناوری مورد استفاده برای ایجاد آن‌ها در دسترس‌تر و استفاده از آن‌ها آسان‌تر شده است و پلتفرم‌های آنلاین با فشار بیشتری برای رسیدگی به آن مواجه هستند.

هیئت مدیره ای که متا در سال 2020 برای بررسی محتوای ارسال شده در پلتفرم های این شرکت مانند فیس بوک و اینستاگرام تأسیس کرد، ماه ها به بررسی دو مورد مربوط به تصاویر زنان مشهور تولید شده توسط هوش مصنوعی پرداخت – یکی هندی و دیگری آمریکایی.

هیئت مدیره هیچ یک از این زنان را شناسایی نکرد و هر یک را تنها به عنوان “شخصیت عمومی زن” توصیف کرد.

متا گفت که از توصیه های هیئت مدیره استقبال می کند و آنها را در نظر می گیرد.

یک مورد مربوط به یک “تصویر دستکاری شده با هوش مصنوعی” است که در اینستاگرام منتشر شده است که یک زن هندی برهنه را از پشت نشان می دهد و صورتش قابل مشاهده است.

مدیریت متوجه شد که کاربر تصویر را به عنوان پورنوگرافی گزارش کرده است، اما این گزارش در عرض 48 ساعت بررسی نشد، بنابراین به طور خودکار بسته شد. کاربر درخواست تجدیدنظری را برای متا ارسال کرد، اما به طور خودکار بسته شد.

تنها زمانی که کاربر به هیئت نظارت درخواست داد، متا تشخیص داد که تصمیم اولیه برای حذف نکردن پست اشتباه بوده است.

متا حسابی را که عکس‌ها از آن پست شده بودند مسدود کرد و آنها را به پایگاه داده‌ای اضافه کرد که به طور خودکار عکس‌هایی را که خط‌مشی‌های آن را نقض می‌کنند شناسایی و حذف می‌کند.

در مورد دوم، تصویری از زنان آمریکایی برهنه و دست‌کشیده توسط هوش مصنوعی در یک گروه فیس‌بوک ارسال شد. به طور خودکار حذف شد زیرا قبلاً در پایگاه داده بود. کاربر در مورد حذف به هیئت مدیره اعتراض کرد، اما هیئت مدیره تصمیم متا را تایید کرد.

هیئت مدیره دریافت که هر دو عکس ناقض سیاست “فتوشاپ تحقیرآمیز جنسی” متا در برابر ارعاب و آزار و اذیت هستند.

با این حال، وی افزود که متن خط مشی خود برای کاربران روشن نیست و توصیه کرد که کلمه “توهین آمیز” را با اصطلاح دیگری مانند “دگراندیش” جایگزین کنید و تصریح کرد که این خط مشی طیف گسترده ای از تکنیک های ویرایش و دستکاری رسانه را فراتر از “دربر می گیرد. فتوشاپ.”

در این سند آمده است که عکس‌های برهنه دیپ‌فیک نیز باید تابع استانداردهای جامعه برای «استثمار جنسی بزرگسالان» باشد تا «آزار و اذیت».

وقتی مدیریت از متا پرسید که چرا این زن هندی دیگر در پایگاه داده عکس خود نیست، او از پاسخ شرکت مبنی بر اینکه بر اساس گزارش های رسانه ای است، نگران شد.

این شورا گفت: «این نگران‌کننده است زیرا بسیاری از قربانیان تصاویر عمیق‌فیک صمیمی در کانون توجه نیستند و مجبور هستند یا انتشار تصاویر ناخواسته از خود را بپذیرند یا هر گونه رویدادی از این قبیل را جستجو و گزارش کنند.»

هیئت مدیره همچنین اعلام کرد که نگران «بسته شدن خودکار» درخواست‌های آزار جنسی مبتنی بر تصویر توسط متا پس از 48 ساعت است و گفت که این «می‌تواند تأثیر قابل‌توجهی بر حقوق بشر داشته باشد».

متا که در آن زمان با نام فیس بوک شناخته می شد، در سال 2020 در پاسخ به انتقاداتی مبنی بر اینکه برای حذف اطلاعات نادرست، سخنان نفرت پراکن و کمپین های نفوذ از پلتفرم های خود به سرعت به سرعت حرکت نمی کند، هیئت نظارتی ایجاد کرد.

این هیئت 21 نفره یک گروه بین المللی است که شامل وکلا، کارشناسان حقوق بشر و روزنامه نگاران است.

دیدگاهتان را بنویسید