اتاق N کره جنوبی دوباره ظاهر شد! تعداد زیادی از زنان که چهره‌شان توسط هوش مصنوعی تغییر کرده بود در ویبو درخواست کمک کردند که شامل 500 مدرسه و بیش از 220000 نفر شرکت‌کننده بود.

در اثر "شبح در پوسته" در پایان قرن گذشته، موتوکو که تمام بدنش به یک بدن مصنوعی تبدیل شده بود، شک داشت که آیا او هنوز وجود دارد یا خیر. بدن، حافظه و روابط با افراد دیگر، زمانی که این چیزها قابل تکرار هستند، نمی توانند به عنوان استدلالی برای زندگی فیزیکی استفاده شوند.

هنگامی که خواننده هوش مصنوعی محبوب شد، استفانی سان نیز در پاسخ خود به نکته مشابهی اشاره کرد، شما خاص نیستید، از قبل قابل پیش بینی هستید و متأسفانه شما نیز قابل تنظیم هستید.

می‌توانیم اضافه کنیم که هر کسی را می‌توان با هوش مصنوعی توصیف و تولید کرد، حتی اگر هرگز کاری انجام نداده باشید.

لو ژون واقعاً گفت که وقتی آستین های کوتاه را دید بلافاصله به فکر بازوهای سفید افتاد. تخیل انسان رایج است، و جای تعجب نیست که هرگاه پیشرفت جدیدی در فناوری وجود داشته باشد، مسیر عمودی خاصی با رشد بیشتری توسعه یابد: پورنوگرافی.

کره جنوبی که زمانی دنیا را به خاطر اتاق N شوکه کرد، اکنون نسخه 2.0 را تجربه می کند.

خشونت توسط مردم عادی علیه مردم عادی

در حادثه قبلی در اتاق N، مجرم چندین اتاق چت را در نرم‌افزار پیام‌رسانی فوری رمزگذاری شده تلگرام ایجاد کرد و محتوای استثمار جنسی را منتشر کرد. این حادثه عمدتاً در تلگرام رخ داده است.

تفاوت اصلی بین این دو ابزار جنایت است: یکی عکاسی مخفیانه و دیگری دیپ فیک.

ما قبلاً با Deepfake آشنا هستیم که از هوش مصنوعی برای تولید فیلم‌ها، صداها یا تصاویر به ظاهر واقعی برای شبیه‌سازی چیزهایی استفاده می‌کند که واقعاً اتفاق نیفتاده‌اند.

دیپ فیک معمولا در صنعت سرگرمی و سیاستمداران استفاده می شود، اما همچنین توسط افراد عادی کنترل می شود و برای آسیب رساندن به سایر افراد عادی استفاده می شود.

عاملان اتاق N 2.0 پنجه های خود را به اعضای خانواده، همکاران و همکلاسی های خود دراز کرده اند.

▲ اتاق های چت توسط محوطه دانشگاه

علاوه بر زنان اطراف، سلبریتی های زن نیز هدف شکار آنها هستند. برخی از اتاق های گفتگو حتی به انواع مشاغل از جمله معلمان، پرستاران، سربازان و غیره تقسیم می شوند.

روزنامه هانکیوره دیلی گزارش داد که یک چت روم تلگرام با ۲۲۷۰۰۰ شرکت کننده فقط به عکس های زنان نیاز دارد تا در ۵ تا ۷ ثانیه محتوای دیپ فیک تولید کند.

مفهوم 220000 چیست؟ کره جنوبی در سال 2023 تنها 230000 نوزاد خواهد داشت و کل جمعیت آن تنها بیش از 50 میلیون نفر است.

این چت روم دارای رباتی است که عکس‌های زن را به عکس‌های برهنه تبدیل می‌کند و می‌تواند سینه‌ها را تنظیم کند، پس از ورود کاربر به اتاق گفتگو، پیامی در پنجره چت ظاهر می‌شود: «حالا عکس‌های زن را که دوست دارید ارسال کنید».

▲ اسکرین شات از اتاق چت، نحوه استفاده از Deepfake را توضیح می دهد

تعداد شرکت‌کنندگان بسیار زیاد است، که ممکن است به «آستانه ورود» پایین مرتبط باشد: پیوندها را می‌توان با جستجوی کلمات کلیدی خاص در X (توئیتر سابق) پیدا کرد.

این چت روم یک مدل کسب درآمد نیز ایجاد کرده است. دو عکس اول رایگان هستند، سپس برای هر عکس 1 الماس (0.49 دلار آمریکا، تقریباً 3.47 یوان) هزینه دریافت می شود. پرداخت فقط با ارز مجازی برای ناشناس بودن امکان پذیر است. اگر دوستان را دعوت کنید، می توانید اعتبار رایگان نیز دریافت کنید.

اما برخی از اتاق های گفتگو نیز وجود دارند که نیاز به "گواهی پذیرش" دارند – اگر می خواهید به گروه بپیوندید، ابتدا باید 10 عکس از افرادی که می شناسید ارسال کنید و در مصاحبه قبول شوید.

آواتارهای نرم افزار چت KakaoTalk و عکس های اینستاگرام را می توان به عنوان "مواد اولیه" استفاده کرد.

وحشتناک‌تر این است که بخش بزرگی از قربانیان و مجرمان را نوجوانان تشکیل می‌دهند.

داوطلبان نقشه ای ایجاد کردند که در زمان واقعی به روز می شد و نشان می داد که جنایات در کدام مدارس رخ داده است. حتی در یک مدرسه دخترانه نیز قربانیانی وجود خواهد داشت، زیرا عاملان آن لزوماً همکلاسی نیستند.

هنوز مشخص نشده است که دقیقاً چه تعداد از مدارس آسیب دیده اند. برخی از وبلاگ نویسان ادعا کردند که بیش از 70 درصد مدارس این بار درگیر بودند.

در 26 آگوست، "Korea JoongAng Daily" اشاره کرد که شامل حداقل حدود 300 مدرسه در سراسر کشور، از جمله حتی مدارس ابتدایی است. در 28 اوت، گزارش WSJ این تعداد را به حدود 500 مدرسه افزایش داد.

یکی از کاربران اینترنت در قسمت نظرات اظهار تاسف کرد: "این اساساً کل کره جنوبی است…"

اگرچه هیچ نتیجه تحقیقات روشنی از این حادثه وجود ندارد، اما داده های گذشته نیز می تواند جدی بودن وضعیت را نشان دهد.

بر اساس آمار موسسه حقوق بشر زنان کره، از ژانویه تا آگوست سال جاری، در مجموع 781 قربانی دیپ فیک درخواست کمک کردند که از این تعداد 288 نفر زیر سن قانونی بودند که 36.9٪ را شامل می شود. تعداد واقعی به احتمال زیاد بسیار بیشتر از این است.

علاوه بر این، آژانس پلیس ملی کره جنوبی اعلام کرد که از ابتدای سال 2023، حدود 70 درصد از حدود 300 نفر متهم به تولید و توزیع عکس های برهنه دروغین، نوجوانان بودند.

بسیاری از زنان کره ای برای درخواست کمک به Weibo رفتند. آنها زبان چینی نمی دانستند و فقط می توانستند مطالب موجود در تلفن های خود را بخوانند و "Room N 2.0" را به یک جستجوگر داغ در ویبو منتقل کردند.

برخی از کاربران در دنیای اینترنت تعجب می کنند که چرا زنان کره ای برای کمک به اینترنت چینی نمی روند.

آنها بر این باورند که اگر مورد توجه و انتقاد خارجی ها قرار گیرند، رسانه ها به جای تظاهر به ناشنوا بودن و ساکت نگه داشتن مسائل، فعال تر گزارش می دهند و ادارات مربوطه با جدیت بیشتری تحقیق خواهند کرد.

برخی از شواهد جنایی و حتی هویت آغازگر توسط خود زنان کره ای، مشابه اتاق N در آن زمان، بررسی شد. خوشبختانه، رئیس جمهور کره جنوبی و رهبر حزب مخالف موضع خود را بیان کرده اند:

دیپ فیک یک جرم جنسی دیجیتالی آشکار است و ما یک بار برای همیشه آنها را ریشه کن خواهیم کرد.

دیپ فیک ممکن است به عنوان یک شوخی تلقی شود، اما آنها به وضوح اعمال مجرمانه ای هستند که از فناوری تحت پوشش ناشناس استفاده می کنند و هر کسی می تواند قربانی شود.

سرورهای تلگرام در خارج از کشور هستند و مدیر عامل آن در پاریس بازداشت شده است که تحقیقات را دشوار می کند. کمیسیون استانداردهای ارتباطات کره اعلام کرد که با ارسال نامه ای از دولت فرانسه درخواست کرده است تا در تحقیقات تلگرام همکاری کند.

پس از جلب توجه افکار عمومی، رفتارهای مرتبط با آن مهار شده است، با این حال، هانکیوره دیلی گزارش داد که برخی از کاربران بی‌وجدان «تأیید هویت» سخت‌گیرانه‌تری را پشت سر می‌گذارند و در اتاق‌های گفتگوی خصوصی‌تر به دروغگویی عمیق‌تر ادامه می‌دهند.

▲ اسکرین شات از اتاق چت، کاربران درباره پیوستن به اتاق چت خصوصی تر بحث می کنند

محتوای نادرست، آسیب واقعی

دیپ فیک چیز جدیدی نیست، اما ضرر آنها به ندرت تایید می شود.

برخی از زنان در کره جنوبی حساب های رسانه های اجتماعی خود را خصوصی یا عکس های منتشر شده در فضای مجازی را حذف کرده اند تا جبران کنند.

مضطرب و مشکوک بودند. از یک طرف، آنها نمی دانند که عکس هایشان کجا به اشتراک گذاشته شده است و تا چه اندازه گسترش یافته است. از سوی دیگر، آنها درک نمی کنند که چرا از قربانیان خواسته می شود به جای آموزش مجرمان، مراقب آپلود عکس ها باشند.

وقتی یک دانش آموز دختر در استوری اینستاگرام خود تماس گرفت تا «همه عکس هایی را که آپلود کردید بردارید»، پسران همان مدرسه می توانستند بگویند: «تو خیلی زشت هستی که در آن چیزها از شما استفاده نمی شود».

▲اظهارات مجرم که می گوید زنان بیش از حد قد می ایستند

هنوز هم صداهایی از این دست در اینترنت شنیده می شود: «نمی دانم چرا این نوع جنایت می تواند این همه آسیب ایجاد کند.

اما چیزی که قربانیان تجربه می‌کنند چیزی بیش از دیدن چهره‌هایشان است. عاملان همچنین به آنها توهین می کنند، اطلاعات شخصی آنها مانند آدرس، شماره تلفن و کارت دانشجویی را منتشر می کنند، در مورد زندگی خصوصی آنها شایعاتی را منتشر می کنند و به آنها نزدیک می شوند و آنها را مورد آزار و اذیت قرار می دهند.

آنچه حتی وحشتناک تر است مواجهه با "پورن انتقام جویانه" است – عاملان تهدید می کنند که مطالب دروغین عمیق را برای باج گیری و آسیب رساندن به زنان پخش می کنند که باعث آسیب ثانویه جدی تر می شود.

▲یک یوتیوب‌بر کره‌ای می‌گوید که زنان سروصدا می‌کنند، اما او می‌داند چگونه با پوشاندن از خود محافظت کند.

کره هرالد گزارش داد که سونگ، یک دانش آموز 17 ساله دبیرستانی در استان گیونگگی، قبلاً تعدادی عکس رقص و ویدئوهای کوتاه را به صورت آنلاین به اشتراک می گذاشت. یک روز، او یک پیام ناشناس در اینستاگرام دریافت کرد که شامل سه عکس واضح بود: "آیا دوستان و والدینت این جنبه از زندگی شما را درک می کنند؟"

این عکس ها همگی دیپ فیک هستند، اما تقریباً از تصاویر واقعی قابل تشخیص نیستند. کابوس تمام نشده است و پیام هایی که او پاسخ می دهد فقط طرف مقابل را هیجان زده تر می کند و مطالبات بیشتری را مطرح می کند.

▲ اسکرین شات از پیام های متنی بین سانگ و مجرم، تغییر یافته و بر اساس درخواست سانگ به انگلیسی ترجمه شده است.

هیچ کس نمی تواند درد را تقسیم کند. برخی از قربانیان حتی گفتند: "دنیایی که من می دانستم فرو ریخته است."

این معادل قیمتی نیست که مرتکب پرداخته است.

▲ اسکرین شات از اتاق چت، برخی اظهارات ناپسند، مانند "شما می توانید ژستی را که می خواهید عکس بگیرید، بسیار عالی است" تنظیم کنید.

این حادثه هنوز حل و فصل نشده است، اما کره جنوبی قبلاً دیپ فیک را محکوم کرده است که یکی از آنها اولین محاکمه خود را در 28 آگوست برگزار کرد.

از ژوئیه 2020 تا آوریل امسال، پارک عکس های صورت قربانیان زن مانند فارغ التحصیلان دانشگاه را دزدید، 419 فیلم مستهجن Deepfake تهیه کرد و 1735 نفر از آنها را به 5 سال زندان محکوم کرد.

قربانیان در ژوئیه 2021 شروع به دویدن کردند قبل از اینکه مجرم را به دادگاه بکشانند و پارک در ماه مه امسال تحت تعقیب قرار گرفت.

به دلیل این حادثه بزرگ دیپ فیک، مقامات مربوطه کره جنوبی در نظر دارند حداکثر مجازات زندان را از 5 سال به 7 سال افزایش دهند.

▲زنان کره جنوبی در اعتراض به جنایات جنسی اعتراض می کنند

با توجه به اینکه جرایم نوجوانان بسیار رایج است، اما خلاءهایی در قانون وجود دارد، کره جنوبی حداکثر مجازات را برای مرتکبین در مرحله آموزش اجباری می سنجد.

تا به امروز، Deepfake هنوز در بسیاری از مکان‌ها یک منطقه خاکستری است و تلاش‌های حفاظتی نمی‌تواند با سرعت تهدیدها همگام شود.

به عنوان مثال، در ایالات متحده، اگر قربانی یک بزرگسال باشد، ایالت ها قوانین و مقررات متفاوتی دارند، یا جرم انگاری یا طرح دعوی مدنی، اما در حال حاضر هیچ قانون فدرال منع تولید محتوای پورنوگرافی Deepfake وجود ندارد.

▲ اسکرین شات از اتاق چت، اعضا در مورد آشنایان مشترک چت می کنند

یکی از دلایل دشواری قانون گذاری این است که برخی افراد معتقدند حتی اگر سوژه در تصویر Deepfake شبیه شما باشد، در واقع شما نیستید، بنابراین حریم خصوصی شما واقعاً نقض نمی شود.

با این حال، همه می دانند که اگرچه تصویر نادرست است، اما آسیب واقعی است.

پیشرفت حقوقی کند است و در عین حال، آن دسته از مجرمانی که هرگز حاضر نشده اند، موقتاً "سکوت" کرده و منتظر "بازگشت" هستند.

انجام شرارت بسیار آسان است، Deepfakes برای همه مرتبط است

کره جنوبی نیز از این قاعده مستثنی نیست.

در سپتامبر 2023، در شهر آلمندرالخو اسپانیا، گروهی از پسران عکس‌هایی از همکلاسی‌های زن خود را که در رسانه‌های اجتماعی پست کرده بودند، در ابزار هوش مصنوعی «برداشتن با یک کلیک» آپلود کردند. پنج مدرسه راهنمایی در این شهر وجود دارد و حداقل در چهار مورد از آنها "عکس های برهنه" همکلاسی های دختر منتشر شده است.

این ابزار از طریق اپلیکیشن های موبایل یا تلگرام قابل استفاده است.

اکثر مبتکران برای آنها شناخته شده بودند و همچنین حداقل 10 نفر از آنها زیر 14 سال بودند و نمی توانستند با اتهامات جنایی روبرو شوند.

▲یک مادر از قربانیان بیشتری می خواهد که جلو بیایند

آنها چت های گروهی در واتس اپ و تلگرام ایجاد کردند تا این "عکس های برهنه" را پخش کنند و قربانیان را از طریق اینستاگرام تهدید به اخاذی "باج" و عکس های برهنه واقعی کردند.

وضعیت مشابهی در یک دبیرستان در نیوجرسی، ایالات متحده رخ داد.

مدیر مدرسه اطمینان داد که همه تصاویر حذف شده است و دیگر پخش نخواهد شد. آغازگر برای چند روز از مدرسه محروم شد و به "محل جنایت" بازگشت.

دیپ فیک برای اولین بار در سال 2017 در Reddit ظاهر شد، "نسخه آمریکایی Tieba" به جای چهره افراد مشهور با شخصیت های فیلم های مستهجن یا جعل چهره های سیاسی است.

از منظر فنی، دو مسیر اصلی وجود دارد: یکی مسیر رمزگذار-رمزگشا است که با فشرده سازی و بازسازی تصویر، یک وجه دیگر را جایگزین می کند. تصاویر واقعی از طریق آموزش خصمانه

▲گان

امروزه دیپ فیک مفهومی گسترده‌تر است و دیگر به جایگزینی چهره اصلی محدود نمی‌شود، ما از آن برای اشاره به هرگونه اقدام جعل واقعیت از طریق ابزارهای تکنولوژیکی استفاده می‌کنیم.

اصول فنی پیچیده در پشت صحنه پنهان شده است.

برنامه‌های «برهنه کردن با یک کلیک» فقط به یک عکس، یک آدرس ایمیل و چند دلار برای درآوردن «لباس‌های» افراد مشهور، همکلاسی‌ها و غریبه‌ها به صورت دسته‌ای نیاز دارند. بدون رضایت ناشر، و سپس بدون اطلاع آنها آن را منتشر می کند.

بر اساس یک مدل انتشار منبع باز آموزش داده شده بر روی تصاویر عظیم، کاربران می توانند با وارد کردن کلمات سریع، عکس های صریح جعلی از افراد مشهور تولید کنند.

▲مدل هوش مصنوعی بازیگر زن هالیوود هزاران بار دانلود شده است

پروژه های GitHub منبع باز مانند Deep-Live-Cam می توانند چهره را در چت های ویدیویی تنها با یک عکس تغییر دهند.

فریب دادن جوانان ممکن است دشوار باشد، اما لزوماً برای بزرگترها اینطور نیست. یک مثال غم انگیز قبلاً در واقعیت اتفاق افتاده است – یک مرد 82 ساله در ایالات متحده به دلیل ایمان کورش به هوش مصنوعی 690000 دلار از دست داد. ماسک که مردم را در ویدیو فریب داد.

▲ پخش زنده AI Musk

در ژوئیه 2023، دویچه تلکام تبلیغاتی در مورد امنیت داده های کودکان منتشر کرد و از والدین خواست تا حد امکان حریم خصوصی کودکان را در اینترنت به اشتراک بگذارند.

تصاویر، فیلم‌ها و فایل‌های صوتی همگی Deepfake هستند، اگرچه ما می‌دانیم که «دیدن یعنی باور کردن» به گذشته تبدیل شده است، اما روانشناسی ما هنوز آن را به طور کامل نپذیرفته است و ما توانایی تشخیص همه افراد را نداریم ممکن است قربانی شود

فناوری ممکن است خنثی باشد، اما اطلاعاتی که مردم از فناوری برای تولید استفاده می‌کنند فقط اطلاعات نیست، بلکه سلاح‌هایی است که برای تحقیر، انگ زدن و به دست آوردن حس برتری استفاده می‌شود. هر چه مطالب مبتذل تر و عجیب تر باشد، انتشار آن آسان تر از زمان های قدیم بوده است.

مردم عادی چه کار می توانند بکنند؟ حداقل ما می توانیم تصمیم بگیریم که چگونه از فناوری استفاده کنیم و همچنین می توانیم انتخاب کنیم که چه اطلاعاتی تولید و منتشر کنیم، به قربانیان توجه کنیم، به عاملان استهزاء کنیم و از قدرت اندک خود برای ترویج پیشرفت قوانین و مفاهیم اجتماعی استفاده کنیم.

پس از تعویض چهره، چرا قربانی عکس ها را حذف کرد؟ چرا قربانیان پس از عکسبرداری مخفیانه احساس شرمندگی می کنند؟ به نظر می رسد این سوالی است که فناوری نمی تواند به آن پاسخ دهد.

مانند یخبندان پاییزی تیز است و می تواند بلایای بد را دفع کند. ایمیل کاری: [email protected]

# خوش آمدید به دنبال حساب عمومی رسمی وی چت Aifaner: Aifaner (شناسه WeChat: ifanr در اسرع وقت در اختیار شما قرار خواهد گرفت).

Ai Faner |. لینک اصلی · مشاهده نظرات · Sina Weibo