ضد حمله کره N اتاق 2.0! وقتی افراد عادی کاملاً با تغییر چهره هوش مصنوعی شکست می‌خورند، از جادو برای شکست دادن جادو استفاده می‌کنند


حادثه اخیر «Room N 2.0» در کره جنوبی بار دیگر موضوع رایج Deepfake را به منصه ظهور رساند.

مجرمان در تلگرام جمع شدند و از هوش مصنوعی برای ترکیب عکس های زنانه به عکس های برهنه استفاده کردند، که نشان می دهد دایره دیپ فیک ها از ستاره های سرگرمی و سیاستمداران به افراد عادی مانند من و شما گسترش یافته است.

در این دوران که هوش مصنوعی به یک علم برجسته تبدیل شده است، می‌خواهیم بفهمیم که چگونه این فناوری، که به نظر جدید نیست، اما در سال‌های اخیر محبوبیت فزاینده‌ای پیدا کرده است، چگونه بر زندگی روزمره تأثیر می‌گذارد.

دیپ فیک ها تا چه اندازه تکامل یافته اند و چه آسیب هایی را به همراه خواهند داشت؟ چگونه از فناوری برای مبارزه با دیپ فیک استفاده کنیم؟ مردم عادی چگونه از دیپ فیک جلوگیری می کنند؟

ما در مورد این مسائل با دکتر چن پنگ، دانشمند در الگوریتم هوشمند Ruilai صحبت کردیم. Ruilai Wisdom در سال 2018 تأسیس شد و توسط مؤسسه تحقیقاتی هوش مصنوعی دانشگاه Tsinghua انکوبه شد.

چن پنگ به ما گفت که مردم عادی در شناسایی دیپ‌فیک به‌شدت شکست خورده‌اند و ضد دیپ‌فیک هنوز به هوش مصنوعی بستگی دارد.

یک عکس، چند ثانیه، Deepfake آسان تر و آسان تر می شود

دیپ فیک برای اولین بار در سال 2017 در Reddit ظاهر شد، "نسخه آمریکایی Tieba" به جای چهره افراد مشهور با شخصیت های فیلم های مستهجن یا جعل چهره های سیاسی است.

امروزه، شایعه پراکنی و درگیر شدن در پورنوگرافی هنوز از کاربردهای اصلی Deepfakes هستند، اما به تازگی ساده تر شده اند.

چن پنگ توضیح داد که جمع آوری یک عکس برای تغییر چهره کافی است البته هر چه داده های بیشتری جمع آوری شود، جزئیات صورت مانند خال ها و ویژگی های صورت بهتر مدل می شود و اثر تغییر چهره واقعی تر خواهد بود. .

در آوریل امسال پروژه پرفورمنس آرت دو هنرمند آلمانی یک نمونه زنده است.

آنها یک دوربین هوش مصنوعی NUCA طراحی کردند که بدنه دوربین دارای یک لنز با زاویه دید عریض داخلی 37 میلی متری است که در آنجا هوش مصنوعی لباس ها را از تن خارج می کند. در کمتر از 10 ثانیه "بیرون" شود.

NUCA در واقع نمی داند بدن برهنه شما چگونه به نظر می رسد، فقط جنسیت، صورت، سن، شکل بدن و غیره شما را تجزیه و تحلیل می کند تا بدن برهنه شما را در چشمان هوش مصنوعی نشان دهد.

خشن؟ شاید در عرض چند ثانیه، شما در معرض هوش مصنوعی قرار گرفته اید و ممکن است دیگران باور کنند که این شما هستید.

"Room N 2.0" کره جنوبی نیز با جزئیات مشابهی در معرض دید قرار گرفته است: یک اتاق گفتگوی تلگرام با 227000 نفر، یک ربات داخلی که عکس های زن را در عکس های برهنه ترکیب می کند و می تواند سینه ها را تنظیم کند و محتوای دیپ فیک را در 5 تا 7 ثانیه تولید می کند.

▲ اسکرین شات از اتاق چت، نحوه استفاده از Deepfake را توضیح می دهد

تغییر چهره و درآوردن لباس تنها یکی از کاربردهای Deepfake است.

استفاده از مدل‌های هوش مصنوعی (GAN، VAE، مدل انتشار، و غیره) برای ترکیب یا جعل محتوای واقعی، از جمله متن، تصاویر، صدا و ویدئو را می‌توان Deepfake نامید.

در میان آنها، دیپ فیک صوتی نیز بسیار رایج است.

در اوایل سال 2023، جوزف کاکس، خبرنگار فناوری، با خط تلفن خودکار بانک تماس گرفت، صدای هوش مصنوعی «صدای من رمز عبور من است» را که با ElevenLabs شبیه‌سازی کرد، پخش کرد و به‌طور غیرمنتظره‌ای از وی درخواست کرد تا تعادل را بررسی کند.

چن پنگ گفت که این تعجب آور نیست در گذشته، چندین دقیقه یا ده ها دقیقه طول می کشید تا اطلاعات چاپ صوتی ما ضبط شود، اما اکنون می توان آن را تقریباً در نیم دقیقه یا ده ها ثانیه ضبط کرد. اگر چند تماس آزاردهنده دیگر دریافت کنیم، ممکن است صدایمان درز کند.

البته، اگر می‌خواهید دقیق‌تر شبیه‌سازی کنید و لحن و دیگر سبک‌های گفتاری را کپی کنید، مانند اجازه دادن به Guo Degang به زبان انگلیسی متقاطع یا اجازه دادن به Swift به زبان چینی، همچنان به مجموعه بیشتری نیاز دارید.

حتی متن نیز حوزه ای است که عمیقاً جعلی است. متن تولید شده توسط هوش مصنوعی مدت‌هاست که در همه جا دیده می‌شود و وقتی دانش‌آموزان از آن برای تقلب و کنار آمدن با تکالیف استفاده می‌کنند، باعث سردرد معلمان می‌شود، اما ممکن است ما از خطرات پشت آن آگاه نباشیم.

اخبار نادرست و شایعات، بیشترین آسیب را در زمینه دیپ جعل متن دارند، چن پنگ گفت که در گذشته، انسان‌ها هنوز نیاز داشتند که این کپی را خودشان بنویسند، اما اکنون، هوش مصنوعی می‌تواند نظرات مختلفی را درباره یک رویداد خاص ایجاد کند و سپس به طور خودکار آنها را در رسانه‌های اجتماعی پست کند. .

به گفته چن پنگ، دیپ فیک سریعتر و ساده تر است.

اولاً، پیشرفت‌هایی در زمینه فناوری‌های هوش مصنوعی مانند Vincent Pictures و Vincent Videos وجود دارد.

نکته بسیار مهم دیگر این است که فناوری Deepfake به ابزارهای مختلفی با آستانه های پایین تر بهینه شده است.

به عنوان مثال، پروژه های متن باز زیادی برای Deepfake وجود دارد، مانند DeepFaceLive و Deep-Live-Cam در Github.

▲ پخش زنده AI Musk با استفاده از Deep-Live-Cam

اگر برای تازه‌کارانی که فناوری را درک نمی‌کنند، هنوز این کار دشوار است، حرفه‌ای‌هایی نیز هستند که برنج را مستقیماً در دهان خود قرار می‌دهند، مدل را کپسوله می‌کنند و آن را در نرم‌افزار ساده و کاربردی می‌نویسند تا بازیکنان بتوانند به صورت رایگان دانلود کنند. برخی از هزینه های تبلیغات را خود به دست آورید، از جمله بسیاری از برنامه های یک کلیک برای حذف.

در مورد دیپ فیک صوتی، در حال حاضر شرکت های تجاری بالغی وجود دارند که به کاربران اجازه می دهند به راحتی از خدمات در قالب SDK (کیت توسعه) یا API (رابط برنامه نویسی برنامه) استفاده کنند.

کاربران حتی به دستگاهی با کارت گرافیک برای اجرای برنامه نیاز ندارند، بلکه در عوض محتوایی مانند صدا را در وب سایت آپلود می کنند، منتظر می مانند تا نتایج تولید شود و سپس آنها را دانلود می کنند.

بنابراین، اصول فنی پیچیده در پشت صحنه پنهان شده است، و آنچه در مقابل کاربران است، رابط های "خارج از جعبه" هستند، حتی نوجوانان نیز می توانند اطلاعات نادرست ایجاد کنند.

به طور خلاصه، نتیجه گیری چن پنگ این است:

دیپ فیک به جایی رسیده است که افراد عادی به راحتی می توانند آن را دریافت کنند.

ممکن است انسان ها در شناسایی دیپ فیک با چشم غیرمسلح کاملاً شکست خورده باشند

وقتی یک فناوری «به خانه‌های مردم عادی پرواز می‌کند»، افرادی که بیشتر تحت تأثیر قرار می‌گیرند، افراد عادی هستند.

تقلب یکی از رایج‌ترین روش‌هایی است که دیپ‌فیک‌ها برای شرارت انجام می‌دهند.

در ابتدای سال جاری، شعبه هنگ کنگ یک شرکت چند ملیتی به دلیل هوش مصنوعی 25 میلیون دلار آمریکا کلاهبرداری کرد. قربانی در یک کنفرانس ویدیویی شرکت کرد و بقیه کلاهبردارانی بودند که تحت «تغییر چهره هوش مصنوعی» و «تغییر صدای هوش مصنوعی» قرار گرفته بودند.

▲ پلیس نحوه استفاده از Deepfake را برای جعل ویدئو کنفرانس چند نفره نشان داد

حالا که همه چیز به اینجا رسیده است، برای محافظت از خود چه کنیم؟

اگر شخصی از Deepfake برای فریب شما استفاده می کند، استفاده از حفره های هوش مصنوعی یکی از راه ها است، اما ماندگاری دارد.

به عنوان مثال، در حین تماس ویدیویی، اگر مشکوک باشیم که صورت طرف مقابل با هوش مصنوعی جایگزین شده است، می‌توانیم طرف مقابل را برای انجام اقدامات خاصی راهنمایی کنیم، مثلاً دستش را جلوی صورتش بگذاریم و چند بار تند تند بکشیم. یا به طور قابل توجهی سر خود را برگرداند.

اگر مدل پشت دست جایگزینی با هوش مصنوعی به‌طور خاص برای انسداد دست بهینه‌سازی نشده باشد، در معرض دید قرار می‌گیرد و ممکن است صورت در پشت دست ظاهر شود یا ممکن است ناگهان دچار اعوجاج شود.

اصل چرخاندن سر یکسان است اگر در مرحله جمع‌آوری داده‌ها، طرف مقابل عمداً مواد چرخش سر را بیشتر از 45 درجه جمع‌آوری نکند، تناسب صورت غیرطبیعی خواهد بود.

اما در آینده، چنین نقص هایی که با چشم غیر مسلح قابل مشاهده است، قطعاً به تدریج کاهش می یابد.

▲آزمون "عیب یابی" دانشگاه نورث وسترن: ایجاد شده توسط هوش مصنوعی یا واقعی؟

چن پنگ به شوخی گفت که اگر کلاهبرداران فکر می‌کنند که شما گوسفند چاقی هستید که منتظر سلاخی شدن هستید و عمداً می‌خواهند شما را فریب دهند، اطلاعات شبکه‌های اجتماعی شما را از بین ببرند و چندین روز را صرف بهینه‌سازی مدل خود کنند، پس این روش‌ها تضمینی برای مؤثر بودن ندارند.

اگر ویدیویی این ایرادات را نداشته باشد به این معنی است که یک ویدیو واقعی است؟ این درست نیست.
در مورد مؤثر بودن یا نبودن آن، قطعاً نمی تواند به طور کامل یا صد در صد مؤثر باشد، اما تا حدی مؤثر است.

به بیان حرفه ای تر، ادراک بصری انسان در سطح معنایی بسیار خوب عمل می کند، مانند اینکه می تواند به راحتی معنی اشیا یا صحنه ها را تشخیص دهد، اما وقتی صحبت از پردازش ظرایف سطح پایین در سطح پیکسل می شود، ادراک توانایی آن به خوبی مدل هوش مصنوعی نیست.

از این منظر، چن پنگ معتقد است که افراد عادی در تشخیص Deepfake به طرز بدی شکست خورده اند.

هیچ یک از ما لیوونهوک نیستیم و چشمانی تیزبین نداریم، اما طبیعت انسان بدون تغییر باقی می ماند. بنابراین، ما همچنین می‌توانیم خط دفاعی روان‌شناختی سنتی را که ربطی به فناوری ندارد، بالا بکشیم – هنگام قایقرانی مراقب باشید.

کلاهبرداری ها اغلب از همین الگو پیروی می کنند: سرقت حریم خصوصی، استفاده از ترس، حرص و ارزش احساسی برای ساختن داستان، تظاهر به آشنا بودن یا بسته بندی خود برای جلب اعتماد، و هدف نهایی پول است.

▲محصول RealBelieve RealBelieve هشدارهای اولیه را در طول تماس‌های ویدیویی صادر می‌کند.

این را در نظر داشته باشید، و سپس بیشتر مراقب باشید، روی پیوندهای ناآشنا کلیک نکنید، کدهای تأیید صحت را به صورت اتفاقی ندهید، سعی کنید بیش از حد چهره، صدا، اثر انگشت و سایر اطلاعات بیومتریک شخصی خود را در اینترنت فاش نکنید، تماس های تلفنی مشکوک را دریافت نکنید. و زمانی که نوبت به پول می رسد، راه هایی برای تأیید هویت یکدیگر داشته باشید، مانند پرسیدن چیزهایی که فقط یکدیگر می دانند.

به قول قدیمی ها، بهترین کار این است که به قلب حمله کنیم.

جادو در مقابل جادو، هوش مصنوعی هوش مصنوعی را شکست می دهد

افزایش آگاهی در مورد تقلب کافی نیست، حادثه "Room N 2.0" کره جنوبی، شکل دیگری از شر دیپ فیک را نشان می دهد. مردم در خانه نشسته اند و گلدان ها از بهشت ​​می آیند.

قربانیان عکس های برهنه جعلی ممکن است با "پورن انتقام جویانه" روبرو شوند – عاملان تهدید به پخش مطالب عمیق جعلی برای باج گیری و آزار قربانیان می کنند که باعث آسیب ثانویه جدی تر می شود.

اما این داس ممکن است بالای سر ما هم بلند شود: تصور کنید که باند کلاهبرداری عکس‌های شما را از ناکجاآباد گرفته‌اند، آن‌ها را در فیلم‌های مبتذل ترکیب کرده‌اند، پیام‌های متنی ارسال کرده‌اند تا شما را تهدید کنند و اگر پول را انتقال ندهید، فاش می‌شود. در سراسر اینترنت چگونه می توانید خود را ثابت کنید؟

Ruilai Wisdom، جایی که چن پنگ در آن کار می کند، واقعاً با این نوع تجارت شخصی مواجه شده است.

البته راه هایی وجود دارد: جادو در مقابل جادو، هوش مصنوعی بر هوش مصنوعی.

چن پنگ معرفی کرد که دو مسیر فنی اصلی برای جعل هوش مصنوعی وجود دارد: دفاع فعال و شناسایی غیرفعال.

بیایید ابتدا در مورد دفاع فعال صحبت کنیم وقتی عکس‌هایی را در رسانه‌های اجتماعی پست می‌کنیم و نمی‌خواهیم دیگران از آن‌ها استفاده کنند، می‌توانیم مقداری نویز بصری نامحسوس را در آنها جاسازی کنیم.

اگر شخص دیگری از عکس‌های ما برای آموزش مدل استفاده کند، هوش مصنوعی به دلیل این تداخل نامرئی نمی‌تواند نمایش تصویری را به خوبی استخراج کند و نتیجه نهایی ممکن است مخدوش یا تار شود. "

«واترمارک نیمه آسیب پذیر» یکی دیگر از روش های دفاع فعال است. پس از افزودن واترمارک، اگر شخص دیگری عکس ما را ویرایش کند، واترمارک از بین می‌رود و متوجه می‌شویم که تصویر پردازش شده و قابل اعتماد نیست.

واترمارک ها نمی توانند مستقیماً از عمیق بودن تصاویر جلوگیری کنند، اما می توانند صحت تصاویر را شناسایی و تأیید کنند.

▲کاوش های مشابهی در خارج از کشور وجود دارد که Adobe استاندارد C2PA را با استفاده از پارامترهای فراداده به عنوان راهی برای تعیین منبع تصاویر آغاز کرده است.

البته آستانه دفاع فعال بالاتر است، بنابراین باید قبل از وقوع آنها اقدامات احتیاطی را انجام دهیم و از قبل روی تصاویر پردازش کنیم.

یک موقعیت رایج تر این است که ما هیچ راهی برای پیش بینی آن نداریم. در این زمان باید از تشخیص غیرفعال استفاده شود.

Realai Intelligence دارای یک سری محصولات هوش مصنوعی است که مسئول تشخیص جعل هستند، از جمله پلتفرم تشخیص محتوای هوش مصنوعی مولد DeepReal، فایروال امنیتی AI چهره RealGuard و غیره.

▲DeapReal

به بیان ساده، استفاده از هوش مصنوعی برای شناسایی هوش مصنوعی به دو مرحله تقسیم می‌شود، ابتدا تعداد زیادی ویژگی جعل را استخراج کنید و سپس بر اساس این نمونه‌ها مدل‌سازی کنید تا به هوش مصنوعی اجازه دهید قوانین شناسایی جعل را بیاموزد.

رنگ‌های مخدوش، بافت‌های نامعقول، عبارات غیرطبیعی، صدا و تصویر غیرهمگام، شکل‌های نامنظم عنبیه، و نقاط برجسته متناقض این دو دانش‌آموز، همگی مواد آموزشی برای هوش مصنوعی هستند.

در این میان، دقت جعل ویدیو ممکن است بیشتر از تصاویر باشد، زیرا ویدیو از یک سری تصاویر پیوسته تشکیل شده است که اطلاعات بیشتری را ارائه می دهد که می تواند برای جعل استفاده شود تا یک تصویر واحد، مانند ظاهر یک کاراکتر بین تصاویر مختلف. فریم ها

در اصل، جعل هوش مصنوعی کمی شبیه استفاده از چشمان انسان برای یافتن عیوب است و همچنین از معایب خود مدل هوش مصنوعی سوء استفاده می کند.

▲ محققان آکادمی علوم چین مدل AI را برای تشخیص Deepfake در جهان ارائه کردند.

اما قطعاً نقص ها به تدریج بهبود خواهند یافت، بنابراین یک سوال بسیار مهم مطرح می شود: آیا ابتدا جعل و سپس احراز هویت وجود دارد؟ اگر چنین است، آیا جعل همیشه نیم قدم عقب تر از جعل نخواهد بود؟

چن پنگ پاسخ داد که فناوری تولید شده ممکن است کمی جلوتر از فناوری جعل باشد، اما آنها یک آزمایشگاه حمله و دفاع قرمز-آبی داخلی برای شبیه سازی Deepfake در حین دفاع در برابر Deepfake دارند و دائماً قابلیت های تشخیص Deepfake را بهبود می بخشند.

اگر هر فناوری جدید Deepfake منتشر شود، آنها می توانند به سرعت آن را بازتولید کنند و سپس آن را در محصول شناسایی تأیید کنند: "وقتی فناوری جدید منتشر شد، حتی اگر آن را ندیده باشم، هنوز هم می توانم آن را تا حدی شناسایی کنم."

علاوه بر این، خود مدل نیز دارای قابلیت تعمیم خاصی است که محتوای Deepfake زیادی را دیده است و در صورت مواجهه با موارد غیرقابل مشاهده، می تواند آن را به دقت شناسایی و شناسایی کند.

▲ پلتفرم هایی مانند Bilibili محتوای سرگرمی تغییر چهره با هوش مصنوعی را برچسب گذاری می کنند

به طور خلاصه، جعل و تشخیص تقلب با هوش مصنوعی یک «بازی موش و گربه» از رویارویی طولانی مدت و رقابت متقابل است.

به همین دلیل است که چن پنگ الگوریتم‌های جعل هوش مصنوعی را مطالعه کرده است:

Anti-Deepfake بیش از حد متضاد است و نیاز به سرمایه گذاری طولانی مدت دارد، برخلاف بسیاری از محصولات هوش مصنوعی، پس از اتمام آن می توانید آن را فراموش کنید.

با وجود این، او هنوز نسبتاً خوشبین است: "از قوانین و مقررات برای نظارت استفاده کنید، پلتفرم ها محتوا را مدیریت می کنند، صنعت فناوری و ابزار را ارائه می دهد و رسانه ها مردم را بیشتر از خطرات آگاه می کند. اگر حکمرانی چند وجهی به سطح معینی برسد، وجود خواهد داشت. قطعا تسهیل کننده است.»

در آینده، هنگام گشت و گذار در اینترنت، ممکن است در چنین سناریویی تا حدی پوچ قرار بگیریم: کد تأیید به شما امکان می دهد ثابت کنید "من یک انسان هستم" و Deepfake به شما امکان می دهد ثابت کنید "من من نیستم".

فناوری نمی‌تواند به طور کامل تمام اهداف مخرب را شناسایی کند، اما نیازی نیست که انسان‌ها خیلی مضطرب باشند.

همانطور که چن پنگ گفت، حتی یک محصول بسیار ساده هوش مصنوعی یک پروژه بسیار سیستماتیک است.

ما بخشی از یک سیستم بزرگتر هستیم، اجازه دهید مجروحان صحبت کنند، اجازه دهید که عاملان آن مجازات شوند، و اجازه دهید که مفهوم جامعه یک اینچ بهبود یابد استفاده منصفانه از آینده

مانند یخبندان پاییزی تیز است و می تواند بلایای بد را دفع کند. ایمیل کاری: [email protected]

# خوش آمدید به دنبال حساب عمومی رسمی ویچت aifaner: aifaner (شناسه WeChat: ifanr در اسرع وقت در اختیار شما قرار خواهد گرفت).

Ai Faner |. لینک اصلی · مشاهده نظرات · Sina Weibo