چرا اپل از قابلیت اسکن عکس خود عقب نشینی کرد؟

در اوت 2021 ، اپل برنامه های خود را برای اسکن آیفون ها برای مشاهده تصاویر سوء استفاده جنسی از کودکان فاش کرد. این اقدام با تشویق گروه های حامی کودکان مواجه شد اما نگرانی کارشناسان حریم خصوصی و امنیت را در مورد سوء استفاده از این ویژگی افزایش داد.

اپل در ابتدا قصد داشت فناوری اسکن مواد سوء استفاده جنسی از کودکان (CSAM) را در iOS 15 قرار دهد. در عوض ، عرضه این ویژگی را برای درخواست بازخورد قبل از انتشار کامل به طور نامحدود به تعویق انداخته است.

بنابراین چرا ویژگی تشخیص CSAM موضوع بحث داغی شد و چه چیزی باعث شد اپل عرضه خود را به تعویق بیندازد؟

ویژگی اسکن عکس اپل چه می کند؟

اپل اعلام کرد که به منظور مبارزه با سوء استفاده جنسی از کودکان ، قابلیت اسکن عکس را اجرا می کند. تمام عکس های موجود در دستگاه های کاربران اپل با استفاده از الگوریتم "NueralHash" که توسط اپل ایجاد شده است از نظر محتوای پدوفیلیک اسکن می شوند.

علاوه بر این ، هر دستگاه اپلی که توسط کودکان استفاده می شود دارای یک ویژگی ایمنی است که در صورت دریافت عکس توسط بزرگسالان به طور خودکار محو می شود و در صورت تلاش برای باز کردن آنها ، دوبار به کاربر هشدار داده می شود.

به غیر از به حداقل رساندن قرار گرفتن در معرض محتوای بزرگسالان ، اگر والدین دستگاه های متعلق به فرزندان خود را برای ایمنی بیشتر ثبت کنند ، در صورت دریافت محتوای صریح از کودک از طریق اینترنت ، به والدین اطلاع داده می شود.

بیشتر بخوانید: آنچه باید درباره حفاظت ایمنی کودکان اپل بدانید

در مورد بزرگسالان که از Siri برای جستجوی هر چیزی که کودکان را جنسی می کند استفاده می کنند ، Siri این جستجو را انجام نمی دهد و به جای آن جایگزین های دیگری پیشنهاد نمی کند.

داده های هر دستگاه حاوی 10 یا بیشتر عکس که توسط الگوریتم ها مشکوک تلقی می شوند ، رمزگشایی شده و مورد بازبینی انسانی قرار می گیرند.

اگر آن عکسها یا عکسهای دیگر موجود در دستگاه مطابقت داشته باشند با پایگاه داده ارائه شده توسط مرکز ملی کودکان مفقودالاثر و استثمار شده ، به مقامات گزارش شده و حساب کاربر به حالت تعلیق در می آید.

نگرانی های اصلی در مورد ویژگی اسکن عکس

ویژگی تشخیص CSAM با راه اندازی iOS 15 در سپتامبر 2021 فعال می شد ، اما در مواجهه با اعتراض گسترده ، اپل تصمیم گرفت زمان بیشتری را برای جمع آوری بازخورد و بهبود این ویژگی اختصاص دهد. در اینجا بیانیه کامل اپل در مورد تاخیر آمده است:

"ماه گذشته ما برنامه هایی را برای ویژگی هایی که به منظور محافظت از کودکان در برابر شکارچیانی که از ابزارهای ارتباطی برای به کارگیری و سوء استفاده از آنها استفاده می کنند و محدود کردن انتشار مواد سوء استفاده جنسی از کودکان استفاده می کنیم ، اعلام کردیم.

بر اساس بازخورد مشتریان ، گروه های حمایتی ، محققان و دیگران ، ما تصمیم گرفته ایم تا قبل از انتشار این ویژگی های بسیار مهم ایمنی کودک ، در ماه های آینده زمان بیشتری را برای جمع آوری اطلاعات و پیشرفت ها اختصاص دهیم. "

تقریبا نیمی از نگرانی های مربوط به قابلیت اسکن عکس اپل حول حریم خصوصی است. بقیه استدلال ها شامل نادرستی احتمالی الگوریتم ها و سوء استفاده احتمالی از سیستم یا حفره های آن است.

بیایید آن را به چهار قسمت تقسیم کنیم.

سوء استفاده احتمالی

آگاهی از این که هرگونه مطابقت با پورنوگرافی کودکان یا تصاویر شناخته شده از سوء استفاده جنسی از کودکان ، دستگاهی را در لیست "مشکوک" قرار می دهد ، می تواند مجرمان سایبری را به حرکت درآورد.

آنها می توانند عمداً شخصی را با محتوای نامناسب از طریق iMessage ، WhatsApp یا هر وسیله دیگری بمباران کنند و حساب آن شخص را به حالت تعلیق درآورند.

اپل اطمینان داده است که کاربران می توانند در صورت تعلیق حساب های خود به دلیل سوء تفاهم ، درخواست تجدیدنظر کنند.

سوء استفاده از خودی

اگرچه این دستگاه برای یک هدف خیرخواهانه طراحی شده است ، اما اگر دستگاه های آنها با یا بدون اطلاع آنها توسط خویشاوندان علاقمند به نظارت بر ارتباطات آنها در سیستم ثبت شوند ، می تواند به یک فاجعه کامل برای برخی افراد تبدیل شود.

حتی اگر چنین اتفاقی نیفتد ، اپل یک در پشتی ایجاد کرده است تا اطلاعات کاربران را در پایان روز در دسترس قرار دهد. اکنون موضوع انگیزه و عزم مردم است که به اطلاعات شخصی دیگران دسترسی پیدا کنند.

مطالب مرتبط: درب پشتی چیست و چه کاربردی دارد؟

این امر نه تنها نقض بزرگ حریم خصوصی را تسهیل می کند ، بلکه راه را برای بستگان ، سرپرستان ، دوستان ، عاشقان ، مراقبین و سابق متجاوز ، سمی یا تحت کنترل قرار می دهد تا به فضای شخصی افراد بیشتر حمله کرده یا آزادی آنها را محدود کند.

از یک سو ، هدف آن مبارزه با سوء استفاده جنسی از کودکان است. از سوی دیگر ، می توان از آن برای تداوم بیشتر انواع سوء استفاده کرد.

نظارت دولتی

اپل همیشه خود را به عنوان یک مارک که به حریم خصوصی احترام می گذارد بیشتر از رقبای خود معرفی می کند. اما در حال حاضر ، ممکن است در حال ورود به شیب لغزنده ای برای برآوردن خواسته های بی پایان شفافیت در داده های کاربران توسط دولت ها باشید .

سیستمی که برای تشخیص محتوای پدوفیلیک ایجاد کرده است می تواند برای تشخیص هر نوع محتوایی در تلفن ها استفاده شود. این بدان معناست که دولتهایی که دارای طرز فکر فرقه ای هستند می توانند کاربران را در صورت شخصی شدن تحت نظارت قرار دهند.

دخالت دولت در زندگی روزمره و شخصی شما سرکوبگر است یا خیر ، می تواند مضطرب کننده باشد و به حریم خصوصی شما تجاوز کند. این ایده که شما فقط باید در مورد چنین حملاتی نگران باشید در صورتی که کار اشتباهی انجام داده اید ، تفکر نادرست است و نمی تواند شیب لغزنده فوق را مشاهده کنید.

هشدارهای کاذب

یکی از بزرگترین نگرانی های استفاده از الگوریتم ها برای مطابقت تصاویر با پایگاه داده ، هشدارهای کاذب است. الگوریتم های هشینگ می توانند به اشتباه دو عکس را مطابقت دهند ، حتی اگر یکسان نباشند. این اشتباهات که "برخورد" نامیده می شود ، به ویژه در زمینه محتوای سوء استفاده جنسی از کودکان نگران کننده است.

پس از اینکه اپل اعلام کرد از الگوریتم اسکن تصاویر استفاده می کند ، محققان چندین برخورد را در "NeuralHash" پیدا کردند. اپل به سوالات مربوط به آلارم های کاذب پاسخ داد و اشاره کرد که نتیجه در پایان توسط یک انسان بررسی می شود ، بنابراین مردم نگران این موضوع نباشند.

آیا مکث CSAM اپل دائمی است؟

مزایا و معایب بسیاری از ویژگی پیشنهادی اپل وجود دارد. هر یک از آنها اصلی هستند و وزن خود را حفظ می کنند. هنوز مشخص نیست اپل چه تغییرات خاصی را می تواند در ویژگی اسکن CSAM برای جلب رضایت منتقدان خود ایجاد کند.

این می تواند به جای درگیر کردن دستگاه های کاربران ، اسکن را به آلبوم های مشترک iCloud محدود کند. بسیار بعید است که اپل این برنامه ها را به کلی کنار بگذارد ، زیرا این شرکت معمولاً تمایلی به تسلیم شدن در برنامه های خود ندارد.

با این حال ، از واکنش گسترده و متوقف ماندن برنامه های اپل ، مشخص است که شرکت ها باید از ابتدا جامعه تحقیقاتی را به ویژه برای یک فناوری آزمایش نشده ، در بر بگیرند.