با عکس گرفتن و چت کردن، چرا کسی فکر می کند که من قصد دارم مرتکب جنایت شوم؟

آثار سینمایی و تلویزیونی مانند «گزارش اقلیت» و «ردیابی مشکوک» ممکن است تنها در چند سال گذشته ظاهر شوند. اگر یک اثر سینمایی و تلویزیونی در سال های اخیر باشد، مخاطب بسیار «معروف» می شود.

پیشگیری از جرم، مدل های پیش بینی، استفاده از سیستم برای حدس و گمان در مورد آنچه اتفاق نیفتاده است … این بدان معنی است که اطلاعات زیادی جمع آوری می شود و همچنین به این معنی است که شما توسط یک سیستم ناشناخته قضاوت خواهید شد که آیا تهدیدی وجود دارد یا خیر. احساس سپردن سرنوشت به ناشناخته ها، احتمالاً بسیاری از مردم آن را دوست ندارند.

اما ممکن است راهی برای دوست نداشتن آن وجود نداشته باشد، زیرا قبل از اینکه متوجه شوید، شرکت های بیشتری در حال جمع آوری اطلاعات عمومی شما هستند تا احتمال جرم شما را از روی محتوای روزانه شبکه اجتماعی شما قضاوت کنند.

▲ تصویر از: "گزارش اقلیت"

رسانه های اجتماعی به بزرگترین افشاگر تبدیل شده اند. آیا این یک گزارش خود است؟

Voyager، Kaseware، Aura، PredPol، Palantir که برخی از شرکت‌هایی هستند که از طریق شبکه‌های اجتماعی سعی در شناسایی تهدیدات احتمالی دارند، بخش بزرگی از آنها نیز با اداره پلیس محلی همکاری می‌کنند و در خط مقدم پیش‌بینی جرم قرار دارند.

به دست آوردن اطلاعات مورد نیاز از شبکه های اجتماعی همه، هسته اصلی این نوع شرکت ها است، آنها از محتوای ارسال شده توسط کاربران در شبکه های اجتماعی برای تخمین احتمال ارتکاب جرم توسط طرف مقابل استفاده می کنند. الگوریتم‌های این شرکت‌ها یکسان نیست، اما آنها اساساً از هوش مصنوعی برای رمزگشایی خط کاربر استفاده می‌کنند و از روی محتوای به اشتراک‌گذاشته‌شده توسط کاربر قضاوت می‌کنند که آیا فرد مرتکب جرمی شده است، ممکن است مرتکب جرم شود یا به یک خطر خطرناک خاص پایبند است. ایدئولوژی

▲ صفحه وب سایت رسمی Kaseware

این در واقع تحول جدیدی نیست، بالاخره در سال 2012، برخی افراد شبکه های اجتماعی را به "نبض شهر" تبدیل کردند. دیدن یک فضا و محصولی که بتواند همزمان تعداد زیادی کاربر را در خود جای دهد و آنها را مایل به اشتراک گذاری همه چیز درباره خودشان کند، سخت است.

ویژگی های شبکه های اجتماعی شرایطی را برای افراد ایجاد می کند تا اهداف را پیدا کنند.دانش آموزان در شبکه های اجتماعی به دنبال مصاحبه شوندگان می گردند، آژانس های آماری نتایج انتخابات را در شبکه های اجتماعی پیش بینی می کنند و کارآگاهان هوش مصنوعی می خواهند مجرمان را در شبکه های اجتماعی پیدا کنند.

از آنجایی که همه از شبکه های اجتماعی استفاده می کنند، شبکه های اجتماعی اغلب می توانند وضعیت واقعی یک فرد را منعکس کنند. نماینده تایرون کارتر از ایالت میشیگان آمریکا معتقد است که جستجوی پلیس در شبکه های اجتماعی عمومی هیچ قانونی را نقض نکرده و حقوق کاربران را نقض نکرده است، بنابراین این پیش بینی امکان پذیر است.

لحظه ای که روی ارسال در صفحه عمومی کلیک کنید، پست دیگر متعلق به شما نیست. مردم به خاطر مطالبی که پست می‌کنند دچار مشکل می‌شوند، زیرا رسانه‌های اجتماعی بزرگ‌ترین «خودآگاه‌دهنده» هستند که من تا به حال دیده‌ام.

▲تصویر از: Lifehacker

اما راز زمانی آشکار می شود که هدایت شود. آزمایشگاه های وویجر که با اداره پلیس لس آنجلس همکاری می کرد، نقش رهبر را در این فرآیند ایفا کرد. فقط سازمان غیرانتفاعی Brennan Center از طریق اطلاعات عمومی ارائه شده توسط اداره پلیس لس آنجلس کشف کرد که کار وویجر نیز مشکوک به تبعیض نژادی و نقض حریم خصوصی است.

نحوه کار شرکت هایی مانند وویجر پیچیده نیست. تمام اطلاعات عمومی در رسانه های اجتماعی یک فرد، از جمله پست ها، مخاطبین و حتی ایموجی های رایج را جمع آوری می کند. در برخی موارد خاص، از اطلاعات عمومی و اطلاعات غیر عمومی برای ارجاع متقابل برای تجزیه و تحلیل و نمایه سازی بیشتر استفاده می کند.

▲ وویجر بر اساس موضوعات مشارکت شخصی در رسانه های اجتماعی قضاوت خواهد کرد

از طریق سرویس Voyager، پلیس می تواند به وضوح روابط اجتماعی افراد را ببیند. ارتباطات آنها چگونه است و چگونه در بسترهای اجتماعی تعامل دارند. علاوه بر این، Voyager حتی می‌تواند تشخیص دهد که آیا یک ارتباط غیرمستقیم بین دو کاربر وجود دارد (هر دو حداقل چهار دوست یکسان دارند).

به نظر می رسد فقط به آنچه کاربران در شبکه های اجتماعی انجام می دهند نگاه می کند که به عنوان اطلاعات تکمیلی برای نظرسنجی ها استفاده می شود. اما در واقع وویجر نه تنها اطلاعات را جمع آوری و نمایش می دهد، بلکه قضاوت هم می کند.

▲ وویجر از طریق زنجیره روابط شبکه های اجتماعی قضاوت و پیش بینی می کند

وویجر در کاغذ سفیدی که به اداره پلیس لس آنجلس ارسال کرده است، به یک مورد حمله اشاره کرده است. این پرونده به طور خاص رویکرد پلتفرم را نشان می دهد – هوش مصنوعی به طور خودکار محتوای پست های افراد در شبکه های اجتماعی را بدون دخالت انسان بررسی می کند. و طبقه بندی (به ترتیب کاربر را در سه علامت گذاری کنید. رنگ های آبی، نارنجی و قرمز).

در یک مورد خاص، آدام الصاهلی، مظنون تیراندازی، به دلیل عکس‌های با مضمون اسلامی که در فیس‌بوک و اینستاگرام منتشر کرده بود، توسط سیستم به عنوان «احساس غرور و همذات پنداری قوی با سنت‌های عربی» مورد قضاوت قرار گرفت. بنابراین، قبل از انجام یک حمله خاص، آدام الصاحلی توسط ابزار هوش مصنوعی Voyager با رنگ نارنجی مشخص شد.

این می تواند موردی برای پیش بینی موفقیت آمیز مجرمان احتمالی باشد، اما همچنین پرونده ای پر از "تعصب".

▲ اطلاعات شبکه های اجتماعی آدم الشاهلی مظنون تیراندازی قبل از ارتکاب جنایت با رنگ نارنجی مشخص شده است.

داده ها جرم را پیش بینی می کنند؟ اما داده ها را نمی توان به طور کامل باور کرد

آیا این نتایج واقعاً معتبر هستند؟ بر چه اساسی قضاوت می کنند؟ چگونه همه می توانند بی گناهی خود را تحت کلان داده ثابت کنند؟

در واقع داده‌های زیادی وجود دارد که همبستگی بین سوگیری محتوای شبکه‌های اجتماعی و حقایق جرم را تأیید می‌کند، اما این یک داده همبستگی 100٪ نیست.

دانشکده مهندسی تاندون دانشگاه نیویورک و دانشکده بهداشت جهانی و بهداشت عمومی نتایج تحقیقاتی را منتشر کردند که نشان می‌دهد شهرهایی که سخنان نفرت‌انگیز نژادی بیشتری در توییتر دارند، نرخ جرم و جنایت بالاتری دارند؛ مطالعات در فنلاند همچنین نشان می‌دهد که بر اساس داده‌های دو دهه، برای هر 1 درجه سانتی گراد افزایش دما، فعالیت مجرمانه 1.7 درصد افزایش می یابد؛ مطالعات آمریکایی نشان داده است که میزان سرقت وسایل نقلیه در شب های آخر هفته به شدت افزایش می یابد؛ و ثابت شده است که وقتی تیم فوتبال محلی به طور تصادفی ضرر می کند، حوادث خشونت خانگی باعث می شود. 10 درصد افزایش یابد.

▲ هوش مصنوعی نمی تواند با دقت 100٪ حکم صادر کند

اما اینها نمی توانند چیزی را ثابت کنند، زیرا احتمال و واقعیت متفاوت است.

حتی با تأیید داده‌های مربوطه، نمی‌توان ثابت کرد که در شهرهایی که بیشترین سخنان نفرت نژادی را دارند، وسایل نقلیه باید در تعطیلات آخر هفته تابستان دزدیده شوند. در هوای گرم، زمانی که تیم خانگی محلی صددرصد ضرر می‌کند، موارد خشونت خانگی بیشتری رخ می‌دهد.

سیستم‌های پیش‌بینی جرم مشابه بر اساس حقایق جرم و نتایج تحقیقات موجود معکوس می‌شوند. مشکل دیگری که این امر ایجاد می‌کند این است که پر از «کلیشه‌ها» است.

یانگ لیکون، برنده جایزه تورینگ، زمانی گفت که وقتی داده‌ها سوگیری دارند، سیستم‌های یادگیری ماشینی سوگیری می‌کنند. در یک مورد، زمانی که اطلاعات دریافت شده توسط یادگیری ماشینی این است که کاربران مرد سیاه‌پوست در زندان سهم زیادی را تشکیل می‌دهند، چنین سیستمی ممکن است قضاوت کند که مردان سیاه‌پوست بیشتر احتمال دارد مرتکب جرم شوند.

▲ یانگ لیکون گفت که تعصب سیستم‌های یادگیری ماشینی از مردم ناشی می‌شود

برای یادگیری ماشینی، "مردان سیاه پوست بیشتر احتمال دارد مرتکب جنایت شوند" ممکن است یک واقعیت تجزیه و تحلیل داده ها باشد، اما در واقعیت این یک تعصب نژادی و رفتار متفاوت خواهد بود.

رتبه بندی مخفیانه کاربران، تقسیم بندی اینکه کدام یک از آنها بیشتر تهدید می شود، و ردیابی و جلوگیری از کسانی که با دقت بیشتری تهدید می شوند، منطق عملیاتی کل سیستم است.

استارت آپ های مشابه از الگوریتم ها و هوش مصنوعی برای توضیح فرآیند پردازش و تجزیه و تحلیل اطلاعات برای تصمیم گیری استفاده می کنند. اگرچه در حال حاضر هیچ مدرکی برای اثبات موثر بودن این پیش بینی وجود ندارد و تردیدهای زیادی از سوی مردم وجود دارد، اما اداره پلیس همچنان می خواهد با پلتفرم های مشابه همکاری کند.

▲ برای پلیس، سرویس پیش بینی پلت فرم بسیار ارزشمند است

برای پلیس، این نوع ابزار بسیار جذاب است، کشف پلتفرم هایی مانند Voyager در شبکه های اجتماعی می تواند بدون از دست دادن سرنخ های ظریف آنلاین، کمک موثری در نمایه سازی کاربر ارائه دهد. اگر فقط یک بررسی کمکی باشد، این یک ابزار بسیار مؤثر خواهد بود. با این حال، زمانی که ابزار به مرحله بعدی توسعه یابد و شروع به ایفای نقش در پیش بینی جرم کند، به سلاحی برای زخمی شدن نیز تبدیل خواهد شد.

پس از شور و شوق سال های گذشته تامین مالی، بسیاری از محصولات هوش مصنوعی وارد مرحله اپلیکیشن شده اند. اما در برخی زمینه ها همچنان نقش کمکی را ایفا می کنند.

مراقبت های پزشکی حوزه ای است که در مورد مداخله هوش مصنوعی محتاط است. حتی در پیشرفته ترین زمینه تصویربرداری پزشکی هوش مصنوعی، فناوری هوش مصنوعی امروزی هنوز نمی تواند دقت 100٪ را تضمین کند و نیاز به مداخله پزشکان انسانی دارد. زیرا همه می دانند که مراقبت های پزشکی صنعتی است که نیاز به دقت نزدیک به 100 درصد دارد، هر گونه انحراف یا خطا ممکن است عواقب جدی ایجاد کند.

▲ در این مرحله، ممکن است به پلیس انسانی بیشتر نیاز داشته باشیم

حوزه پلیسی نیز حوزه ای است که در صد در صد صحیح بودن آن تلاش می کند و هرگونه حدس و استنباط نیز بدون پشتوانه شواهد می تواند عواقب جدی به همراه داشته باشد. فردی که در شبکه های اجتماعی اظهارات مختلف تبعیض آمیز و خشونت آمیز را منتشر می کند ممکن است به عنوان مجرم بالقوه مشخص شود، 90 درصد احتمال ارتکاب جرم خشن وجود دارد اما قبل از اینکه عملاً جرمی را مرتکب شود، یک فرد عادی است.

در مجموعه داده های کلی، ما هرگز نمی توانیم نادیده بگیریم که هر کس یک فرد مستقل است.

نه خیلی جالب، نه خیلی خوشبینانه.

#به دنبال کردن حساب رسمی وی چت Aifaner خوش آمدید: Aifaner (شناسه WeChat: ifanr)، در اسرع وقت محتوای هیجان انگیزتری در اختیار شما قرار خواهد گرفت.

Ai Faner | لینک اصلی · مشاهده نظرات · Sina Weibo