آثار سینمایی و تلویزیونی مانند «گزارش اقلیت» و «ردیابی مشکوک» ممکن است تنها در چند سال گذشته ظاهر شوند. اگر یک اثر سینمایی و تلویزیونی در سال های اخیر باشد، مخاطب بسیار «معروف» می شود.
پیشگیری از جرم، مدل های پیش بینی، استفاده از سیستم برای حدس و گمان در مورد آنچه اتفاق نیفتاده است … این بدان معنی است که اطلاعات زیادی جمع آوری می شود و همچنین به این معنی است که شما توسط یک سیستم ناشناخته قضاوت خواهید شد که آیا تهدیدی وجود دارد یا خیر. احساس سپردن سرنوشت به ناشناخته ها، احتمالاً بسیاری از مردم آن را دوست ندارند.
اما ممکن است راهی برای دوست نداشتن آن وجود نداشته باشد، زیرا قبل از اینکه متوجه شوید، شرکت های بیشتری در حال جمع آوری اطلاعات عمومی شما هستند تا احتمال جرم شما را از روی محتوای روزانه شبکه اجتماعی شما قضاوت کنند.
▲ تصویر از: "گزارش اقلیت"
رسانه های اجتماعی به بزرگترین افشاگر تبدیل شده اند. آیا این یک گزارش خود است؟
Voyager، Kaseware، Aura، PredPol، Palantir که برخی از شرکتهایی هستند که از طریق شبکههای اجتماعی سعی در شناسایی تهدیدات احتمالی دارند، بخش بزرگی از آنها نیز با اداره پلیس محلی همکاری میکنند و در خط مقدم پیشبینی جرم قرار دارند.
به دست آوردن اطلاعات مورد نیاز از شبکه های اجتماعی همه، هسته اصلی این نوع شرکت ها است، آنها از محتوای ارسال شده توسط کاربران در شبکه های اجتماعی برای تخمین احتمال ارتکاب جنایت توسط طرف مقابل استفاده می کنند. الگوریتمهای این شرکتها یکسان نیست، اما آنها اساساً از هوش مصنوعی برای رمزگشایی خط کاربر استفاده میکنند و از روی محتوای به اشتراکگذاشتهشده توسط کاربر قضاوت میکنند که آیا فرد مرتکب جرمی شده است، ممکن است مرتکب جرم شود یا به یک خطر خطرناک خاص پایبند است. ایدئولوژی
▲ صفحه وب سایت رسمی Kaseware
این در واقع تحول جدیدی نیست، بالاخره در سال 2012، برخی افراد شبکه های اجتماعی را به "نبض شهر" تبدیل کردند. دیدن یک فضا و محصولی که بتواند همزمان تعداد زیادی کاربر را در خود جای دهد و آنها را مایل به اشتراک گذاری همه چیز درباره خودشان کند، سخت است.
ویژگی های شبکه های اجتماعی شرایطی را برای افراد ایجاد می کند تا اهداف را پیدا کنند.دانش آموزان در شبکه های اجتماعی به دنبال مصاحبه شوندگان می گردند، آژانس های آماری نتایج انتخابات را در شبکه های اجتماعی پیش بینی می کنند و کارآگاهان هوش مصنوعی می خواهند مجرمان را در شبکه های اجتماعی پیدا کنند.
از آنجایی که همه از شبکه های اجتماعی استفاده می کنند، شبکه های اجتماعی اغلب می توانند وضعیت واقعی یک فرد را منعکس کنند. تایرون کارتر نماینده ایالت میشیگان ایالات متحده معتقد است که جستجوی پلیس در شبکه های اجتماعی عمومی هیچ قانونی را نقض نکرده و حقوق کاربران را نقض نکرده است، بنابراین این پیش بینی قابل اجرا است.
لحظه ای که روی ارسال در صفحه عمومی کلیک کنید، پست دیگر متعلق به شما نیست. مردم به خاطر مطالبی که پست میکنند دچار مشکل میشوند، زیرا رسانههای اجتماعی بزرگترین «خودآگاهدهنده» هستند که من تا به حال دیدهام.
▲تصویر از: Lifehacker
اما راز زمانی آشکار می شود که هدایت شود. آزمایشگاه های وویجر که با اداره پلیس لس آنجلس همکاری می کرد، نقش رهبر را در این فرآیند ایفا کرد. فقط سازمان غیرانتفاعی Brennan Center از طریق اطلاعات عمومی ارائه شده توسط اداره پلیس لس آنجلس کشف کرد که کار وویجر نیز مشکوک به تبعیض نژادی و نقض حریم خصوصی است.
نحوه کار شرکت هایی مانند وویجر پیچیده نیست. تمام اطلاعات عمومی در رسانه های اجتماعی یک فرد، از جمله پست ها، مخاطبین و حتی ایموجی های رایج را جمع آوری می کند. در برخی موارد خاص، از اطلاعات عمومی و اطلاعات غیر عمومی برای ارجاع متقابل برای تجزیه و تحلیل و نمایه سازی بیشتر استفاده می کند.
▲ وویجر بر اساس موضوعات مشارکت شخصی در رسانه های اجتماعی قضاوت خواهد کرد
از طریق سرویس Voyager، پلیس می تواند به وضوح روابط اجتماعی افراد را ببیند. ارتباطات آنها چگونه است و چگونه در بسترهای اجتماعی تعامل دارند. علاوه بر این، Voyager حتی میتواند تشخیص دهد که آیا یک ارتباط غیرمستقیم بین دو کاربر وجود دارد (هر دو حداقل چهار دوست یکسان دارند).
به نظر می رسد فقط به آنچه کاربران در شبکه های اجتماعی انجام می دهند نگاه می کند که به عنوان اطلاعات تکمیلی برای نظرسنجی ها استفاده می شود. اما در واقع وویجر نه تنها اطلاعات را جمع آوری و نمایش می دهد، بلکه قضاوت هم می کند.
▲ وویجر از طریق زنجیره روابط شبکه های اجتماعی قضاوت و پیش بینی می کند
وویجر در کاغذ سفیدی که به اداره پلیس لس آنجلس ارسال کرده است، به یک مورد حمله اشاره کرده است. این پرونده به طور خاص رویکرد پلتفرم را نشان می دهد – هوش مصنوعی به طور خودکار محتوای پست های افراد در شبکه های اجتماعی را بدون دخالت انسان بررسی می کند. و طبقه بندی (به ترتیب کاربر را در سه علامت گذاری کنید. رنگ های آبی، نارنجی و قرمز).
در یک مورد خاص، آدام الصاهلی، مظنون تیراندازی، به دلیل عکسهای با مضمون اسلامی که در فیسبوک و اینستاگرام منتشر کرده بود، توسط سیستم به عنوان «احساس غرور و همذات پنداری قوی با سنتهای عربی» مورد قضاوت قرار گرفت. بنابراین، قبل از انجام یک حمله خاص، آدام الصاحلی توسط ابزار هوش مصنوعی Voyager با رنگ نارنجی مشخص شد.
این می تواند موردی برای پیش بینی موفقیت آمیز مجرمان احتمالی باشد، اما همچنین پرونده ای پر از "تعصب".
▲ اطلاعات شبکه های اجتماعی آدم الشاهلی مظنون تیراندازی قبل از ارتکاب جنایت با رنگ نارنجی مشخص شده است.
داده ها جرم را پیش بینی می کنند؟ اما داده ها را نمی توان به طور کامل باور کرد
آیا این نتایج واقعاً معتبر هستند؟ بر چه اساسی قضاوت می کنند؟ چگونه همه می توانند بی گناهی خود را تحت کلان داده ثابت کنند؟
در واقع دادههای زیادی وجود دارد که همبستگی بین سوگیری محتوایی شبکههای اجتماعی و حقایق جرم را تأیید میکند، اما این یک داده همبستگی 100٪ نیست.
دانشکده مهندسی تاندن دانشگاه نیویورک و دانشکده بهداشت جهانی و بهداشت عمومی نتایج تحقیقاتی را منتشر کردند که نشان میدهد شهرهایی که سخنان نفرتانگیز نژادی بیشتری در توییتر دارند، نرخ جرم و جنایت بالاتری دارند؛ مطالعات در فنلاند همچنین نشان میدهد که براساس دادههای دو دهه، برای هر 1 درجه سانتی گراد افزایش دما، فعالیت مجرمانه 1.7 درصد افزایش می یابد؛ تحقیقات آمریکایی نشان داده است که میزان سرقت وسایل نقلیه در شب های آخر هفته به شدت افزایش می یابد؛ همچنین ثابت شده است که وقتی تیم فوتبال محلی به طور تصادفی ضرر می کند، خشونت خانگی افزایش می یابد. با 10 درصد
▲ هوش مصنوعی نمی تواند با دقت 100٪ حکم صادر کند
اما اینها نمی توانند چیزی را ثابت کنند، زیرا احتمال و واقعیت متفاوت است.
حتی با تأیید دادههای مربوطه، نمیتوان ثابت کرد که در شهرهایی که بیشترین سخنان نفرت نژادی را دارند، وسایل نقلیه باید در تعطیلات آخر هفته تابستان دزدیده شوند. در هوای گرم، زمانی که تیم خانه محلی ۱۰۰ درصد ضرر میکند، موارد خشونت خانگی بیشتری رخ میدهد.
سیستمهای پیشبینی جرم مشابه بر اساس حقایق جرم و نتایج تحقیقات موجود معکوس میشوند. مشکل دیگری که این امر ایجاد میکند این است که پر از «کلیشهها» است.
یانگ لیکون، برنده جایزه تورینگ، زمانی گفت که وقتی دادهها سوگیری دارند، سیستمهای یادگیری ماشینی سوگیری میکنند. در یک مورد، زمانی که اطلاعات دریافت شده توسط یادگیری ماشینی این است که کاربران مرد سیاهپوست در زندان سهم زیادی دارند، چنین سیستمی ممکن است قضاوت کند که احتمال ارتکاب جنایت مردان سیاهپوست بیشتر است.
▲ یانگ لیکون گفت که تعصب سیستمهای یادگیری ماشینی از مردم ناشی میشود
برای یادگیری ماشینی، "مردان سیاه پوست بیشتر احتمال دارد مرتکب جنایت شوند" ممکن است یک واقعیت تجزیه و تحلیل داده ها باشد، اما در واقعیت این یک تعصب نژادی و رفتار متفاوت خواهد بود.
رتبهبندی مخفیانه کاربران، تقسیمبندی اینکه کدام یک از آنها بیشتر تهدید میشوند، و ردیابی و جلوگیری از کسانی که با دقت بیشتری تهدید میشوند، منطق عملیاتی کل سیستم است.
استارت آپ های مشابه از الگوریتم ها و هوش مصنوعی برای توضیح فرآیند پردازش و تجزیه و تحلیل اطلاعات برای تصمیم گیری استفاده می کنند. اگرچه در حال حاضر هیچ مدرکی برای اثبات موثر بودن این پیش بینی وجود ندارد و تردیدهای زیادی از سوی مردم وجود دارد، اما اداره پلیس همچنان می خواهد با پلتفرم های مشابه همکاری کند.
▲ برای پلیس، سرویس پیش بینی پلت فرم بسیار ارزشمند است
برای پلیس، این نوع ابزار بسیار جذاب است.کشف پلتفرم هایی مانند Voyager در شبکه های اجتماعی می تواند بدون از دست دادن سرنخ های ظریف آنلاین، کمک موثری در نمایه سازی کاربر ارائه دهد. اگر فقط یک بررسی کمکی باشد، این یک ابزار بسیار مؤثر خواهد بود. با این حال، زمانی که ابزار به مرحله بعدی توسعه یابد و شروع به ایفای نقش در پیش بینی جرم کند، به سلاحی برای زخمی شدن نیز تبدیل خواهد شد.
پس از شور و شوق سال های گذشته تامین مالی، بسیاری از محصولات هوش مصنوعی وارد مرحله اپلیکیشن شده اند. اما در برخی زمینه ها همچنان نقش کمکی دارند.
مراقبت های پزشکی حوزه ای است که در مورد مداخله هوش مصنوعی محتاط است. حتی در پیشرفته ترین زمینه تصویربرداری پزشکی هوش مصنوعی، فناوری هوش مصنوعی امروزی هنوز نمی تواند دقت 100٪ را تضمین کند و نیاز به مداخله پزشکان انسانی دارد. زیرا همه می دانند که مراقبت های پزشکی صنعتی است که نیاز به دقت نزدیک به 100 درصد دارد، هر گونه انحراف یا خطا ممکن است عواقب جدی ایجاد کند.
▲ در این مرحله، ممکن است به پلیس انسانی بیشتر نیاز داشته باشیم
حوزه پلیسی نیز حوزه ای است که صد در صد در صدد درستی آن است و هرگونه حدس و استنباط بدون پشتوانه شواهد نیز عواقب جدی در پی خواهد داشت. فردی که اظهارات تبعیض آمیز و خشونت آمیز مختلفی را در شبکه های اجتماعی منتشر می کند، ممکن است به عنوان یک مجرم بالقوه با 90 درصد احتمال ارتکاب جرم خشونت آمیز مشخص شود، اما قبل از اینکه واقعاً مرتکب جرم شود، یک فرد عادی است.
در مجموعه داده های کلی، ما هرگز نمی توانیم نادیده بگیریم که هر کس یک فرد مستقل است.
#به دنبال کردن حساب رسمی وی چت Aifaner خوش آمدید: Aifaner (شناسه WeChat: ifanr)، در اسرع وقت مطالب هیجان انگیزتری در اختیار شما قرار خواهد گرفت.