آثار سینمایی و تلویزیونی مانند «گزارش اقلیت» و «ردیابی مشکوک» ممکن است تنها در چند سال گذشته ظاهر شوند. اگر یک اثر سینمایی و تلویزیونی در سال های اخیر باشد، مخاطب بسیار «معروف» می شود.
پیشگیری از جرم، مدل های پیش بینی، استفاده از سیستم برای حدس و گمان در مورد آنچه اتفاق نیفتاده است … این بدان معنی است که اطلاعات زیادی جمع آوری می شود و همچنین به این معنی است که شما توسط یک سیستم ناشناخته قضاوت خواهید شد که آیا تهدیدی وجود دارد یا خیر. احساس سپردن سرنوشت به ناشناخته ها، احتمالاً بسیاری از مردم آن را دوست ندارند.
اما ممکن است راهی برای دوست نداشتن آن وجود نداشته باشد، زیرا قبل از اینکه متوجه شوید، شرکت های بیشتری در حال جمع آوری اطلاعات عمومی شما هستند تا احتمال جرم شما را از روی محتوای روزانه شبکه اجتماعی شما قضاوت کنند.
▲ تصویر از: "گزارش اقلیت"
رسانه های اجتماعی به بزرگترین افشاگر تبدیل شده اند. آیا این یک گزارش خود است؟
Voyager، Kaseware، Aura، PredPol، Palantir که برخی از شرکتهایی هستند که از طریق شبکههای اجتماعی سعی در شناسایی تهدیدات احتمالی دارند، بخش بزرگی از آنها نیز با اداره پلیس محلی همکاری میکنند و در خط مقدم پیشبینی جرم قرار دارند.
به دست آوردن اطلاعات مورد نیاز از شبکه های اجتماعی همه، هسته اصلی این نوع شرکت ها است، آنها از محتوای ارسال شده توسط کاربران در شبکه های اجتماعی برای تخمین احتمال ارتکاب جرم توسط طرف مقابل استفاده می کنند. الگوریتمهای این شرکتها یکسان نیست، اما آنها اساساً از هوش مصنوعی برای رمزگشایی خط کاربر استفاده میکنند و از روی محتوای به اشتراکگذاشتهشده توسط کاربر قضاوت میکنند که آیا فرد مرتکب جرمی شده است، ممکن است مرتکب جرم شود یا به یک خطر خطرناک خاص پایبند است. ایدئولوژی
▲ صفحه وب سایت رسمی Kaseware
این در واقع تحول جدیدی نیست، بالاخره در سال 2012، برخی افراد شبکه های اجتماعی را به "نبض شهر" تبدیل کردند. دیدن یک فضا و محصولی که بتواند همزمان تعداد زیادی کاربر را در خود جای دهد و آنها را مایل به اشتراک گذاری همه چیز درباره خودشان کند، سخت است.
ویژگی های شبکه های اجتماعی شرایطی را برای افراد ایجاد می کند تا اهداف را پیدا کنند.دانش آموزان در شبکه های اجتماعی به دنبال مصاحبه شوندگان می گردند، آژانس های آماری نتایج انتخابات را در شبکه های اجتماعی پیش بینی می کنند و کارآگاهان هوش مصنوعی می خواهند مجرمان را در شبکه های اجتماعی پیدا کنند.
از آنجایی که همه از شبکه های اجتماعی استفاده می کنند، شبکه های اجتماعی اغلب می توانند وضعیت واقعی یک فرد را منعکس کنند. نماینده تایرون کارتر از ایالت میشیگان آمریکا معتقد است که جستجوی پلیس در شبکه های اجتماعی عمومی هیچ قانونی را نقض نکرده و حقوق کاربران را نقض نکرده است، بنابراین این پیش بینی امکان پذیر است.
لحظه ای که روی ارسال در صفحه عمومی کلیک کنید، پست دیگر متعلق به شما نیست. مردم به خاطر مطالبی که پست میکنند دچار مشکل میشوند، زیرا رسانههای اجتماعی بزرگترین «خودآگاهدهنده» هستند که من تا به حال دیدهام.
▲تصویر از: Lifehacker
اما راز زمانی آشکار می شود که هدایت شود. آزمایشگاه های وویجر که با اداره پلیس لس آنجلس همکاری می کرد، نقش رهبر را در این فرآیند ایفا کرد. فقط سازمان غیرانتفاعی Brennan Center از طریق اطلاعات عمومی ارائه شده توسط اداره پلیس لس آنجلس کشف کرد که کار وویجر نیز مشکوک به تبعیض نژادی و نقض حریم خصوصی است.
نحوه کار شرکت هایی مانند وویجر پیچیده نیست. تمام اطلاعات عمومی در رسانه های اجتماعی یک فرد، از جمله پست ها، مخاطبین و حتی ایموجی های رایج را جمع آوری می کند. در برخی موارد خاص، از اطلاعات عمومی و اطلاعات غیر عمومی برای ارجاع متقابل برای تجزیه و تحلیل و نمایه سازی بیشتر استفاده می کند.
▲ وویجر بر اساس موضوعات مشارکت شخصی در رسانه های اجتماعی قضاوت خواهد کرد
از طریق سرویس Voyager، پلیس می تواند به وضوح روابط اجتماعی افراد را ببیند. ارتباطات آنها چگونه است و چگونه در بسترهای اجتماعی تعامل دارند. علاوه بر این، Voyager حتی میتواند تشخیص دهد که آیا یک ارتباط غیرمستقیم بین دو کاربر وجود دارد (هر دو حداقل چهار دوست یکسان دارند).
به نظر می رسد فقط به آنچه کاربران در شبکه های اجتماعی انجام می دهند نگاه می کند که به عنوان اطلاعات تکمیلی برای نظرسنجی ها استفاده می شود. اما در واقع وویجر نه تنها اطلاعات را جمع آوری و نمایش می دهد، بلکه قضاوت هم می کند.
▲ وویجر از طریق زنجیره روابط شبکه های اجتماعی قضاوت و پیش بینی می کند
وویجر در کاغذ سفیدی که به اداره پلیس لس آنجلس ارسال کرده است، به یک مورد حمله اشاره کرده است. این پرونده به طور خاص رویکرد پلتفرم را نشان می دهد – هوش مصنوعی به طور خودکار محتوای پست های افراد در شبکه های اجتماعی را بدون دخالت انسان بررسی می کند. و طبقه بندی (به ترتیب کاربر را در سه علامت گذاری کنید. رنگ های آبی، نارنجی و قرمز).
در یک مورد خاص، آدام الصاهلی، مظنون تیراندازی، به دلیل عکسهای با مضمون اسلامی که در فیسبوک و اینستاگرام منتشر کرده بود، توسط سیستم به عنوان «احساس غرور و همذات پنداری قوی با سنتهای عربی» مورد قضاوت قرار گرفت. بنابراین، قبل از انجام یک حمله خاص، آدام الصاحلی توسط ابزار هوش مصنوعی Voyager با رنگ نارنجی مشخص شد.
این می تواند موردی برای پیش بینی موفقیت آمیز مجرمان احتمالی باشد، اما همچنین پرونده ای پر از "تعصب".
▲ اطلاعات شبکه های اجتماعی آدم الشاهلی مظنون تیراندازی قبل از ارتکاب جنایت با رنگ نارنجی مشخص شده است.
داده ها جرم را پیش بینی می کنند؟ اما داده ها را نمی توان به طور کامل باور کرد
آیا این نتایج واقعاً معتبر هستند؟ بر چه اساسی قضاوت می کنند؟ چگونه همه می توانند بی گناهی خود را تحت کلان داده ثابت کنند؟
در واقع دادههای زیادی وجود دارد که همبستگی بین سوگیری محتوای شبکههای اجتماعی و حقایق جرم را تأیید میکند، اما این یک داده همبستگی 100٪ نیست.
دانشکده مهندسی تاندون دانشگاه نیویورک و دانشکده بهداشت جهانی و بهداشت عمومی نتایج تحقیقاتی را منتشر کردند که نشان میدهد شهرهایی که سخنان نفرتانگیز نژادی بیشتری در توییتر دارند، نرخ جرم و جنایت بالاتری دارند؛ مطالعات در فنلاند همچنین نشان میدهد که بر اساس دادههای دو دهه، برای هر 1 درجه سانتی گراد افزایش دما، فعالیت مجرمانه 1.7 درصد افزایش می یابد؛ مطالعات آمریکایی نشان داده است که میزان سرقت وسایل نقلیه در شب های آخر هفته به شدت افزایش می یابد؛ و ثابت شده است که وقتی تیم فوتبال محلی به طور تصادفی ضرر می کند، حوادث خشونت خانگی باعث می شود. 10 درصد افزایش یابد.
▲ هوش مصنوعی نمی تواند با دقت 100٪ حکم صادر کند
اما اینها نمی توانند چیزی را ثابت کنند، زیرا احتمال و واقعیت متفاوت است.
حتی با تأیید دادههای مربوطه، نمیتوان ثابت کرد که در شهرهایی که بیشترین سخنان نفرت نژادی را دارند، وسایل نقلیه باید در تعطیلات آخر هفته تابستان دزدیده شوند. در هوای گرم، زمانی که تیم خانگی محلی صددرصد ضرر میکند، موارد خشونت خانگی بیشتری رخ میدهد.
سیستمهای پیشبینی جرم مشابه بر اساس حقایق جرم و نتایج تحقیقات موجود معکوس میشوند. مشکل دیگری که این امر ایجاد میکند این است که پر از «کلیشهها» است.
یانگ لیکون، برنده جایزه تورینگ، زمانی گفت که وقتی دادهها سوگیری دارند، سیستمهای یادگیری ماشینی سوگیری میکنند. در یک مورد، زمانی که اطلاعات دریافت شده توسط یادگیری ماشینی این است که کاربران مرد سیاهپوست در زندان سهم زیادی را تشکیل میدهند، چنین سیستمی ممکن است قضاوت کند که مردان سیاهپوست بیشتر احتمال دارد مرتکب جرم شوند.
▲ یانگ لیکون گفت که تعصب سیستمهای یادگیری ماشینی از مردم ناشی میشود
برای یادگیری ماشینی، "مردان سیاه پوست بیشتر احتمال دارد مرتکب جنایت شوند" ممکن است یک واقعیت تجزیه و تحلیل داده ها باشد، اما در واقعیت این یک تعصب نژادی و رفتار متفاوت خواهد بود.
رتبه بندی مخفیانه کاربران، تقسیم بندی اینکه کدام یک از آنها بیشتر تهدید می شود، و ردیابی و جلوگیری از کسانی که با دقت بیشتری تهدید می شوند، منطق عملیاتی کل سیستم است.
استارت آپ های مشابه از الگوریتم ها و هوش مصنوعی برای توضیح فرآیند پردازش و تجزیه و تحلیل اطلاعات برای تصمیم گیری استفاده می کنند. اگرچه در حال حاضر هیچ مدرکی برای اثبات موثر بودن این پیش بینی وجود ندارد و تردیدهای زیادی از سوی مردم وجود دارد، اما اداره پلیس همچنان می خواهد با پلتفرم های مشابه همکاری کند.
▲ برای پلیس، سرویس پیش بینی پلت فرم بسیار ارزشمند است
برای پلیس، این نوع ابزار بسیار جذاب است، کشف پلتفرم هایی مانند Voyager در شبکه های اجتماعی می تواند بدون از دست دادن سرنخ های ظریف آنلاین، کمک موثری در نمایه سازی کاربر ارائه دهد. اگر فقط یک بررسی کمکی باشد، این یک ابزار بسیار مؤثر خواهد بود. با این حال، زمانی که ابزار به مرحله بعدی توسعه یابد و شروع به ایفای نقش در پیش بینی جرم کند، به سلاحی برای زخمی شدن نیز تبدیل خواهد شد.
پس از شور و شوق سال های گذشته تامین مالی، بسیاری از محصولات هوش مصنوعی وارد مرحله اپلیکیشن شده اند. اما در برخی زمینه ها همچنان نقش کمکی را ایفا می کنند.
مراقبت های پزشکی حوزه ای است که در مورد مداخله هوش مصنوعی محتاط است. حتی در پیشرفته ترین زمینه تصویربرداری پزشکی هوش مصنوعی، فناوری هوش مصنوعی امروزی هنوز نمی تواند دقت 100٪ را تضمین کند و نیاز به مداخله پزشکان انسانی دارد. زیرا همه می دانند که مراقبت های پزشکی صنعتی است که نیاز به دقت نزدیک به 100 درصد دارد، هر گونه انحراف یا خطا ممکن است عواقب جدی ایجاد کند.
▲ در این مرحله، ممکن است به پلیس انسانی بیشتر نیاز داشته باشیم
حوزه پلیسی نیز حوزه ای است که در صد در صد صحیح بودن آن تلاش می کند و هرگونه حدس و استنباط نیز بدون پشتوانه شواهد می تواند عواقب جدی به همراه داشته باشد. فردی که در شبکه های اجتماعی اظهارات مختلف تبعیض آمیز و خشونت آمیز را منتشر می کند ممکن است به عنوان مجرم بالقوه مشخص شود، 90 درصد احتمال ارتکاب جرم خشن وجود دارد اما قبل از اینکه عملاً جرمی را مرتکب شود، یک فرد عادی است.
در مجموعه داده های کلی، ما هرگز نمی توانیم نادیده بگیریم که هر کس یک فرد مستقل است.
#به دنبال کردن حساب رسمی وی چت Aifaner خوش آمدید: Aifaner (شناسه WeChat: ifanr)، در اسرع وقت محتوای هیجان انگیزتری در اختیار شما قرار خواهد گرفت.