ما نمیتوانیم بازخورد خاصی در مورد نتایج مصاحبه شما ارائه کنیم.»
در ایالات متحده، کارفرمایان بیشتری از هوش مصنوعی (AI) برای سرعت بخشیدن به فرآیند استخدام استفاده می کنند. اما جویندگان کار به ندرت می دانند که چرا ابزارهای استخدام هوش مصنوعی رزومه آنها را رد می کنند یا چگونه مصاحبه های ویدیویی خود را تجزیه و تحلیل کنند. وقتی در انتخابات شکست میخورند، اغلب فقط میتوانند چنین ایمیل سردی دریافت کنند، بدون اینکه بدانند چرا در انتخابات شکست خوردهاند.
▲ تصویر از: unsplash
این آزاردهنده است. هوش مصنوعی چه نوع قدرت تصمیم گیری در حرفه ما بازی می کند؟
آسوشیتدپرس گزارش داد که در اوایل نوامبر، شورای شهر نیویورک با 38 رای موافق و 4 رای مخالف لایحه ای را تصویب کرد : اگر سیستم استخدام هوش مصنوعی از ممیزی سالانه عبور نکند، ممنوع خواهد شد. ممیزی سالانه سیستم استخدام هوش مصنوعی را از نظر تبعیض نژادی یا جنسیتی بررسی میکند و به متقاضیان شغل اجازه میدهد تا گزینههای جایگزینی مانند بررسی دستی را انتخاب کنند و توسعهدهندگان هوش مصنوعی باید جزئیات بیشتری را که در گذشته شفاف نبوده را فاش کنند.
جالب اینجاست که این توسعه دهندگان هوش مصنوعی هستند که مسئول ممیزی سالانه هستند، اما کارفرما مجازات می شود. اگر از سیستم استخدام هوش مصنوعی استفاده کنند که در ممیزی سالانه شکست بخورد، حداکثر جریمه برای هر تخلف 1500 دلار است.
حامیان بر این باورند که این لایحه پنجره ای را به روی الگوریتم های پیچیده باز خواهد کرد. الگوریتمها اغلب مهارتها و شخصیتها را بر اساس نحوه صحبت یا نوشتن متقاضیان شغل رتبهبندی میکنند، اما این که آیا دستگاه بتواند به طور دقیق و منصفانه ویژگیهای شخصیتی و سیگنالهای احساسی را قضاوت کند، تردید وجود دارد. این فرآیند در آینده شفافتر خواهد بود.
حداقل، منطقی است که بدانیم «الگوریتم به دلیل مغرضانه بودن رد شده است.» ساندرا واچر، استاد حقوق فنی در دانشگاه آکسفورد، زمانی گفت:
قانون ضد تبعیض عمدتاً ناشی از شکایت است، اگر آنها ندانند چه اتفاقی برای آنها افتاده است، هیچ کس نمی تواند از محروم شدن از فرصت شغلی شکایت کند.
شرکت نوپا Pymetrics نیز از این لایحه بسیار حمایت می کند.آنها از استفاده از هوش مصنوعی برای انجام مصاحبه از طریق بازی ها و روش های دیگر حمایت می کنند و معتقدند که الزامات انصاف را برآورده می کند. در همان زمان، برنامه های مصاحبه منسوخ هوش مصنوعی به سطل زباله ریخته می شود. HireVue، ارائهدهنده سیستم استخدام هوش مصنوعی، در ابتدای سال جاری شروع به حذف تدریجی ابزار اسکن صورت خود کرده است.
اکثر مخالفت ها با این لایحه بر این اساس است که «این به اندازه کافی نیست». الکساندرا گیونز، رئیس مرکز دموکراسی و فناوری، خاطرنشان کرد که این پیشنهاد در واقع فقط از کارفرمایان میخواهد که الزامات موجود قانون حقوق مدنی ایالات متحده را رعایت کنند که منع استخدام میکند و اثرات متفاوتی بر اساس نژاد، قومیت یا جنسیت دارد. اما تعصب نسبت به ناتوانی یا سن را نادیده می گیرد.
▲ تصویر از: unsplash
و برخی از کارشناسان هوش مصنوعی و فعالان حقوق دیجیتال نگران هستند که این لایحه فقط به توسعه دهندگان هوش مصنوعی اجازه می دهد تا خود گواهی دهند که از الزامات اساسی پیروی کرده اند و فقط استانداردهای ضعیفی را برای تنظیم کننده ها و قانون گذاران فدرال تعیین می کند. مبهم
شایان ذکر است که سوگیری ها در مصاحبه ها غیر معمول نیست. مشکل اصلی در الگوریتم تغذیه نمونه نهفته است، اما آنها اغلب در یک "جعبه سیاه" قرار می گیرند که تشخیص آن برای جویندگان کار معمولی دشوار است.
چند سال پیش، آمازون ابزار اسکن رزومه خود را متوقف کرد، زیرا این ابزار به مردانی که در موقعیتهای فنی بودند علاقه داشت. بخشی از دلیل آن این است که شرایط جویندگان کار را با نیروی کار ماهر مرد در شرکت مقایسه میکند؛ به طور مشابه، اگر الگوریتم از صنایعی که در آن تفاوتهای نژادی و جنسیتی در آنها رایج است تغذیه میکند، آنگاه تعصبات را تحکیم میکند.
این تعصب فقط استخدام نیست. در آوریل سال جاری، یک مطالعه جدید از دانشگاه کالیفرنیای جنوبی نشان داد که فیس بوک تبلیغاتی را به روش هایی نشان می دهد که ممکن است قانون ضد تبعیض را نقض کند. مردان بیشتر آگهی های استخدام راننده تحویل پیتزا را مشاهده می کنند، در حالی که زنان بیشتر احتمال دارد که این تبلیغات را مشاهده کنند. خرید را ببینید تبلیغ کنید
▲ تصویر از: unsplash
در اصل، تبعیض هوش مصنوعی توسط جامعه بشری پرورش داده می شود، و رفتار مغرضانه فردی حتی ناخودآگاه است، و ممکن است خودمان از آن آگاه نباشیم. اگر یک شرکت با تعصب کمتر را با شرکتی با تعصب جدی مقایسه کنید، به طور کلی دو دلیل وجود دارد: اولی در حذف عمدی تعصب بهتر است و دومی در جمع آوری وضعیت موجود غیرمنطقی و تداوم آنها بهتر است.
بنابراین، نظر بی طرف معتقد است که بهترین بخش پیشنهاد شهر نیویورک، الزامات افشای آن است تا مردم بدانند که توسط هوش مصنوعی ارزیابی می شوند، چگونه توسط هوش مصنوعی ارزیابی می شوند و داده های آنها به کجا می رود.
▲ مواد مرجع:
1.https://apnews.com/article/technology-business-race-and-etnicity-racial-injustice-artificial-intelligence-2fe8d3ef7008d299d9d810f0c0f7905d
2.https://apnews.com/article/job-seekers-artificial-intelligence-hiring-decisions-784ccec7ac6175aadc573465ab604fb9
#به دنبال کردن حساب رسمی وی چت Aifaner خوش آمدید: Aifaner (شناسه WeChat: ifanr)، در اسرع وقت محتوای هیجان انگیزتری در اختیار شما قرار خواهد گرفت.