آیا شخصی که با شما مصاحبه می کند نیست؟ نیویورک قصد دارد «مصاحبه‌گران» هوش مصنوعی را محدود کند

ما نمی‌توانیم بازخورد خاصی در مورد نتایج مصاحبه شما ارائه کنیم.»

در ایالات متحده، کارفرمایان بیشتری از هوش مصنوعی (AI) برای سرعت بخشیدن به فرآیند استخدام استفاده می کنند. اما جویندگان کار به ندرت می دانند که چرا ابزارهای استخدام هوش مصنوعی رزومه آنها را رد می کنند یا چگونه مصاحبه های ویدیویی خود را تجزیه و تحلیل کنند. وقتی در انتخابات شکست می‌خورند، اغلب فقط می‌توانند چنین ایمیل سردی دریافت کنند، بدون اینکه بدانند چرا در انتخابات شکست خورده‌اند.

▲ تصویر از: unsplash

این آزاردهنده است. هوش مصنوعی چه نوع قدرت تصمیم گیری در حرفه ما بازی می کند؟

آسوشیتدپرس گزارش داد که در اوایل نوامبر، شورای شهر نیویورک با 38 رای موافق و 4 رای مخالف لایحه ای را تصویب کرد : اگر سیستم استخدام هوش مصنوعی از ممیزی سالانه عبور نکند، ممنوع خواهد شد. ممیزی سالانه سیستم استخدام هوش مصنوعی را از نظر تبعیض نژادی یا جنسیتی بررسی می‌کند و به متقاضیان شغل اجازه می‌دهد تا گزینه‌های جایگزینی مانند بررسی دستی را انتخاب کنند و توسعه‌دهندگان هوش مصنوعی باید جزئیات بیشتری را که در گذشته شفاف نبوده را فاش کنند.

جالب اینجاست که این توسعه دهندگان هوش مصنوعی هستند که مسئول ممیزی سالانه هستند، اما کارفرما مجازات می شود. اگر از سیستم استخدام هوش مصنوعی استفاده کنند که در ممیزی سالانه شکست بخورد، حداکثر جریمه برای هر تخلف 1500 دلار است.

حامیان بر این باورند که این لایحه پنجره ای را به روی الگوریتم های پیچیده باز خواهد کرد. الگوریتم‌ها اغلب مهارت‌ها و شخصیت‌ها را بر اساس نحوه صحبت یا نوشتن متقاضیان شغل رتبه‌بندی می‌کنند، اما این که آیا دستگاه بتواند به طور دقیق و منصفانه ویژگی‌های شخصیتی و سیگنال‌های احساسی را قضاوت کند، تردید وجود دارد. این فرآیند در آینده شفاف‌تر خواهد بود.

حداقل، منطقی است که بدانیم «الگوریتم به دلیل مغرضانه بودن رد شده است.» ساندرا واچر، استاد حقوق فنی در دانشگاه آکسفورد، زمانی گفت:

قانون ضد تبعیض عمدتاً ناشی از شکایت است، اگر آنها ندانند چه اتفاقی برای آنها افتاده است، هیچ کس نمی تواند از محروم شدن از فرصت شغلی شکایت کند.

شرکت نوپا Pymetrics نیز از این لایحه بسیار حمایت می کند.آنها از استفاده از هوش مصنوعی برای انجام مصاحبه از طریق بازی ها و روش های دیگر حمایت می کنند و معتقدند که الزامات انصاف را برآورده می کند. در همان زمان، برنامه های مصاحبه منسوخ هوش مصنوعی به سطل زباله ریخته می شود. HireVue، ارائه‌دهنده سیستم استخدام هوش مصنوعی، در ابتدای سال جاری شروع به حذف تدریجی ابزار اسکن صورت خود کرده است.

اکثر مخالفت ها با این لایحه بر این اساس است که «این به اندازه کافی نیست». الکساندرا گیونز، رئیس مرکز دموکراسی و فناوری، خاطرنشان کرد که این پیشنهاد در واقع فقط از کارفرمایان می‌خواهد که الزامات موجود قانون حقوق مدنی ایالات متحده را رعایت کنند که منع استخدام می‌کند و اثرات متفاوتی بر اساس نژاد، قومیت یا جنسیت دارد. اما تعصب نسبت به ناتوانی یا سن را نادیده می گیرد.

▲ تصویر از: unsplash

و برخی از کارشناسان هوش مصنوعی و فعالان حقوق دیجیتال نگران هستند که این لایحه فقط به توسعه دهندگان هوش مصنوعی اجازه می دهد تا خود گواهی دهند که از الزامات اساسی پیروی کرده اند و فقط استانداردهای ضعیفی را برای تنظیم کننده ها و قانون گذاران فدرال تعیین می کند. مبهم

شایان ذکر است که سوگیری ها در مصاحبه ها غیر معمول نیست. مشکل اصلی در الگوریتم تغذیه نمونه نهفته است، اما آنها اغلب در یک "جعبه سیاه" قرار می گیرند که تشخیص آن برای جویندگان کار معمولی دشوار است.

چند سال پیش، آمازون ابزار اسکن رزومه خود را متوقف کرد، زیرا این ابزار به مردانی که در موقعیت‌های فنی بودند علاقه داشت. بخشی از دلیل آن این است که شرایط جویندگان کار را با نیروی کار ماهر مرد در شرکت مقایسه می‌کند؛ به طور مشابه، اگر الگوریتم از صنایعی که در آن تفاوت‌های نژادی و جنسیتی در آن‌ها رایج است تغذیه می‌کند، آنگاه تعصبات را تحکیم می‌کند.

این تعصب فقط استخدام نیست. در آوریل سال جاری، یک مطالعه جدید از دانشگاه کالیفرنیای جنوبی نشان داد که فیس بوک تبلیغاتی را به روش هایی نشان می دهد که ممکن است قانون ضد تبعیض را نقض کند. مردان بیشتر آگهی های استخدام راننده تحویل پیتزا را مشاهده می کنند، در حالی که زنان بیشتر احتمال دارد که این تبلیغات را مشاهده کنند. خرید را ببینید تبلیغ کنید

▲ تصویر از: unsplash

در اصل، تبعیض هوش مصنوعی توسط جامعه بشری پرورش داده می شود، و رفتار مغرضانه فردی حتی ناخودآگاه است، و ممکن است خودمان از آن آگاه نباشیم. اگر یک شرکت با تعصب کمتر را با شرکتی با تعصب جدی مقایسه کنید، به طور کلی دو دلیل وجود دارد: اولی در حذف عمدی تعصب بهتر است و دومی در جمع آوری وضعیت موجود غیرمنطقی و تداوم آنها بهتر است.

بنابراین، نظر بی طرف معتقد است که بهترین بخش پیشنهاد شهر نیویورک، الزامات افشای آن است تا مردم بدانند که توسط هوش مصنوعی ارزیابی می شوند، چگونه توسط هوش مصنوعی ارزیابی می شوند و داده های آنها به کجا می رود.

▲ مواد مرجع:
1.https://apnews.com/article/technology-business-race-and-etnicity-racial-injustice-artificial-intelligence-2fe8d3ef7008d299d9d810f0c0f7905d
2.https://apnews.com/article/job-seekers-artificial-intelligence-hiring-decisions-784ccec7ac6175aadc573465ab604fb9

انگور تنها میوه نیست.

#به دنبال کردن حساب رسمی وی چت Aifaner خوش آمدید: Aifaner (شناسه WeChat: ifanr)، در اسرع وقت محتوای هیجان انگیزتری در اختیار شما قرار خواهد گرفت.

Ai Faner | لینک اصلی · مشاهده نظرات · Sina Weibo