وقتی آدم ها می دونن که یه برنامه هوش مصنوعی داره اون ها رو برای یه شغل یا برنامه دانشگاهی ارزیابی می کنه، رفتارشون رو تغییر می دن تا تحلیل گرتر و کمتر احساسی به نظر بیان. این تغییرات استراتژیک می تونه منجر به ارزیابی های نادرست بشه و روی این که در نهایت چه کسانی برای موقعیت های مهم انتخاب می شن، تاثیر بذاره. درک نحوه رفتار با هوش مصنوعی در استخدام برای نتایج بهتر ضروری است. یافته های اولیه این تحقیق به تازگی در گزارش های آکادمی ملی علوم (PNAS) منتشر شده.
با پیشرفت سریع فناوری های کامپیوتری، سازمان ها بیش از پیش از ابزارهای خودکار برای غربالگری متقاضیان استفاده می کنن. مدیران استخدام و مسئولان پذیرش دانشگاه ها این سیستم های خودکار رو برای افزایش کارایی و مدیریت حجم بالای داوطلبان به کار می گیرن. درک نحوه رفتار با هوش مصنوعی در استخدام برای متقاضیان اهمیت فزاینده ای پیدا کرده است. اغلب، این برنامه ها در قالب نرم افزارهای مصاحبه ویدیویی، ارزیابی های شخصیتی یا غربالگرهای خودکار رزومه هستن.
در عین حال، دولت ها در حال تصویب قوانین جدیدی هستن که شفافیت در استخدام و پذیرش رو الزامی می کنه. برای مثال، قانون هوش مصنوعی در اتحادیه اروپا سازمان ها رو موظف می کنه هر زمان که از سیستم های الگوریتمی در موقعیت های حساس استفاده می کنن، این موضوع رو اعلام کنن. قوانین محلی مشابه، مثل قانونی که اخیرا در شهر نیویورک وضع شده، کارفرماها رو ملزم می کنه به جویندگان کار اطلاع بدن که ابزارهای خودکار فعال هستن.
به دلیل این قوانین شفافیت، متقاضیان اغلب کاملا آگاه هستن که یه ماشین داره عملکردشون رو قضاوت می کنه. پژوهشگران می خواستن بدونن آیا این آگاهی، نحوه رفتار داوطلبان رو در طول تست ها و مصاحبه ها تغییر می ده یا نه. در حقیقت، این تحقیق عمیقا به موضوع نحوه رفتار با هوش مصنوعی در استخدام می پردازد. آدم ها به طور طبیعی سعی می کنن تصویری که از خودشون به بقیه ارائه می دن رو مدیریت کنن، به خصوص وقتی نتیجه کار شامل یک اتفاق مهم در زندگی مثل یک شغل جدید یا یک مقطع تحصیلی باشه.
تاثیر آگاهی بر نحوه رفتار با هوش مصنوعی در استخدام
وقتی با ارزیاب های انسانی سر و کار دارن، متقاضیان اغلب حدس می زنن که داور دوست داره چی ببینه و بر همون اساس رفتار می کنن. نویسندگان این مطالعه حدس زدن که متقاضیان دقیقا همین استراتژی رو برای سیستم های خودکار هم به کار می برن. اون ها این فرضیه رو مطرح کردن که مردم تصورات رایجی درباره نحوه عملکرد و پردازش اطلاعات توسط کامپیوترها دارن.
تصویر زیر نشان دهنده تعامل میان انسان و سیستم های ارزیابی خودکار است که اهمیت شناخت استراتژی های درست را دوچندان می کند.
![]()
در این تصویر، نمادی از تلاش متقاضیان برای تطبیق خود با استانداردهای ماشینی در فرآیندهای گزینش به چشم می خورد.
به طور خاص، مردم تمایل دارن ماشین ها رو به عنوان پردازشگرهای کاملا منطقیِ اعداد و حقایق ببینن که کاملا فاقد هوش عاطفی یا شهود هستن. در روان شناسی، این تصورات رایج به عنوان «باورهای عامیانه» شناخته می شن. این باورها بر نحوه رفتار با هوش مصنوعی در استخدام تاثیر می گذارند، زیرا متقاضیان سعی می کنند خود را با تصوراتشان از ماشین تطبیق دهند که گاهی ناشی از ریشه های روان شناختی بی اعتمادی به هوش مصنوعی و جعبه سیاه الگوریتم ها است. تیم تحقیق پیش بینی کرد که باور عامیانه درباره منطقی بودن ماشین، باعث می شه متقاضیان ویژگی های منطقی و تحلیلی خودشون رو برجسته کنن. اون ها این تغییر پیش بینی شده در نحوه ارائه خود رو «اثر ارزیابی هوش مصنوعی» نامیدن.
جوناس گورگن، پژوهشگر مؤسسه علوم رفتاری و فناوری در دانشگاه سنت گالن سوئیس، رهبری این تحقیق رو بر عهده داشت. او با امانوئل دو بلیس، باز هم از دانشگاه سنت گالن، و آن-کاترین کلس از دانشکده مدیریت روتردام در هلند همکاری کرد. اون ها با هم مجموعه ای گسترده از آزمایش ها رو انجام دادن تا ببینن ارزیاب های ماشینی چطور بر نحوه معرفی افراد از خودشون تاثیر می ذارن.
تیم تحقیق 12 آزمایش مجزا با حضور بیش از 13,000 شرکت کننده طراحی کرد. قبل از اجرای آزمایش های رسمی، اون ها داده های یک شرکت نرم افزاری استخدام به نام Equalture رو تحلیل کردن. اون ها بیش از 1,400 متقاضی کار رو که یک ارزیابی مهارتی مبتنی بر بازی رو انجام داده بودن، مورد بررسی قرار دادن. داوطلبانی که به شدت به دخالت الگوریتم در فرآیند استخدام مشکوک بودن، بیشترین تغییرات رو در رفتار خودشون گزارش کردن.
بعد از مشاهده این روند در دنیای واقعی، نویسندگان یک مطالعه میدانی اولیه رو شروع کردن. اون ها آگهی های شغلی اولیه ای برای یک برنامه ریز رویداد در پلتفرم فریلنسری Upwork منتشر کردن. این بخش از مطالعه به درک نحوه رفتار با هوش مصنوعی در استخدام در یک محیط عملی کمک می کند. اون ها آگهی ها رو به دو گروه تقسیم کردن و از فریلنسرها خواستن درخواست بدن. به نیمی از متقاضیان گفته شد که یک انسان درخواستشون رو بررسی می کنه، در حالی که به نیمی دیگه گفته شد یک ماشین مهارت هاشون رو تایید می کنه.
سپس متقاضیان به عنوان بخشی از فرآیند غربالگری، توصیفاتی از خودشون نوشتن. اون ها به خودشون در یک مقیاس عددی از «بسیار شهودی» تا «بسیار تحلیل گر» نمره دادن. متقاضیانی که فکر می کردن یک ماشین در حال خوندن پرونده هاشونه، خودشون رو خیلی تحلیل گرتر از کسانی توصیف کردن که فکر می کردن یک انسان همون متن رو می خونه.
برای تعیین یک رابطه علت و معلولی شفاف، تیم به سراغ یک محیط آزمایشگاهی کنترل شده رفت. در یک آزمایش، شرکت کننده ها تصور کردن که برای پذیرش در یک دانشگاه خیالی به نام دانشگاه هورایزن درخواست می دن. اون ها به طور تصادفی با یک ارزیاب انسانی یا ماشینی روبرو شدن. سپس شرکت کننده ها به سوالات نظرسنجی درباره نحوه برخورد ذهنی شون با وظایف پاسخ دادن.
در شرایطی که ارزیاب خودکار بود، شرکت کننده ها گزارش کردن که با رویکردی بسیار تحلیل گرایانه تر و منطقی تر به وظایفشون رسیدگی می کنن و جنبه شهودی خودشون رو سرکوب می کنن. پژوهشگران سوالات پیگیری پرسیدن تا بفهمن چرا این اتفاق افتاده. اون ها متوجه شدن که این تغییر کاملا ناشی از باور بنیادی شرکت کننده ها بود که برنامه ماشینی ویژگی های تحلیلی رو به ویژگی های احساسی ترجیح می ده.
پژوهشگران می خواستن بدونن آیا انواع خاصی از افراد بیشتر مستعد این تغییر رفتار هستن یا نه. در یک نظرسنجی از بخش نمونه ای از جمعیت ایالات متحده، اون ها ویژگی های شخصیتی و جمعیت شناختی مختلف رو تست کردن. اون ها فهمیدن که تمایل به رفتار تحلیل گرایانه تر در مقابل کامپیوتر، در بین گروه های سنی جوان تر قوی تر بود. علاوه بر این، شرکت کنندگانی که ترس بالایی از ارزیابی منفی داشتن، به احتمال زیاد نحوه ارائه خودشون رو تغییر می دادن.
آزمایش دیگه ای بررسی کرد که آیا این تغییر رفتار در یک وظیفه تصمیم گیری واقعی تر که پاداش مشخصی داشت هم صدق می کنه یا نه. پژوهشگران از شرکت کننده ها خواستن برای یک گروه تحقیقاتی انحصاری درخواست بدن که انگیزه های مالی واقعی پیشنهاد می داد. برای ورود، شرکت کننده ها باید لیستی از هشت ویژگی شخصی رو برای توصیف خودشون رتبه بندی می کردن. نیمی از این ویژگی ها نشان دهنده صفات منطقی و نیمی دیگه نشان دهنده صفات شهودی بودن.
وقتی شرکت کننده ها فکر می کردن یه ماشین داره رتبه بندی هاشون رو بررسی می کنه، همیشه ویژگی های منطقی رو در صدر لیست قرار می دادن. اون ها کمترین رتبه ها رو به ویژگی های شهودی اختصاص دادن. اما وقتی شرکت کننده ها فکر می کردن یه انسان داره به همون صفحه نگاه می کنه، رتبه بندی ها در هر دو دسته بسیار متعادل تر بود.
تیم همچنین بررسی کرد که وقتی افراد در طول زمان در هر دو نوع ارزیابی شرکت می کنن چه اتفاقی می افته. در یک آزمایش چند مرحله ای، شرکت کننده ها به سوالاتی درباره رفتار واقعی و پایه خودشون در یک نظرسنجی استاندارد بدون هیچ گونه ارزیابی پاسخ دادن. چند روز بعد، اون ها یک فرآیند درخواست شبیه سازی شده رو طی کردن.
ارزیابی شدن توسط یک ماشین باعث شد شرکت کننده ها به شدت از خودِ واقعی شون فاصله بگیرن. شکاف بین حالت واقعی و صادقانه شون با تصویری که برای ماشین ارائه دادن، بسیار زیاد بود. پژوهشگران اشاره کردن که این سطح از تغییر واقعیت می تونه به راحتی تعیین کنه که کدوم داوطلبان از حد نصاب استخدام عبور می کنن.
در شبیه سازی ریاضی اون ها، بیش از یک چهارم افرادی که تحت ارزیابی ماشین نمره حد نصاب منطقی رو کسب کرده بودن، اگه توسط انسان ارزیابی می شدن، نمی تونستن به همون حد نصاب برسن.
برای تایید مکانیسم روان شناختی زیربنایی، پژوهشگران مستقیما فرضیات شرکت کننده ها رو دستکاری کردن. در دو مدل آزمایشی، اون ها از شرکت کننده ها خواستن فعالانه یک برنامه کامپیوتری رو تصور کنن که قادر به درک عمیق احساسی و شهودی هست. اون ها به شرکت کننده ها دستور دادن دلایلی بنویسن که چرا یک ماشین ممکنه در خواندن احساسات خوب عمل کنه.
وقتی از شرکت کننده ها خواسته شد ماشین رو دارای توانایی احساسی تصور کنن، تغییر رفتار کاملا ناپدید شد. اون ها اغراق در مهارت های منطقی خودشون رو متوقف کردن. در برخی موارد، اون ها حتی خودشون رو کمتر تحلیل گر و شهودی تر از گروه کنترلی که توسط انسان ارزیابی می شد، نشون دادن.
پژوهشگران همچنین یک رویکرد ترکیبی رو آزمایش کردن که در استخدام های شرکتی مدرن رایج هست. اون ها به شرکت کننده ها گفتن که یک کامپیوتر دور اول غربالگری رو انجام می ده، اما یک مدیر انسانی تصمیم نهایی استخدام رو می گیره. این ترکیب، تغییر رفتار رو کاهش داد، اما متقاضیان همچنان تا حد قابل توجهی در ویژگی های منطقی خودشون اغراق می کردن.
چالش ها و راهکارهایی برای نحوه رفتار با هوش مصنوعی در استخدام
این تغییرات در رفتار متقاضیان می تونه مشکلات جدی برای اعتبار تست های سیستم های استخدام خودکار ایجاد کنه. اگه داوطلبان یک نسخه مصنوعی از خودشون رو ارائه بدن، سازمان ها معیار دقیقی از مهارت های واقعی اون ها به دست نمیارن. برای کارفرمایان، فهم دقیق نحوه رفتار با هوش مصنوعی در استخدام و پیامدهای آن اهمیت حیاتی دارد. پژوهشگران پیشنهاد می کنن که کارفرمایان باید از این اثر آگاه باشن و اقدامات فوری برای رفع اون انجام بدن. مثلا شرکتی که به دنبال یک مددکار اجتماعی بسیار همدل هست، ممکنه در نهایت فردی بیش از حد تحلیل گر رو استخدام کنه که صرفا سعی داشته باب میل یک برنامه نرم افزاری رفتار کنه.
تیم تحقیق اشاره کرد که کارهای آینده باید زمینه های متنوعی خارج از استخدام تجاری رو هم بررسی کنن. برای مثال، ارزیابی های خودکار گاهی اوقات برای تعیین این که چه کسی به خدمات عمومی دسترسی داشته باشه یا وامش تایید بشه، استفاده می شن. باید دید که آیا متقاضیان مزایای دولتی هم رفتار خودشون رو دقیقا به همین شکل تغییر می دن یا نه. این مسئله، بحث نحوه رفتار با هوش مصنوعی در استخدام و ارزیابی را به فراتر از بخش خصوصی گسترش می دهد.
بیشتر آزمایش های فعلی منحصرا روی طیف بین منطق و شهود متمرکز بودن. پژوهشگران توضیح دادن که ابعاد دیگه شخصیتی هم ممکنه تحت تاثیر غربالگری خودکار قرار بگیرن. داده های اولیه از مدل های اکتشافی اون ها نشون داد که متقاضیان ممکنه خلاقیت و ریسک پذیری خودشون رو هم در مواجهه با یک حسابرس ماشینی کمتر جلوه بدن. همچنین به نظر می رسید شرکت کننده ها ملاحظات اخلاقی و اجتماعی خودشون رو هم تنظیم می کنن.
علاوه بر این، پیشرفت های تکنولوژیک جدید ممکنه به مرور زمان نحوه واکنش مردم به سیستم های ارزیابی خودکار رو تغییر بده. ظهور ناگهانی چت بات های گفتگوگر پیشرفته ممکنه درک عمومی از این که ماشین ها چه چیزهایی رو می فهمن تغییر بده. مطالعات آینده باید بررسی کنن که آیا داوطلبان به نرم افزارهایی که گفتگو محورتر و شبیه تر به انسان به نظر می رسن، واکنش متفاوتی نشون می دن یا نه.
این مطالعه با عنوان «ارزیابی هوش مصنوعی رفتار انسان را تغییر می دهد»، توسط جوناس گورگن، امانوئل دو بلیس و آن-کاترین کلس نگارش شده است.
در نهایت، تغییر آگاهانه رفتار متقاضیان در برابر ماشین ها نشان دهنده یک چالش جدید برای سازمان هاست. در حالی که شفافیت در استفاده از هوش مصنوعی یک الزام قانونی و اخلاقی است، اما به طور همزمان باعث می شود داده های به دست آمده از کیفیت واقعی برخوردار نباشند. یافتن تعادل بین کارایی تکنولوژی و صداقت انسانی در مصاحبه ها، کلید اصلی موفقیت در سیستم های استخدامی آینده خواهد بود تا از سوگیری های ماشینی و رفتارهای تصنعی داوطلبان جلوگیری شود.
Job seekers mask their emotions and act more analytical when evaluated by artificial intelligence