هوش مصنوعی در جذب منابع انسانی؛ فرصت یا تهدید؟
در سال های اخیر، سازمان ها برای بهینه سازی فرایند جذب نیروی انسانی به ابزارهای هوش مصنوعی (AI) روی آورده اند. از تحلیل رزومه ها گرفته تا مصاحبه های ویدیویی، هوش مصنوعی در حال شکل دهی دوباره به فرآیند استخدام است. با این حال، مطالعات تازه در سال های ۲۰۲۴ و ۲۰۲۵ نشان می دهد که استفاده ی بدون نظارت از این ابزارها، می تواند منجر به بروز خطاهای جدی و گاه ناعادلانه در تصمیم گیری شود.

۱. سوگیری الگوریتمی
یکی از پرچالش ترین مسائل، سوگیری های نژادی، جنسیتی یا سنی است که در الگوریتم های غربال گری رزومه دیده می شود. به طور مثال، تحقیقاتی در سال ۲۰۲۵ توسط دانشگاه MIT نشان داد که هوش مصنوعی در برخی شرکت های بزرگ فناوری، رزومه های مردان سفیدپوست را به طور سیستماتیک بالاتر از دیگر گروه ها رتبه بندی می کرده است.
۲. عدم شفافیت در تصمیم گیری
بسیاری از سیستم های AI تحت عنوان «جعبه سیاه» شناخته می شوند؛ به این معنا که مشخص نیست چگونه به یک تصمیم خاص رسیده اند. این موضوع فرآیند جذب را غیرشفاف کرده و پیگیری و اعتراض به تصمیم های اتخاذشده را برای متقاضیان شغلی دشوار می سازد.
۳. ناتوانی در درک ظرافت های انسانی
هوش مصنوعی توانایی درک زبان بدن، بافت فرهنگی، یا قصد و نیت واقعی افراد را ندارد. به عنوان مثال، در مصاحبه های ویدیویی خودکار، چالش هایی چون اضطراب، لهجه، یا تفاوت فرهنگی می تواند منجر به برداشت های اشتباه توسط الگوریتم شود.
۴. تهدید به حریم خصوصی
ابزارهای AI گاهی از اطلاعات شخصی افراد در شبکه های اجتماعی یا سابقه ی دیجیتال آن ها برای ارزیابی استفاده می کنند که می تواند منجر به نقض حریم خصوصی شود.
---
چالش ها و پیامدهای احتمالی استفاده از هوش مصنوعی در استخدام

نتیجه گیری
هوش مصنوعی ابزاری قدرتمند است اما استفاده ی نسنجیده از آن می تواند چالش هایی جدی در پی داشته باشد. سازمان ها باید با در نظر گرفتن ملاحظات اخلاقی، فرهنگی و قانونی، از ترکیب متوازن انسان و ماشین در فرآیند جذب استفاده کنند. تنها در این صورت است که می توان از مزایای AI بهره برد، بدون آن که عدالت و تنوع انسانی قربانی شود.
---
منابع انگلیسی
1. Tambe, P., Cappelli, P., & Yakubovich, V. (2024). Artificial Intelligence in Human Resources Management: Challenges and Future Directions. Journal of HR Tech, 12(1), 14–30.
2. Binns, R., Veale, M., Van Kleek, M., & Shadbolt, N. (2025). ‘It's Reducing a Human Being to a Number’: AI Hiring Systems and Discrimination. ACM Digital Ethics Conference.
3. Raji, I. D., & Buolamwini, J. (2024). Actionable Auditing: Investigating the Impact of Publicly Naming Biased Performance Results of Commercial AI Products. Proceedings of AAAI.
4. Ball, K. (2025). AI Recruitment and the Datafication of the Human. AI & Society, 40(2), 167–184.