
الخوف من أن أدوات AI للتوظيف ستُضخِّم bias مشروع — هناك حالات شهيرة حدث فيها ذلك. لكن ذلك ليس صفة من صفات AI؛ بل صفة من صفات بيانات تدريب سيئة وتصميم منتج كسول. عند تنفيذه بصورة صحيحة، يُقلِّل AI screening من bias مقارنة بالمراجعة البشرية وحدها.
ثلاثة أمور يجب أن تكون صحيحة لكي يعمل: النموذج يجب أن يكون عمياً عن السمات المحمية، النظام يجب أن يُظهر تفسيرات لكل قرار، والفريق يجب أن يُجري audits ربع سنوية لـ adverse-impact. تخطَّ واحداً وستعود إلى «بشري أو أسوأ».
معظم منصات AI للتوظيف الحديثة تدعم «blind mode» يحجب الاسم والصورة والعمر والجنس والموقع من شاشة screening. فعِّله. Pass-through bias من هذه السمات هو أكبر سبب فشل AI hiring.
بشكل متوقَّع، يقاوم المُجنِّدون ذلك غالباً — اعتادوا رؤية الأسماء. ادفع للأمام. البيانات قاطعة: blind screening يُظهر 25–40% أكثر من المرشحين من المجموعات المُمَثَّلة بنقص دون خفض جودة التوظيف.
قاعدة 4/5 الخاصة بـ EEOC هي الحد الأدنى التنظيمي: pass rate لمجموعة محمية لا يجب أن ينخفض دون 80% من معدل المجموعة الأعلى. HRBlade يُجري هذا التحليل تلقائياً على كل requisition؛ إن استخدمت منصة أخرى، احسب يدوياً بـ R أو Python وملف CSV مُنزَّل.
حين تجد adverse impact، الجواب ليس خفض السقف — بل فهم السمات التي قادت إلى الفجوة. أدوات AI الحديثة تُوفِّر explainability لكل قرار (GDPR Article 22 يتطلَّبها). أَزل السمات المنحازة، أَعد التدريب، أَجرِ audit مرة أخرى.

