Som una Fundació que exercim el periodisme en obert, sense murs de pagament. Però no ho podem fer sols, com expliquem en aquest editorial.
Clica aquí i ajuda'ns!
La irrupció de la intel·ligència artificial (IA) en els processos de selecció de personal està transformant el reclutament, però també està generant nous riscos. Un projecte europeu liderat per la Universitat Pompeu Fabra (UPF) alerta que les plataformes digitals utilitzades per filtrar candidatures poden discriminar de manera “invisible” per motius de raça, gènere, orientació sexual o altres factors socials.
Es tracta del projecte FINDHR (Fairness and Intersectional Non-Discrimination in Human Recommendation), una recerca de tres anys en què han participat 11 institucions de set països. L’estudi conclou que els sistemes automatitzats de seguiment de candidatures, coneguts com a ATS (Applicant Tracking Systems), s’han convertit en eines clau per gestionar l’allau de sol·licituds —fins a 250 per oferta de mitjana—, però no sempre garanteixen processos neutrals.
“La tecnologia pot trencar la voluntat de no discriminar”
Carlos Castillo, investigador de la UPF i coordinador del projecte, adverteix que moltes persones que utilitzen ATS no en coneixen el funcionament intern. “Pots ser la persona més curosa del món, però, si fas servir una tecnologia que no entens, la teva voluntat de no discriminar es trenca. Hi ha un biaix inconscient”, explica.
La preocupació creix en un context en què la IA s’estén ràpidament i en què la nova Llei europea d’intel·ligència artificial (AI Act) classifica els ATS com a tecnologies d’alt risc, fet que obliga a reforçar-ne els mecanismes de control.
Tres kits d’eines per reduir el biaix
Per donar resposta a aquests reptes, FINDHR ha desenvolupat tres kits d’eines gratuïts adreçats a:
- Professionals de recursos humans
- Responsables polítics
- Desenvolupadors de programari
Entre les recomanacions hi ha la formació en detecció de biaixos, la incorporació de criteris de justícia algorítmica en les licitacions d’ATS i la realització d’auditories algorítmiques independents de manera regular.
El projecte també proposa solucions per superar les tensions entre la normativa de protecció de dades i la necessitat d’analitzar informació sensible per detectar discriminacions. Una de les propostes és un sistema de Computació Segura Multiparti, que permetria cedir dades personals a organismes auditors de manera segura i només un cop finalitzat el procés selectiu.
Una recerca basada en testimonis reals
Les conclusions del projecte es basen en:
- 100 entrevistes a sol·licitants de feina
- 20 entrevistes a reclutadors
- La participació d’empreses i institucions com InfoJobs, Randstad o Barcelona Activa
- L’anàlisi de 1.200 currículums donats voluntàriament
- Cursos de formació impartits a més d’un centenar de professionals
Un consorci europeu ampli
FINDHR està finançat pel programa Horizon Europe i coordinat per la UPF. El consorci inclou universitats i entitats d’Itàlia, Alemanya, Suïssa, Espanya, Països Baixos, Grècia i Bèlgica, entre les quals destaquen la Universitat de Pisa, el Max Planck Institute for Security and Privacy, Algorithm Watch o ETICAS Research and Consulting.


