¿Puede la Inteligencia Artificial superar el problema de los sesgos en la selección de personal?
Marisa Cruzado Collado reconoce que, por diseño, la tendencia a homologar de la IA es, en sí mismo, un riesgo de exclusión para sectores que requieren atención especial.
¿Cómo lograr que los algoritmos sean mejores que las personas para mantener políticas de inclusión laboral?
Esto es justo una de las preguntas que intenta responder IA+Igual, un proyecto colaborativo especializado en analizar y verificar los algoritmos que se utilizan en el mercado laboral.
Hasta ahora, uno de sus principales hallazgos es descorazonador: la igualdad digital también es un riesgo.
Y es que el mercado laboral es complejo y lograr la equidad e inclusión en él, complicado. Ahora más debido a la Inteligencia Artificial (IA).
“Los sesgos inconscientes que puedan estar en los datos se están integrando en los modelos de Inteligencia Artificial. Por ello, pueden generar un funcionamiento que termine produciendo un retroceso en los avances de diversidad e inclusión”, señalo la Fundadora y CEO de IA+Igual, Marisa Cruzado Collado.
Abordar las implicaciones de este problema fue el tema central de la quinta y última sesión de las VII Jornadas de The Standard CIO, dedicadas al Futuro del Trabajo: Hacia una transformación digital inclusiva.
Esta última sesión se denominó Automatización inclusiva y ética. Es decir, la principal duda que existe sobre el uso de Inteligencia Artificial (IA) en procesos de selección debido a los sesgos que puede la tecnología generar.
Detrás del cristal
Cruzado Collado hizo notar que la organización que fundo intenta establecer si las reservas europeas a la tecnología mayoritariamente estadounidense de los sistemas de gestión es justificada.
La especialista reconoce que, si bien los algoritmos parecen neutrales y que tratan de reducir la distinción, esta versión de la objetividad, constituye un retroceso.
¿Por qué? Porque parte de los avances de los sistema de bienestar europeo se centran en reconocer las diferencias y, por tanto, en evaluar las condiciones que generan inequidad.
¿Le parece complicado? Lo es. Pero lo cierto es que los intereses de las empresas o instituciones contratantes van en contra de la necesidad de equidad en la contratación.
Por ejemplo, la empresas pueden preferir contratar a personas que viven cerca de sus instalaciones lo cual deja fuera a personas de unas zonas (y contextos sociales).
Algo parecido pasa si se demanda vehículo, por solo mencionar algunos de los sesgos más evidentes.
“Si tienes poder de decisión de compra dentro de tu organización en un departamento de Recursos Humanos debes aprender a preguntar a tu proveedor qué preguntas tienes que hacer”, puntualizó Marisa Cruzado Collado, CEO de IA+Igual.
Esto, explicó la especialista, permite tener la certeza de que la herramienta que estás adquiriendo se ajusta a lo que necesitas.
El dilema del ahogo
Cruzado reconoce que iniciativas de evaluación de algoritmos son propios de España y Europa por los sistemas que ha desarrollado esta región de protección social.
Pero el hecho real es que la innovación en materia de Inteligencia Artificial está en otro lado. Puesto que no hay una propuesta alternativa propia, con la visión altamente regulada de la CE, las empresas deben elegir entre dos modelos con paradigmas diferentes:
- La propuesta dominante estadounidense, puramente comercial
- El diseño dirigido al control sociopolítico que se está produciendo en Asia, especialmente en China
Es decir, como la situación de ahorro que se puede presentar en el ajedrez, todas las opciones que tiene Europa para escoger no son las que quisiera tener, según su propio estándar y filosofía.
“Podemos e intentamos regular para compensar los sesgos. Pero, ahí, entramos de nuevo en el dilema de saber que la regulación inhibe la innovación de proyectos europeos competitivos”, reconoció la líder de IA+Igual, Marisa Cruzado Collado.
Por fortuna, incluso con las limitaciones actuales, los sistemas disponibles puede ser utilizados en beneficio de las empresas, impidiéndoles cometer errores.
Cruzado señala que, al evaluar los algoritmos disponibles en la actualidad, han encontrado que pueden predecir la fuga de talento con “una fiabilidad brutal”.
De hecho, pueden predecir el número de personas que se van a ir de una empresa en los siguientes tres meses y la causa.
Esto los hace útiles en la medición de clima organizacional, cultura, así como para diseñar estrategias que eviten altos niveles de rotación.
Luces y sombras
Por otro lado, la fundadora de IA+Igual reconoce que los problemas de sesgos en los algoritmos de la Inteligencia Artificial no son, aún, un tema que los usuarios hayan identificado. O los desarrolladores.
Es por eso que proyectos como el suyo deben llamar la atención de los agujeros que pueden dejar fuera de las oportunidades a los grupos vulnerables.
Hasta ahora, algunos de los hallazgos más importantes de IA+Igual son:
- Madurez del mercado: Aunque hay mucha cobertura mediática, pocas empresas españolas han implementado ampliamente la IA en procesos de RRHH. Por ello, aún hay tiempo para establecer buenas prácticas.
- Impacto de los datos: Muchas herramientas excluyen información demográfica relevante (como género o discapacidad) debido a leyes de protección de datos. Esto puede generar vacíos críticos en los algoritmos, haciendo que estos colectivos desfavorecidos no sean considerados correctamente.
- Ejemplos prácticos: Casos analizados muestran que ignorar factores como el género puede distorsionar resultados, por ejemplo, en algoritmos que predicen deserción laboral, donde el no considerar género afecta la precisión de los modelos.
- Industria y proveedores: Grandes proveedores internacionales como Microsoft y SAP dominan el mercado, aunque algunas empresas medianas y pequeñas prefieren externalizar desarrollos específicos.