Durante mis Cursos de Inteligencia Artificial en Reclutamiento y Recursos Humanos cuando hablo con mis participantes, uno de los temas más importantes —y menos comprendidos—, es el de los sesgos algorítmicos. Muchas veces se piensa que, al usar tecnología, automáticamente se eliminan los prejuicios humanos. Pero la realidad es más compleja. La inteligencia artificial aprende del lenguaje, los datos y los patrones que le enseñamos nosotros como reclutadoras y reclutadores. Si esos datos están cargados de decisiones sesgadas del pasado, la IA tenderá a reproducir, amplificar o incluso institucionalizar esos sesgos.
Hola, te saluda Francisco Del Olmo Díaz Castillo, instructor y capacitador de Inteligencia Artificial para Recursos Humanos y Reclutamiento, además soy el creador de la Metodología HR Tech Cortex que sirve diagnosticar competencias digitales en los profesionales de Recursos Humanos en la era de la Inteligencia Artificial y ofrecer soluciones proactivas mediante capacitación, consultoría e implementación para impulsar la transformación digital de colaboradores y la madurez digital en las organizaciones, transformando el rol de Recursos Humanos de operativo a estratégico.
CATÁLOGO DE CURSOS INTELIGENCIA ARTIFICIAL RECURSOS HUMANOS Y RECLUTAMIENTO.
Cómo evitar sesgos en procesos Reclutamiento Inteligencia Artificial.
Cada vez más equipos de recursos humanos están usando asistentes con inteligencia artificial para tareas como evaluar currículums, responder preguntas, hacer entrevistas o recomendar candidatos. Pero hay algo muy importante que muchas veces se pasa por alto: la inteligencia artificial puede repetir prejuicios o errores humanos… y muy fácilmente.
No porque “quiera”, sino porque aprendió de ti, de tu equipo o de los documentos que tú mismo le diste. Aquí te vamos a explicar cómo pasa eso, dónde se mete el sesgo y cómo evitarlo, todo con ejemplos sencillos y concretos, para que lo entiendas aunque no seas técnico o técnica.
1. ¿Qué tipo de prejuicios podría repetir una IA?
Parece increíble, pero una IA puede tomar decisiones discriminatorias sin que tú te des cuenta. Aquí van algunos ejemplos comunes:
⦿ Solo recomienda hombres para puestos directivos.
⦿ Rechaza automáticamente currículums que vienen de universidades públicas.
⦿ Asume que alguien mayor de 50 años no puede aprender nuevas tecnologías.
⦿ Favorece nombres “extranjeros” o con connotación anglosajona.
⦿ Cree que solo las personas con lenguaje agresivo tienen liderazgo.
⦿ Estos errores no son culpa de la máquina. Son culpa de lo que aprendió. Y aquí viene la gran pregunta…
2. ¿Dónde se cuelan los prejuicios? ¿Cómo aprende mal la IA?
La IA aprende de lo que tú le das: documentos, ejemplos, instrucciones. Si esos materiales tienen errores, sesgos o comentarios subjetivos, la IA los absorbe. Veamos cómo ocurre en tres casos concretos:
A. Cuando le das ejemplos sesgados (como si le dieras frutas podridas).
Imagina que subes 10 currículums al asistente y le dices: “estos son buenos candidatos”. Pero 8 de esos perfiles son hombres, menores de 35 años, todos egresados de una universidad privada. ¿Qué entiende el asistente? Que eso es lo “bueno”. Así, si luego llega una mujer de 45 años, con gran experiencia y egresada de una universidad pública, el sistema puede descartarla. No porque sea mala candidata, sino porque no se parece a los ejemplos que tú le diste.
¿Dónde se mete ese sesgo?
⦿ En los archivos que subes para entrenar (PDFs, Excel, documentos históricos).
⦿ En herramientas como Cody, GPTs personalizados o asistentes que usan tus documentos para responder (RAGs).
B. Cuando las instrucciones están mal escritas (como recetas con ingredientes tóxicos)
Supón que en el manual de entrenamiento escribes: “Un buen candidato es joven, proactivo, con buena presencia.” Aunque no lo digas directo, ya hay tres sesgos:
Edad (joven),
Subjetividad (proactivo puede ser interpretado de muchas formas),
Apariencia (¿qué significa buena presencia?).
La IA tomará eso literalmente. Si alguien no encaja en ese molde, lo va a descartar o subestimar.
¿Dónde se mete el sesgo?
⦿ En los prompts (las instrucciones que tú le das para que responda).
⦿ En los documentos tipo guía o manual que usas para entrenar.
C. Cuando usas datos históricos sin filtrar (como enseñarle con libros viejos y prejuiciosos)
Muchas veces se cargan evaluaciones pasadas de entrevistas como material de entrenamiento. Pero si esas evaluaciones tienen comentarios como:
“No me dio buena espina.”
“Es mamá soltera, puede que no tenga tiempo.”
“Muy callado, no encaja en cultura.”
Entonces el asistente aprende que esas frases están bien, y empieza a repetir esos criterios para decidir. Y ahí es donde el sesgo se vuelve peligroso: empieza a parecer “objetivo”, pero en realidad aprendió de prejuicios pasados.
¿Dónde se mete ese sesgo?
⦿ En tus bases de datos históricas de candidatos.
⦿ En documentos viejos que subiste como “material de referencia”.
3. ¿Cómo evitar que el asistente repita prejuicios?
Aquí vienen las peritas buenas: soluciones prácticas y claras que tú puedes aplicar sin ser experto en IA.
A. Revisa la información y datos con que entrenas a la IA o “le das de comer” (como revisar el lunch).
Antes de subir documentos o ejemplos, asegúrate de que haya variedad:
¿Incluyes perfiles de distintos géneros?
¿Hay personas mayores de 45 años?
¿Hay egresados de universidades diversas?
¿Incluyes trayectorias fuera de lo común (ONGs, emprendedores, madres que regresan al trabajo)?
También elimina frases subjetivas como “carismático”, “con buena presencia”, “joven”, “perfil dinámico”. Cámbialas por cosas concretas como “habilidades de comunicación”, “capacidad de adaptación”, “experiencia relevante”.
B. Agrega reglas claras al asistente.
Tú puedes indicarle al sistema frases como:
“No discrimines por edad, género, universidad o estado civil.”
“Evalúa por competencias técnicas y habilidades comprobables.”
“Da siempre dos opciones diversas y argumentadas.”
Eso lo puedes hacer desde los prompts, o en las instrucciones del entrenamiento. Si no se lo dices, el asistente hace lo que aprendió. Si se lo dices, lo corrige.
C. Simula antes de lanzarlo “en vivo”.
Antes de dejar que el asistente entreviste, filtre o recomiende candidatos reales, hazle pruebas.
Pregúntale:
¿Qué opinas de esta mujer de 50 años para un rol de liderazgo?
¿Qué universidades sueles preferir?
¿Por qué rechazaste este currículum?
Si la respuesta suena sesgada o injusta, es momento de revisar los documentos que le diste.
4. ¿Y si uso un ATS, ChatGPT o asistentes personalizados?
Aquí te decimos con peritas y manzanitas quién tiene la responsabilidad y dónde se mete el sesgo.
A. Si usas un ATS (como OCC, Greenhouse, Zoho Recruit…)
¿Dónde se mete el sesgo?
⦿ En los filtros que tú eliges (“menor de 35”, “inglés avanzado”, “universidad X”).
⦿ En las palabras clave que defines.
⦿ En los pesos que asignas (ej. más puntos por MBA, menos por experiencia en ONGs).
¿De quién es la responsabilidad?
Del reclutador. El ATS no piensa: solo ejecuta lo que tú programaste.
B. Si usas ChatGPT o Copilots.
¿Dónde se mete el sesgo?
⦿ En los prompts que tú escribes (“ayúdame a encontrar un perfil joven y dinámico”).
⦿ En los ejemplos que le das para aprender.
¿De quién es la responsabilidad?
Tuya. ChatGPT responde según lo que tú le pides o le muestras.
C. Si usas asistentes entrenados con PDFs, RAGs o GPTs personalizados
¿Dónde se mete el sesgo?
⦿ En los documentos de entrenamiento que subiste.
⦿ En los ejemplos históricos no filtrados.
⦿ En las instrucciones que diseñaste mal.
¿De quién es la responsabilidad?
Tuya o del equipo de RRHH. El sistema no tiene ética si tú no se la enseñas.
Conclusión: la Inteligencia Artificial no es objetiva por sí sola… ¡hay que enseñarle bien!
La IA es como un espejo de lo que tú le das. Si le das documentos con prejuicios, va a repetir prejuicios. Si le das instrucciones poco claras, va a actuar como le parezca. Pero si le das datos diversos, reglas justas y pruebas con criterio, puede ayudarte a mejorar mucho tus procesos de selección.
No necesitas ser experto en IA. Solo necesitas ser muy consciente de lo que le estás enseñando. Como si educaras a alguien nuevo en tu equipo. La ética la pones tú, no la máquina.