


Seguro que recuerdas como yo esa sensación de pulsar el botón de "Enviar candidatura" en un portal de empleo una década antes, o más. Imaginábamos que, al otro lado, una persona experta en Recursos Humanos leería con atención nuestra trayectoria, valorará nuestra formación y nuestra experiencia profesional que tanto nos costó acumular y, quizás, detectaría nuestro potencial más allá de las palabras escritas.
Sin embargo, la realidad en 2026 es muy distinta. Antes de que cualquier ojo humano se pose sobre tu currículum, es muy probable que ya hayas sido descartado. Y no por falta de talento, sino por una decisión matemática tomada en milisegundos, que definimos como inteligente.
Vivimos en la era del Algorithmic Management aplicado a la selección, o como gusta a los amigos del neolenguaje, atracción del talento. Ante la avalancha de candidaturas digitales, las empresas han entregado las llaves de entrada al mercado laboral a los Sistemas de Seguimiento de Candidatos (ATS) y a complejos algoritmos de inteligencia artificial. La promesa es seductora para cualquier manager: eficiencia, velocidad y reducción de costes. Nos venden la idea de una meritocracia de datos, libre de los prejuicios subjetivos del reclutador tradicional.
Pero, como sociólogo y observador crítico de estas dinámicas, planteo que esta eficiencia -a veces solo es una apariencia, un espectro- no es sinónimo de justicia ni equidad ni siquiera de mejora de la productividad. Lo que a menudo nos encontramos es una "caja negra" que no elimina los prejuicios humanos, sino que los automatiza, los amplifica y, lo que es más peligroso, los esconde bajo una capa de supuesta neutralidad tecnológica. ¿Me acompañas para abrir esta caja? Lo vamos a hacer desde difeentes miradas que confuyen en una misma idea: ¡La IA nunca debe ser el árbitro final que decide sobre el potencial de las personas!
Es innegable que la función de Recursos Humanos se enfrenta a un desafío de volumen. Las empresas reciben multitud de solicitudes para cada puesto que ofertan a lo largo del año. Gestionar ese flujo ingente es inviable para los recursos que el área de gestión de personas posee en la inmensa mayoría de casos. Aquí es donde la IA entra como el gran salvador, prometiendo separar la paja del trigo al instante y proveernos del mejor candidato/a.
Sin embargo, esta eficiencia de los sistemas de IA, desde los analizadores de palabras clave hasta las más novedosas herramientas de análisis facial en las videoentrevistas, operan bajo una lógica de correlación, no de causalidad. Buscan patrones que coincidan con el "éxito histórico" de la empresa. ¡Y aquí radica la trampa! Si una empresa ha contratado históricamente a hombres blancos de entre 30 y 40 años procedentes de tres carreras universitarias concretas para sus puestos directivos, el algoritmo aprenderá que esos son los rasgos del "éxito". No importa que la IA no tenga instrucciones explícitas de discriminar por género, edad u origen nacional; encontrará variables proxy (códigos postales, deportes practicados, vocabulario utilizado,) que correlacionan con esos grupos demográficos.
Al buscar la eficiencia máxima replicando patrones pasados, estamos, en esencia, clonando el pasado. La herramienta diseñada para encontrar al mejor talento se convierte, paradójicamente, en una máquina de homogeneización que rechaza lo diferente, lo atípico o lo que no encaja en el molde predefinido de la "cultura corporativa" histórica.
Para el candidato, el proceso búsqueda de empleo se ha vuelto opaco y deshumanizado. Es lo que en sociología se denomina como asimetría de poder algorítmico.
Imagina que eres rechazado para un puesto para el que estás perfectamente cualificado. ¡Seguro que te ha pasado alguna vez o le ha pasado a alguien cercano! Antes lo podías explicar por la subjetividad del entrevistador/a que era un/a borde, o por la gran cantidad de candidaturas que había para cubrir ese puesto deseado. Hoy, el rechazo llega a menudo en pocos minutos de enviar el archivo. ¿Por qué? ¿Fue el formato de tu PDF? ¿Fue un hueco de seis meses en tu vida laboral debido a cuidados familiares? ¿O fue que el algoritmo de análisis de voz en tu videoentrevista determinó que tu tono no denotaba suficiente "liderazgo"?
El problema es la opacidad. Muchos de estos sistemas operan mediante Deep Learning (aprendizaje profundo), creando redes neuronales tan complejas que ni siquiera sus programadores pueden explicar exactamente qué peso tuvo cada variable en la decisión final.
Esto genera una situación de indefensión jurídica y moral. El candidato no puede defenderse, ni rectificar, ni aprender, porque no sabe por qué ha sido juzgado como "no apto". Se convierte en un objeto pasivo de análisis, despojado de humanidad o agencia. Estamos creando una clase de trabajadores ocultos, opacos para los algoritmos: personas con talento que son sistemáticamente invisibilizadas por filtros rígidos que no entienden de contextos humanos, como las pausas por maternidad, las enfermedades o los periodos de reorientación profesional.
Como vengo escribiendo en otros artículos, debemos partir de un hecho: el uso de la tecnología en las organizaciones no es neutral. Los algoritmos producen opiniones y toman decisiones basadas en datos que arrastran dos siglos de desigualdad estructural.
Algunos estudios recientes y auditorías algorítmicas en las empresas están demostrando cómo estos sistemas pueden discriminar de formas sutiles pero devastadoras:
a) Sesgo de género en el lenguaje: Los algoritmos de procesamiento de lenguaje natural (NLP) suelen penalizar currículums que usan términos más asociados a lo "femenino" (colaboración, apoyo) frente a términos "masculinos" (liderazgo, conquista), especialmente en sectores STEM.
b) Discriminación por clase y origen: El uso de la IA para analizar la "adecuación cultural" a menudo se traduce en favorecer a candidatos con ciertos hobbies o trayectorias educativas elitistas, o que residen en determinadas localidades o códigos postales, filtrando a aquellos que provienen de entornos socioeconómicos más bajos, aunque tengan las habilidades técnicas requeridas.
c) La falacia de la emoción: Algunas herramientas de IA pretenden analizar microexpresiones faciales para deducir rasgos de personalidad o honestidad. La comunidad científica ha alertado repetidamente de que esto es pseudociencia digital. No hay evidencia universal que vincule expresiones faciales con estados internos o competencias laborales, y estos sistemas suelen fallar estrepitosamente con personas neurodivergentes o de diferentes orígenes culturales(Barrett et al., 2019).
Al delegar la decisión en la máquina bajo la excusa de la "objetividad matemática", las empresas están lavándose las manos de su responsabilidad social, perpetuando brechas de desigualdad bajo un barniz de modernidad.
El panorama no es de total impunidad. La Unión Europea ha dado un paso al frente con el Reglamento de Inteligencia Artificial, del cual ya hemos tratado en este blog, marcando una línea roja importante. Al clasificar los sistemas algorítmicos de reclutamiento como de Alto Riesgo, se envía un mensaje claro: no se puede jugar con los medios de vida de las personas.
Esto impone deberes estrictos a las empresas, tanto desde la alta dirección como desde el área de RRHH:
Sin embargo, la ley va siempre un paso por detrás de la tecnología. La responsabilidad ética de los directivos y profesionales de RRHH debe ir más allá del cumplimiento normativo. Debemos preguntarnos: ¿Queremos que nuestra empresa sea construida por un algoritmo que busca el mínimo riesgo y la máxima homogeneidad? ¿O queremos construir equipos diversos, resilientes y humanos?
A modo de conclusión podemos confirmar que la Inteligencia Artificial tiene un potencial enorme para ayudarnos en la atracción de talento en nuestras organizaciones. Puede ayudarnos a procesar volúmenes inmanejables de información, a redactar mejores descripciones de puesto de trabajo, o a organizar procesos. ¡Pero nunca debe ser el árbitro final que decide sobre el potencial de las personas!
Hemos de abandonar la fantasía de que la tecnología resolverá el difícil y sucio problema de los sesgos humanos por sí sola. De hecho, si no tenemos cuidado, los cristalizará en código, haciéndolos mucho más difíciles de detectar y erradicar.
Para los directivos y responsables de gestión de personas, el mensaje es claro: utilizad la IA como una linterna para buscar talento donde antes no podíais ver, no como un muro para dejar fuera a quien no se parece a vosotros. La verdadera inteligencia en la selección de personal sigue siendo, y debe ser, profundamente humana, empática y consciente de sus propios sesgos para poder corregirlos. No dejemos que el algoritmo decida quién merece una oportunidad.
¿Y tú? ¿Has sentido alguna vez que te descartaba una máquina? ¿En tu empresa confiáis ciegamente en el scoring que os da el software?
Si crees que necesitamos un futuro del trabajo más justo y menos opaco, comparte este artículo en tus redes profesionales. Ayúdanos a abrir la caja negra. También te animamos a visitar otros artículos relacionados donde profundizamos en temáticas clave para profesionales, líderes y académicos interesados en la transformación del trabajo. Y si quieres seguir profundizando en cómo la tecnología está reescribiendo las reglas del juego laboral, suscríbete al blog. Aquí, las personas siempre van antes que el código.
Barrett et al. (2019). Emotional Expressions Reconsidered: Challenges to Inferring Emotion From Human Facial Movements.
Bender et al. (2021). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?
Comisión Europea. (2024). Reglamento de Inteligencia Artificial (EU AI Act).
Fuller, J., et al. (2021). Hidden Workers: Untapped Talent. Harvard Business School & Accenture.
High-Level Expert Group on AI. (2019). Ethics Guidelines for Trustworthy AI. European Commission. Descargable en español
Al aceptar, accederá a un servicio proporcionado por un tercero externo a https://www.trabajo4cero.com/