Image
9 minutos de lectura ( 1734 palabras)
Destacado


Una IA imperfecta en un mundo desigual: desafíos y propuestas

¡Hola a todos y bienvenidos a este espacio donde exploramos el fascinante cruce entre la tecnología y el mundo del trabajo!

Este verano pasado he tenido el placer de participar en los Cursos de Verano de la Universidad Pablo Olavide (UPO), en Carmona (Sevilla). El curso se tituló "Introducción a la inteligencia artificial y su impacto en el empleo" (23-24 junio 2025). Este artículo es un resumen de mi ponencia "Una Inteligencia Artificial imperfecta en un mundo desigual. Riesgos y desafíos del uso de algoritmos en el mundo del trabajo".

¿Reemplazará la IA a las personas? ¿Perderemos esa "chispa" humana?

Vamos a ver las complejidades que tiene el tema de la Inteligencia Artificial que, si bien ofrece un potencial transformador para el futuro del trabajo, también presenta imperfecciones y desafíos inherentes. Los sesgos en los datos, los modelos y el diseño humano pueden replicar y amplificar desigualdades preexistentes, convirtiendo a la IA en un reflejo de nuestro "mundo desigual". Automatizar sin un pensamiento crítico y una vigilancia constante no solo reproduce injusticias, sino que las disfraza bajo una supuesta neutralidad técnica que, simplemente, no existe.

Obtenida de Shutterstock

Riesgos y Consecuencias de una IA Desigual en el Ámbito Laboral 

La integración de la Inteligencia Artificial en los procesos laborales, sin un marco ético y regulatorio sólido, conlleva una serie de riesgos significativos que pueden exacerbar las desigualdades existentes y redefinir las dinámicas de poder en el trabajo. 

Es crucial entender que la IA es inherentemente imperfecta y, en ocasiones, sesgada. Sus algoritmos, aunque potentes y útiles, pueden cometer errores no solo técnicos, sino también por interpretaciones erróneas de quienes los diseñan y "gestionan". Este hecho es especialmente problemático cuando se busca automatizar cuestiones relacionadas con el bienestar social.

Ganadores y perdedores: la automatización selectiva y desigual.

La implementación de la IA puede generar una automatización que, en lugar de beneficiar a todos, crea "ganadores y perdedores".

Esta selectividad se manifiesta en una disparidad de los beneficios del cambio tecnológico, donde ciertos sectores o tipos de empleo se ven más favorecidos mientras otros sufren una desvalorización o precarización. Por ejemplo, estudios como el de Randstad Research (2024) estiman un efecto neto ligeramente negativo en el empleo en España, con una pérdida potencial de unos 400.000 empleos en los próximos diez años. Además, la UGT (2025) advierte sobre la posible degradación en la calidad del empleo, indicando una correlación entre el aumento de la automatización y un descenso en los salarios (un 4,3% de disminución salarial por cada 10 puntos porcentuales de automatización). La OIT viene también alertando en diferentes lugares que la automatización afectará más a las mujeres, lo que podría incrementar las desigualdades de género en el mercado laboral. 

Exclusión y discriminación algorítmica en los procesos laborales.

Uno de los riesgos más críticos es la capacidad de los algoritmos para reproducir y amplificar sesgos y prejuicios existentes en la sociedad.

La IA, al aprender de datos históricos que pueden contener discriminaciones pasadas, podría generar procesos de selección, evaluación o gestión del personal que excluyan o discriminen a ciertos grupos de trabajadores. Un informe de CCOO (2025) señala que los sistemas algorítmicos complejos, por su propia naturaleza, tienden a reproducir las discriminaciones existentes. Por ejemplo, si un algoritmo de promoción se entrena con datos históricos donde la mayoría de los promocionados han sido hombres, es probable que siga recomendando predominantemente a hombres, perpetuando el sesgo.

Fragmentación y desprotección del vínculo laboral.

La adopción de la IA, especialmente en el ámbito de las plataformas digitales, puede contribuir a la fragmentación del vínculo laboral y a la desprotección de los trabajadores. España, de hecho, tiene la tasa más alta de trabajadores en plataformas digitales de Europa, con un 2,6% de la población activa dedicándose a ello de forma principal y hasta un 18% de manera esporádica.

Estas plataformas, gestionadas por algoritmos, actúan como "mercados de trabajo virtuales y globales donde se 'compran' y 'venden' fragmentos de trabajo" (Rodríguez Fernández, 2024), diluyendo la relación tradicional empleador-empleado. Además, los sistemas de monitoreo basados en Inteligencia Artificial pueden rastrear las actividades de los empleados invadiendo la privacidad y generando desconfianza, lo que agrava la precarización y dificulta la defensa de derechos laborales en la búsqueda de una IA Justa para todos.

Hacia una IA justa, transparente e inclusiva: propuestas para su diseño y uso

Para contrarrestar los riesgos de una Inteligencia Artificial imperfecta y asegurar que beneficie a todos en el trabajo, es imprescindible implementar estrategias proactivas que promuevan la justicia, la transparencia y la inclusión desde el diseño hasta el uso de la IA en la negociación colectiva y en el día a día laboral. El camino hacia una IA Justa no es solo técnico, sino profundamente ético y social. Aquí planteo solo algunas ideas:

1. Democratización del diseño y uso de la IA. Para que la IA sea verdaderamente equitativa, su diseño y evaluación no pueden ser un proceso cerrado, relegado únicamente a expertos tecnológicos. Es esencial incluir otras voces en el diseño y evaluación de sistemas de IA. Esto implica la creación de comités éticos interdisciplinares y participativos en empresas e instituciones públicas, asegurando que perspectivas diversas —desde trabajadores y sus representantes hasta sociólogos y expertos en ética— influyan en cómo se desarrollan y despliegan los algoritmos.

2. Regulación ética y jurídica. La autorregulación no es suficiente para garantizar la equidad en el uso de la IA. Es imperativo aplicar marcos normativos como la Ley Europea de IA [Reglamento (UE) 2024/1689] para controlar sistemas digitales de alto riesgo

La Ley Europea de IA prohíbe explícitamente prácticas consideradas una amenaza inaceptable para los derechos y la seguridad, tales como:

  • La manipulación y el engaño perjudiciales basados en IA.
  • La explotación nociva de vulnerabilidades (por edad, discapacidad, situación económica).
  • La clasificación (perfilado) social discriminatoria.
  • La inferencia de emociones en lugares de trabajo y centros educativos.

3. Transparencia e información algorítmica. El derecho a entender cómo una IA toma decisiones es fundamental en la construcción de una IA justa. Es crucial garantizar el derecho a entender y apelar decisiones automatizadas y establecer mecanismos de trazabilidad de los algoritmos y sus criterios de decisión.

Esto se traduce en la obligación de las empresas de "informar sobre el uso de IA en procesos laborales", según el Artículo 64.4.d del Estatuto de los Trabajadores. Esta información debe ser clara, simple y comprensible, incluso para personas sin conocimientos técnicos.

La transparencia algorítmica se convierte así en un principio operativo que articula derechos fundamentales como la dignidad, la no discriminación y la protección de datos personales. En España, las empresas deben consultar a los representantes legales de los trabajadores sobre la introducción de algoritmos para la gestión de personas y, en muchos casos, realizar una evaluación de impacto, conforme al Artículo 35 del RGPD. Este marco busca redefinir el equilibrio de poder en el entorno laboral digital, devolviendo protagonismo y control a los trabajadores frente a sistemas automatizados.

4. Educación crítica y alfabetización algorítmica. La comprensión de la IA es una necesidad básica para todos los ciudadanos y trabajadores. Es fundamental introducir formación sobre IA, sesgos y derechos digitales en escuelas y formación profesional.

Esta alfabetización algorítmica debe ir más allá del mero uso de la tecnología, buscando capacitar a trabajadores y ciudadanía para identificar usos problemáticos de IA y fomentar el pensamiento crítico frente a la supuesta neutralidad de los algoritmos.

5. Y además… Revalorización del trabajo humano. En un mundo donde la automatización avanza, es esencial recordar y proteger el valor intrínseco del trabajo humano. Debemos evitar la automatización de tareas que requieren empatía, juicio ético o responsabilidad humana.

Asimismo, es crucial reconocer y proteger a quienes entrenan o supervisan la IA, como los etiquetadores de datos o moderadores de contenido. Estos roles, a menudo invisibles, son fundamentales para el funcionamiento y la calidad de la Inteligencia Artificial, y su trabajo puede tener un impacto significativo en su salud mental.

La transición hacia un entorno laboral permeado por la Inteligencia Artificial no carece de obstáculos. Más allá de la promesa de eficiencia, persisten desafíos fundamentales que exigen nuestra atención en el diseño de un futuro del trabajo equitativo. La complejidad de los sesgos algorítmicos, inherentes a los datos, los modelos y el diseño humano, representa una barrera significativa. Automatizar sin pensamiento crítico es reproducir y amplificar las desigualdades y las injusticias del pasado y el presente bajo el disfraz de una neutralidad técnica e infalible que no existe.

Sin una gobernanza adecuada, la IA podría exacerbar las divisiones sociales y laborales existentes. En esencia, la IA no es meramente una cuestión tecnológica; es intrínsecamente una cuestión política y social, que exige un equilibrio delicado entre la innovación y una vigilancia crítica. Necesitamos construir alternativas que pongan la dignidad humana en el centro de nuestra sociedad.

El panorama que acabamos de describir no nos condena a la pasividad. Hemos delineado propuestas concretas que van desde la democratización del diseño y una regulación ética, hasta la transparencia algorítmica y el fortalecimiento de la acción colectiva. La educación crítica y la revalorización del trabajo humano son pilares para asegurar que la tecnología sirva a la dignidad y la justicia social.

Entonces, la pregunta clave es: ¿estamos dispuestos, como sociedad, a combinar la innovación de la IA con la vigilancia crítica necesaria para construir un futuro del trabajo donde la dignidad humana y la justicia social sean los verdaderos algoritmos que guíen nuestro camino?

Si el tema te ha resultado interesante, apoya este proyecto compartiendo el artículo en tus redes sociales. También considera suscribirte al blog para mantenerte al día con las últimas novedades que vaya publicando sobre la Inteligencia Artificial y el Futuro del Trabajo.

¡Gracias por ser parte de esta conversación! Tu compromiso nos ayuda a seguir construyendo el camino hacia un futuro del trabajo más inteligente, equitativo y humano.

Artículos relacionados

Al aceptar, accederá a un servicio proporcionado por un tercero externo a https://www.trabajo4cero.com/