Daniel Martín
By Daniel Martín on septiembre 03, 2024

El impacto de la ética en el uso de la IA en Recursos Humanos

La implementación de la inteligencia artificial (IA) en los recursos humanos (RR.HH.) está transformando radicalmente la manera en que las empresas gestionan la contratación, el desarrollo y la retención del talento. Sin embargo, esta tecnología también plantea importantes desafíos éticos y prácticos que deben ser abordados para garantizar un uso justo y efectivo. 

A continuación, exploramos varios aspectos críticos del impacto de la IA en RR.HH., desde la equidad en los procesos de selección hasta la privacidad de los datos y la necesidad de supervisión humana para evitar sesgos y errores.
 

1. Equidad y no discriminación en los procesos de selección 

 
Uno de puntos más controvertidos que el uso de la IA aplicado a Recursos Humanos está atrayendo es la posibilidad de incurrir en sesgos de equidad durante la contratación de personal.  

No hay que olvidar, que la IA es una herramienta entrenada por humanos, y, como tal, puede cometer los mismos errores con los que tropezamos. Si, como sucede, las empresas no contratan personas racializadas, o mujeres para determinados puestos de trabajo, es imposible que la herramienta te proporcione otro resultado para el que no ha estado entrenado. 

Un caso muy claro y controvertido al mismo tiempo es la creencia que los software de video entrevistas con IA no poseen ningún tipo de sesgo. No hay evidencia clara de que las señales no verbales, como las expresiones faciales o el tono de voz, sean predictores confiables del desempeño laboral.

Las personas expresan emociones y reacciones de manera muy diversa, lo que hace difícil estandarizar las evaluaciones basadas en datos no verbales.


2. Privacidad y confidencialidad.

El uso de inteligencia artificial (IA) en recursos humanos (RR.HH.) plantea importantes preocupaciones en torno a la privacidad y la confidencialidad de los datos de los empleados y candidatos. Estas preocupaciones son fundamentales para el funcionamiento ético de la IA, ya que el manejo inadecuado de información personal puede llevar a consecuencias legales, éticas y de reputación. 

Es crucial que los empleados y candidatos den su consentimiento informado para la recolección y uso de sus datos, entendiendo claramente cómo se utilizarán. Además, los datos deben almacenarse en sistemas seguros que protejan contra accesos no autorizados y brechas de seguridad.
 

3. Transparencia en las decisiones basadas en datos.

¿Es posible confiar completamente en la automatización proporcionada por la inteligencia artificial? Esta pregunta representa uno de los dilemas éticos más evidentes que trae consigo esta tecnología. El desafío radica en determinar qué actividades pueden ser gestionadas por una IA y asegurar la transparencia en estos procesos.

En el ámbito de Recursos Humanos, los profesionales deben mantener a los empleados y candidatos bien informados sobre los procesos automatizados con IA que se implementan en la empresa y cómo funcionan.

Por ejemplo, en los procesos de selección, es fundamental que Recursos Humanos informe claramente sobre el uso de la inteligencia artificial, los datos que se recopilarán y cómo se utilizarán estos datos para tomar decisiones.
 

4. Impacto en el empleo.

Es indudable que la IA está transformando el panorama laboral y creando nuevos roles y trabajos que anteriormente no existían. Desde expertos en crear modelos de aprendizaje automático que pueden predecir, clasificar y tomar decisiones basadas en dato, hasta el usa de la IA para identificar necesidades de formación y desarrollo en los empleados, creando programas personalizados.

En este sentido, es fundamental que los responsables de recursos humanos y de reclutamiento no dejen de lado a sectores vulnerables de la población, como personas más mayores que no estaban tan acostumbradas al uso de nuevas tecnologías. Falta apoyo y comprensión para de verdad usar de forma ética la IA en Recursos Humanos. 
 

5. Ir más allá y supervisar la IA.

La transparencia es crucial para garantizar la equidad y la responsabilidad en el uso de la inteligencia artificial (IA) en la selección de personal. Las organizaciones deben implementar procesos de supervisión claros y rigurosos para revisar y validar las decisiones tomadas por los algoritmos, asegurando que las decisiones importantes no se deleguen completamente a la IA. Esto es particularmente relevante en el contexto legal y regulatorio, como se observa en la legislación española.

Ana Valera, experta en Data Analytics y consultora externa en People Analytics en OpenHR, realizó una demostración con ChatGPT para mostrar la necesidad de la intervención humana en la IA. Durante la sesión Vamos a jugar con la IA  simuló un proceso de reclutamiento introduciendo tres currículums, incluyendo dos idénticos con nombres diferentes (un hombre y una mujer). La IA clasificó al hombre en primer lugar y a la mujer en tercer lugar, a pesar de tener ambos la misma trayectoria profesional, formación y habilidades, sorprendiendo a los directivos presentes.

Por ejemplo,  hoy la IA se utiliza para predecir fenómenos como la rotación de empleados o el desgaste, a partir de variables como el descontento, desmotivación o falta de compromiso laboral. Pero este enfoque predictivo puede quedarse solo en la superficie del problema, sin el contexto adecuado.