La transformación digital del área de Recursos Humanos es imparable y el uso de la Inteligencia Artificial crece exponencialmente. El mercado ofrece soluciones para la gestión del talento, de las nóminas, del control horario… Incluso, software para facilitar a los responsables de esta área la selección de personal. Pero, ¿cómo aumentar nuestra productividad con la IA sin caer en sesgos o prácticas poco éticas?
En el modelo tradicional, los procesos de selección de personal solían depender en gran medida de la revisión manual de currículums, entrevistas en persona y la intuición de los reclutadores.
Este enfoque, aunque familiar, era propenso a sesgos inconscientes y limitaciones de tiempo. Los reclutadores se veían obligados a revisar meticulosamente cada currículum vitae y a confiar en su propio juicio para tomar decisiones de contratación.
Una metodología costosa y trabajosa, especialmente en empresas donde las contrataciones mensuales son numerosas, o los procesos de selección son largos y con numerosos filtros.
El uso de la IA en los procesos de selección
Con la llegada de soluciones basadas en IA, los procesos de selección se han vuelto más eficientes y sofisticados. Los algoritmos de IA pueden analizar grandes volúmenes de datos de manera rápida y objetiva, identificando patrones y cualidades relevantes en los candidatos.
Desde la revisión automática de currículums hasta la evaluación del lenguaje corporal en entrevistas virtuales, la IA ha revolucionado la forma en que se lleva a cabo el reclutamiento.
Además, las herramientas de IA pueden ayudar a los reclutadores a identificar a los candidatos más adecuados para un puesto específico de manera más rápida y precisa, lo que ahorra tiempo y recursos.
Una tendencia que no hace más que crecer. En poco menos de un año, el uso de la Inteligencia Artificial para realizar procesos de selección de personas ha pasado de un 5% (según un estudio de Infojobs) al 15%, según resultados de la encuesta realizada por Randstad Research a empresas españolas.
Riesgos y sesgos asociados al uso de la IA
Sin embargo, junto con estas mejoras, el uso de la IA en los procesos de selección también plantea desafíos éticos y de inclusión. Existen riesgos de sesgos algorítmicos que pueden discriminar a los candidatos por género, edad o etnia. Además, la falta de transparencia en el funcionamiento de estos algoritmos puede comprometer la privacidad y la confidencialidad de los datos personales de los aspirantes.
Algo que preocupa a Europa y por lo que ha creado una nueva normativa que nos advierte de las graves consecuencias económicas de una mala praxis, que entre otras actuaciones no vele por la protección de los datos personales, la intimidad y la no discriminación de los trabajadores.
Para abordar estos riesgos, Europa ha clasificado las prácticas de riesgo en tres categorías:
Inadmisibles: Estas incluyen sistemas de IA que violan los derechos fundamentales, como los sistemas de reconocimiento de voz o análisis del lenguaje corporal para realizar entrevistas. Tales prácticas representan una clara violación de la privacidad y la dignidad de los candidatos.
Prácticas de Alto Riesgo: Estos son sistemas de IA destinados para la contratación o selección de personas físicas que pueden conllevar sesgos discriminatorios. Es esencial abordar estos sesgos para garantizar la equidad en los procesos de selección.
Prácticas de Riesgo Limitado: Incluyen el uso de chatbots como primer contacto con los candidatos a modo de evaluación y sin avisar. Aunque pueden ser útiles, es crucial que se utilicen de manera transparente y ética para evitar sorpresas desagradables para los aspirantes.
Lectura recomendada
Consejos para un uso ético y responsable de la tecnología
Para mitigar estos riesgos y aprovechar el potencial de la IA de manera ética y responsable, es fundamental seguir pautas como la transparencia en el proceso de selección, la promoción de la diversidad e inclusión, la supervisión humana de los algoritmos y el cumplimiento de las regulaciones de protección de datos:
Transparencia: Las empresas deben ser transparentes sobre el uso de IA en sus procesos de selección, informando a los candidatos sobre cómo se utilizan sus datos y cómo se toman las decisiones.
Diversidad e inclusión: Es crucial garantizar que los algoritmos de IA sean entrenados con datos diversos y representativos para evitar sesgos discriminatorios y promover la diversidad en el lugar de trabajo.
Supervisión Humana: Aunque la IA puede automatizar gran parte del proceso de selección, es importante contar con la supervisión humana para garantizar la imparcialidad y corregir posibles sesgos algorítmicos.
Protección de Datos: Las empresas deben cumplir con las regulaciones de protección de datos, como el Reglamento General de Protección de Datos (RGPD) en Europa, para garantizar la privacidad y seguridad de la información personal de los candidatos.
Para resumir, podemos decir que el uso de la inteligencia artificial en los procesos de selección de personal ha marcado un hito en la gestión de recursos humanos, ofreciendo eficiencia y objetividad. Sin embargo, conlleva desafíos éticos que deben abordarse con responsabilidad y cuidado.
La normativa europea advierte sobre las consecuencias de una mala praxis en este ámbito, subrayando la importancia de proteger los derechos fundamentales, la privacidad y la no discriminación de los trabajadores. Para garantizar un uso ético y responsable de la tecnología, es esencial priorizar la transparencia, promover la diversidad e inclusión, supervisar el proceso con atención humana y cumplir estrictamente con las regulaciones de protección de datos.
Al seguir estas pautas, podemos aprovechar al máximo el potencial de la IA en los procesos de selección, asegurando al mismo tiempo un entorno laboral justo y equitativo para todos.