Inteligencia Artificial Razones para prohibir el reconocimiento de emociones cuanto antes

 

Selección

Quizá haya oído hablar de sistemas de inteligencia artificial (IA) capaces de realizar entrevistas de trabajo. Puede que incluso usted mismo ya haya sido entrevistado por una. Algunas empresas como HireVue afirman que su software es capaz de analizar entrevistas en vídeo para determinar el «nivel de empleabilidad« de cada candidato. Estos algoritmos no solo se fijan en las expresiones y en la postura, también indican a los empleadores si el entrevistado es tenaz o bueno para trabajar en equipo, una evaluación que podría podrían influir mucho en el futuro de un candidato. En EE. UU. y Corea del Sur, donde la contratación asistida por IA se ha vuelto muy popular, los consultores laborales han empezado a preparar a sus clientes para que sepan abordar una entrevista liderada por un algoritmo. Este tipo de tecnología también se está implementando en las aulas escolares y ya se ha utilizado en distintos estudios para detectar mentiras en vídeos en las salas del poder judicial.

Pero muchas de las cosas que prometen estos sistemas de IA no cuentan con ningún tipo de respaldo científico. No existen estudios sólidos ni revisados por expertos que demuestren que analizar la postura corporal o las expresiones faciales ayuda a identificar a los mejores candidatos (en parte porque las empresas no revelan sus métodos). Como resultado, todo el bombo alrededor del reconocimiento de emociones, cuya industria se prevé que superará los 23.000 millones de euros para 2023, ha provocado el rechazo de los especialistas en ética tecnológica y de los activistas. Todos ellos temen que esta tecnología genere el mismo tipo de problemas de discriminación que las condenas predictivas y los algoritmos que deciden a quién alquilar un inmueble.

La creciente popularidad de la tecnología también preocupa a los investigadores. Muchos coinciden en que su trabajo, en el que utilizan varias técnicas (como análisis de microexpresiones y de la voz) para distinguir e interpretar las expresiones humanas, se está incorporando y utilizando con fines comerciales que no se basan en la ciencia. Creen que la falta de regulación gubernamental no solo es mala para los usuarios. También lo es para ellos.

Seguir leyendo:  Angela Chen

Vistas:

387