Con los avances en inteligencia artificial los sistemas de reconocimiento facial han proliferado. Se han desarrollado muchos servicios para identificar a personas en las multitudes, analizar sus emociones y detectar su género, edad, raza y características faciales. Ya se utilizan con una gran variedad de propósitos: desde contratar o mejorar sistemas de marketing hasta aspectos relacionados con seguridad y vigilancia.
Sin embargo, a pesar de los amplios esfuerzos para mejorar su fiabilidad, los estudios demuestran que los algoritmos de aprendizaje automático pueden discriminar según el género y la raza. También bajan su rendimiento en personas trans y no son capaces de clasificar a personas no binarias. Además, elementos como el maquillaje tienen un alto impacto en la precisión de los sistemas.
Los algoritmos de aprendizaje automático (Machine Learning) establecen patrones tras procesar grandes cantidades de datos. Son como estudiantes en un colegio: aprenden del libro de texto (información con la que se les entrena para que generen reglas de inferencia) y del profesorado (quien decide qué temas entrarán en el examen y les dice a sus estudiantes qué parámetros son importantes). Su limitación es que se pueden cargar de sesgos en varios puntos y de varias maneras.
La primera casuística se da cuando la realidad de la que aprenden está ya llena de prejuicios. La segunda, cuando les enseñamos solo una parte que no es representativa, que hace que los algoritmos piensen que esa es la única realidad. Otro punto de perversión se puede introducir durante la etapa de preparación de datos y la selección de modelos, cuando se hacen las preguntas equivocadas o se toman en consideración los parámetros erróneos.
Seguir leyendo: The Conversation