Inteligencia artificial, ¿infectada por sesgos racistas y sexistas?

Estudios y acontecimientos recientes revelan que el racismo se puede codificar y reflejar en las inteligencias artificiales.

Fotos: Cortesías
Fotos: Cortesías

PARÍS, Francia. El caso de un afroamericano detenido por un error en un programa de reconocimiento facial reavivó la preocupación sobre los riesgos de sesgo en la inteligencia artificial, en medio de una ola de protestas contra el racismo y la violencia policial.

El caso se remonta a principios de enero: Robert Williams fue arrestado en Detroit y pasó 30 horas detenido porque un programa concluyó erróneamente que la foto de su licencia de conducir y la imagen de un ladrón de relojes capturada por las cámaras de vigilancia eran idénticas.

Según la Unión Americana de Libertades Civiles (ACLU), que presentó una denuncia en su nombre el 24 de junio, "aunque es el primer caso conocido, probablemente no sea la primera persona que ha sido detenida e interrogada erróneamente sobre la base de un problema de reconocimiento facial".

Para Joy Buolamwini, fundadora del grupo activista Algorithmic Justice League, el caso está revelando "cómo el racismo sistémico puede codificarse y reflejarse en las inteligencias artificiales (IA)".

Bajo la presión de grupos como la poderosa ACLU, Microsoft, Amazon e IBM anunciaron a principios de junio que limitarían el uso de sus herramientas de análisis facial por parte de las fuerzas del orden.

La IA se basa en el aprendizaje automatizado de los datos insertados por el diseñador, que la máquina analiza. Si esta materia prima está sesgada, el resultado se distorsiona.

Un estudio del Massachussets Institute of Technology publicado en febrero de 2018 reveló fuertes inexactitudes en los principales programas de reconocimiento facial en lo que respecta a la distinción de los rostros según los grupos de población, con tasas de error inferiores a 1% para los hombres blancos y de hasta 35% para las mujeres negras.

Termómetro y pistola

En un tuit que se hizo viral, Nicolas Kayser-Bril, de la ONG Algorithm Watch, muestra que frente a imágenes de personas que sostienen un termómetro en la frente, el programa de análisis de imágenes "Google Vision" reconoce "binoculares" en una mano blanca y "un arma" en una mano negra.

Según él, este sesgo "probablemente se debió a que las imágenes utilizadas en la base de datos que incluían a los negros se asociaban más a menudo con la violencia, que las de los blancos".

Google reconoció que el resultado es "inaceptable".

Recomendamos: Guía para asumir y dejar atrás nuestro racismo

No obstante, este tipo de programas son vendidos a empresas y gobiernos de todo el mundo, y no sólo por gigantes de la industria tecnológica.

"Esto hace que sea muy difícil identificar las condiciones en las que se recogió el conjunto de datos, la calidad de las imágenes y cómo se creó el algoritmo", dice Seda Gürses, investigadora de la Universidad Tecnológica de Delft en Holanda.

Esta multiplicidad de actores reduce los costos, pero complica la asignación de responsabilidades, según Gürses.

"Con un algoritmo, estás atascado en todas las decisiones con el mismo algoritmo, cuya calidad está determinada por sus costos de producción y la demanda del mercado".

Las tecnologías de reconocimiento facial no sólo sirven para identificar a sospechosos, sino que son usados para predecir comportamientos.

Hace poco estalló una polémica por un programa que promete "predecir con 80% de exactitud" si una persona puede caer en la criminalidad "basándose únicamente en una foto" suya.

Más de 2.000 personas, incluyendo varios científicos, firmaron una petición pidiendo a Springer Nature que no publique un artículo sobre esta tecnología.

"Reconociendo la preocupación" planteada por el documento, Springer Nature aseguró que "en ningún momento" aceptó publicarlo.

Para Mutale Nkonde, investigadora de inteligencia artificial de las universidades Stanford y Harvard, "no se puede cambiar la historia del racismo y el sexismo", pero "nos podemos asegurar de que los algoritmos no sean los que tomen las decisiones finales".

Síguenos en nuestras redes

Artículos Recientes

5 episodios del podcast Dalia Talks para transformar tu carrera profesional

Recent Articles From Dalia

10 mujeres que rompieron el techo de cristal en 2024

Foto: LinkedIn, Gobierno de México y Dalia Empower
14 de noviembre de 2024

Recortes en diversidad e inclusión: tendencia en EUA que México debería evitar

Foto: Shutterstock
7 de noviembre de 2024

Los costos del mal liderazgo en equipos directivos

Foto: Shutterstock

Fortalece la resiliencia de tu equipo en 7 pasos

Foto: Shutterstock

5 red flags de un mal clima laboral en tu empresa y 4 acciones de solución

Foto: Shutterstock
logo dalia

Women shaping the future of leadership

Suscríbete al newsletter

Recibe en tu correo el contenido que informa, inspira y te conecta con mujeres de nuestra comunidad