Tecnología

La Controversia del Racismo en Twitter: Un Análisis Actualizado

Una vez más la controversia se encuentra presente en el ámbito de la inteligencia artificial y los eventuales sesgos que esta presenta: en esta ocasión, se ha señalado a Twitter de racismo, específicamente por el hecho de que su algoritmo de recorte de imágenes tiene una tendencia a mostrar a personas de piel blanca antes que a aquellas con tonalidades más oscuras. De hecho, numerosos usuarios han compartido sus experimentos para comprobar si el algoritmo de la plataforma realmente tiene un sesgo racial.

Acusan a Twitter de racismo por su manera de manejar las imágenes de individuos

Como sabes, el algoritmo de Twitter recorta automáticamente las imágenes que se adjuntan a las publicaciones, y sabemos que con frecuencia ignora el contenido relevante en ellas. Sin embargo, este fin de semana se ha acusado a Twitter de racismo, ya que varios usuarios notaron que, en imágenes donde se presentan personas con diferentes colores de piel, Twitter opta por mostrar a las personas con piel más clara tras el recorte automático.

https://icrono.com/tendenciasmarketingcomo-funciona-algoritmo-de-twitter/

A primera vista, parecerá que se muestra una imagen normal duplicada, pero al hacer clic en ella, podrás ver la versión sin recortar que puede incluir otros aspectos, como personas con tonalidades de piel más oscuras dentro de la misma imagen. En el experimento, algunos usuarios han alterado el orden de las personas para resaltarlas como parte central de la imagen, pero los resultados aparentemente son consistentes:

De hecho, algunos usuarios han empleado personajes ficticios, animados e incluso animales, obteniendo resultados notablemente similares:

https://twitter.com/_jsimonovski/status/1307542747197239296

Pero, ¿realmente el algoritmo de Twitter está concebido para poseer un sesgo racial? Algunos usuarios sostienen que más bien depende de otros elementos que no se centran en el color de piel, ya que han implementado distintos métodos hallando resultados inconsistentes con la acusación de racismo hacia Twitter:

De hecho, el director de diseño de Twitter, Dantley Davis, comentó en un tuit que la selección del recorte de las fotografías compartidas en la red social considera el brillo de fondo de las imágenes, y ahí podría residir la razón por la cual el algoritmo elige una imagen sobre otra.

Por otra parte, en un hilo en Twitter, Bianca Kastl, una programadora alemana, comentó que el algoritmo de Twitter podría estar ajustando la imagen con base en una prominencia, es decir, un punto o parte significativa de una imagen que posiblemente desees observar primero al mirarla.

[Tweet «¿El algoritmo de #Twitter es racista? Te compartimos toda la información sobre las pruebas que varios usuarios han llevado a cabo para intentar comprobarlo.»]

Esta hipótesis está respaldada por un artículo de Twitter que en 2018 señalaba que su red neuronal diseñada para recortar imágenes estuvo inicialmente enfocada en detectar rostros, pero este método no resultó efectivo para las imágenes sin una cara, así que la red social optó por un algoritmo orientado a la prominencia.

No es la primera vez que ocurre: ¿son discriminatorios los algoritmos de reconocimiento facial?

No obstante, esta no es la primera ocasión en la que surge una controversia acerca de un posible sesgo racial en la manera en que se presentan las imágenes en línea: uno de estos señalamientos fue realizado en 2017 por el medio BBC, que difundió el hallazgo de Johanna Burai, una diseñadora gráfica que en 2015 advirtió que al buscar imágenes de manos humanas en los principales motores de búsqueda, como Bing y Google, se encontraban en los primeros resultados únicamente manos de individuos blancos.

Resultados de imágenes de la búsqueda «Manos» en Google, 2017.
Imagen: BBC

Lo mismo sucedió al realizar la búsqueda del término “bebés”, donde los primeros resultados eran inconfundiblemente fotografías de bebés de piel clara.

Resultados de búsqueda de imágenes para el término «Bebés» en Bing, 2017.
Imagen: BBC

En esa época Google afirmó que sus resultados para la búsqueda de imágenes eran un reflejo del contenido disponible en la web, incluyendo la frecuencia con la que se presentan los tipos de imágenes y la manera en que se describen online”, y que estos resultados no estaban relacionados con cierto tipo de valores.

https://icrono.com/tendenciasmarketingdove-acusado-racista/

Sin embargo, existen más antecedentes: en 2016, Joy Boulamwini, estudiante de posgrado en el Instituto de Tecnología de Massachusetts (MIT), estableció la Liga de la Justicia Algorítmica (AJL, por sus siglas en inglés de Algorithmic Justice League) ya que en ocasiones al intentar usar un software de reconocimiento facial para un proyecto, no pudo hacer uso de su propia imagen debido a que ella posee piel oscura.

Captura de pantalla del vídeo de Joy Boulamwini, en el que tuvo que utilizar una máscara blanca para que el sistema de reconocimiento facial la identificara.

“Descubrí que llevar una máscara blanca facilitó la operación del algoritmo de reconocimiento facial”, afirmó Boulamwini, quien debió solicitar ayuda a un compañero de habitación de piel más clara para utilizar uno de estos sistemas.

Gender Shades: la colaboración para crear una inteligencia artificial con precisión fenotípica

En su estudio, denominado Gender Shades, Boulamwini descubrió que los sistemas de inteligencia artificial comerciales de grandes corporaciones tecnológicas (como IBM o Microsoft) presentaban un marcado sesgo adverso hacia mujeres con piel más oscura, quienes eran incorrectamente categorizadas como hombres, o incluso en algunos casos, el sistema no lograba detectarlas, llegando a registrar tasas de fallas del 50%, como puedes observar en su vídeo:

La investigación que respalda el Instituto de Tecnología de Massachusetts (MIT) indica que para prevenir este tipo de sesgo racial en la inteligencia artificial, es necesario alimentar a estos sistemas con una mayor cantidad de imágenes representativas de la diversidad humana, para que sean más informados acerca de los subgrupos y logren una precisión fenotípica (relacionada con los distintos tonos de piel) bastante más confiable.

Y esto es algo similar a lo que acaso esté ocurriendo en Twitter: mientras la inteligencia artificial se entrene con menos fotografías de personas de piel oscura, continuarán apareciendo estos problemas que pueden dar lugar a significativas complicaciones.

Imagen: Depositphotos


“`

Icrono Magazine

¡Hola! Soy Icrono Avatar, responsable de todo el contenido de ICRONO Magazine. Gracias a todo mi equipo de ICRONO Real Time Marketing, conseguimos haceros llegar todas las novedades y tendencias digitales. ¡Puedes sugerirnos cualquier mejora en los comentarios de los articulos!
Botón volver arriba