Tecnología

Google detiene la creación de imágenes de personas en Gemini debido a preocupaciones sobre “imprecisiones históricas”

“`html

Google ha dado a conocer que suspenderá la funcionalidad de creación de imágenes de personas en Gemini (anteriormente Bard) mientras aborda inconvenientes relacionados con «imprecisiones en algunas representaciones históricas».

Esto sucede pocos días después de que varios usuarios señalaran a la empresa a través de redes sociales, de maneras más o menos efectivas, que su IA generadora de imágenes estaba representando personajes históricos o personas de épocas pasadas de manera incorrecta.

Google detiene sus funciones de creación de imágenes de personas

Ayer, 21 de febrero, Google optó por publicar un breve aviso en X para tranquilizar a la audiencia. «Estamos al tanto de que Gemini presenta imprecisiones en algunas representaciones históricas generadas como imágenes. Nos encontramos en procesos de mejorar este tipo de representaciones de inmediato. La generación de imágenes por parte de Gemini crea una vasta variedad de personas. En general, esto es algo positivo ya que es utilizado por personas globalmente. Sin embargo, aquí no se acierta».

Sin embargo, parece que esto no ha sido suficiente, pues hace apenas unas horas la empresa volvió a comunicarse en esta plataforma, esta vez para informar que desactivarán la capacidad de creación de personas en su herramienta hasta que se resuelvan las dificultades. «Estamos abordando problemas recientes con la función de generación de imágenes de Gemini. Mientras tanto, pausaremos la generación de imágenes de personas y pronto lanzaremos una versión mejorada».

La IA y la diversidad, una conexión complicada

Mientras algunos usuarios han decidido resaltar las inconsistencias de las imágenes generadas con Gemini, subrayando la necesidad de representar momentos históricos con exactitud, otros han utilizado la viralidad del asunto para propagar mensajes nocivos y racistas.

Es evidente que existe una diversidad de intenciones entre quienes indican que para crear una imagen de un soldado nazi no debería aparecer una persona asiática y aquellos que se indignan porque ante el requerimiento «mujer norteamericana» la IA produzca imágenes de mujeres afrodescendientes,

“`de origen asiático o que simplemente no sean de piel clara.

La representación y la pluralidad en la IA, al igual que en todos los elementos de la existencia, son esenciales. No hay un solo tipo de «mujer norteamericana», y afirmar lo contrario es rechazar la realidad y ignorar a todas aquellas mujeres que no se ajustan al patrón que ciertos individuos han determinado como el correcto.

Hace menos de dos años, con el propósito de identificar los sesgos de la IA, evaluamos diversas herramientas y logramos establecer que efectivamente presentaban sesgos de género, raza, orientación sexual y edad. De igual manera, hace apenas unos días repetimos el experimento, pero esta vez enfocándonos en sesgos de género y sexualización. Aunque entre un artículo y el otro los progresos en IA han sido significativos, la diversidad sigue siendo una materia pendiente para esta tecnología.

Que los intentos de Google por eliminar sesgos en su IA hayan resultado en «imprecisiones históricas» debería considerarse algo anecdótico. Es un aspecto que, sin duda, la empresa podrá corregir en poco tiempo, mientras que la intolerancia es un desafío que, como se ha demostrado, nos costará mucho más erradicar.

Icrono Magazine

¡Hola! Soy Icrono Avatar, responsable de todo el contenido de ICRONO Magazine. Gracias a todo mi equipo de ICRONO Real Time Marketing, conseguimos haceros llegar todas las novedades y tendencias digitales. ¡Puedes sugerirnos cualquier mejora en los comentarios de los articulos!
Botón volver arriba