Google suspende temporalmente la generación de imágenes de personas con su herramienta Gemini AI
Google ha anunciado que ha suspendido temporalmente la capacidad de Gemini, su suite de modelos AI generativos emblemáticos, para generar imágenes de personas mientras trabaja en la actualización del modelo para mejorar la precisión histórica de las salidas.
En una publicación en la plataforma de redes sociales X, la empresa anunció lo que describió como una "pausa" en la generación de imágenes de personas, escribiendo que está trabajando para abordar "problemas recientes" relacionados con inexactitudes históricas. "Mientras hacemos esto, vamos a pausar la generación de imágenes de personas y lanzaremos una versión mejorada pronto", añadió.
Críticas y ridículo por imágenes incongruentes generadas por Gemini AI
Google lanzó la herramienta de generación de imágenes Gemini a principios de este mes. Sin embargo, ejemplos de ella generando imágenes incongruentes de personas históricas han estado circulando en las redes sociales en los últimos días, como imágenes de los Padres Fundadores de EE. UU. representados como indígenas americanos, negros o asiáticos, lo que ha llevado a críticas e incluso burlas.
Escribiendo en una publicación en LinkedIn, el capitalista de riesgo con sede en París, Michael Jackson, se unió hoy a las críticas, calificando la IA de Google como "una parodia DEI sin sentido" (DEI significa 'Diversidad, Equidad e Inclusión'). En una publicación anterior en X ayer, Google confirmó que era "consciente" de que la IA estaba produciendo "inexactitudes en algunas representaciones de generación de imágenes históricas", agregando en un comunicado: "Estamos trabajando para mejorar este tipo de representaciones de inmediato. La generación de imágenes Al de Gemini produce una amplia gama de personas, lo cual generalmente es algo bueno porque la gente de todo el mundo la usa. Pero está fallando aquí".
Críticas anteriores a herramientas AI generativas de Google
Las herramientas AI generativas producen resultados basados en datos de entrenamiento y otros parámetros, como los pesos del modelo. Estas herramientas han enfrentado críticas más a menudo por producir resultados sesgados de manera más estereotipada, como imágenes de mujeres sexualizadas o al responder a indicaciones de roles laborales de alto estatus con imágenes de hombres blancos.
Una herramienta AI de clasificación de imágenes anterior creada por Google causó indignación en 2015 cuando clasificó incorrectamente a hombres negros como gorilas. La empresa prometió solucionar el problema, pero, como informó Wired unos años después, su "solución" fue simplemente bloquear la tecnología para que no reconociera gorilas en absoluto.
Otras noticias • IA
Anthropic lanza asistentes inteligentes para optimizar tareas empresariales
Anthropic ha lanzado un programa de agentes empresariales que permite a las empresas utilizar asistentes inteligentes personalizados para optimizar tareas laborales. Este sistema incluye complementos...
Oura lanza IA para chatbot centrado en salud femenina
Oura ha lanzado un modelo de IA para su chatbot Oura Advisor, centrado en la salud femenina. Ofrece insights personalizados sobre salud reproductiva, combinando datos...
Meta y AMD invierten 100.000 millones en chips de IA
Meta y AMD han firmado un acuerdo de hasta 100.000 millones de dólares para adquirir chips, diversificando su infraestructura de IA. Esta colaboración busca reducir...
Nimble revoluciona búsqueda web con IA y 47 millones de dólares
Nimble, una startup de Nueva York, utiliza IA para transformar la búsqueda web al validar y estructurar resultados en tiempo real, facilitando su integración en...
Canva revoluciona el diseño digital con nuevas adquisiciones estratégicas
Canva está revolucionando la creación de contenido digital con la adquisición de Cavalry y Mango AI, integrando animación y optimización de anuncios. Estas innovaciones amplían...
Investigadora de Meta AI advierte sobre riesgos de la IA
La historia de Summer Yue, investigadora de Meta AI, ilustra los peligros del uso de inteligencia artificial. Su agente OpenClaw borró correos sin control, resaltando...
Controversia de Anthropic revela dudas sobre ética en IA
Las acusaciones de Anthropic contra empresas chinas por el uso indebido del distillado de su modelo Claude plantean serias dudas sobre la ética y la...
Steerling-8B: Modelo de IA que promueve transparencia y ética
Guide Labs ha desarrollado Steerling-8B, un modelo de lenguaje interpretable con 8 mil millones de parámetros, que permite rastrear decisiones y mejorar la transparencia en...
Lo más reciente
- 1
Inteligencia artificial impulsa startups hacia ingresos multimillonarios rápidos
- 2
Spotify y Liquid Death lanzan altavoz urnas para eternizar música
- 3
EE. UU. sanciona a Operation Zero para frenar cibercrimen
- 4
OpenAI impulsa la adopción de IA en empresas estratégicamente
- 5
Twitch implementa sanciones específicas para violaciones menores de normas
- 6
Marquis demanda a SonicWall por violación de datos sensibles
- 7
Google Labs revoluciona la música con IA y derechos de autor

