IA | Imágenes

Google suspende generación de imágenes de personas por inexactitudes históricas

Google suspende temporalmente la generación de imágenes de personas con su herramienta Gemini AI

Google ha anunciado que ha suspendido temporalmente la capacidad de Gemini, su suite de modelos AI generativos emblemáticos, para generar imágenes de personas mientras trabaja en la actualización del modelo para mejorar la precisión histórica de las salidas.

En una publicación en la plataforma de redes sociales X, la empresa anunció lo que describió como una "pausa" en la generación de imágenes de personas, escribiendo que está trabajando para abordar "problemas recientes" relacionados con inexactitudes históricas. "Mientras hacemos esto, vamos a pausar la generación de imágenes de personas y lanzaremos una versión mejorada pronto", añadió.

Críticas y ridículo por imágenes incongruentes generadas por Gemini AI

Google lanzó la herramienta de generación de imágenes Gemini a principios de este mes. Sin embargo, ejemplos de ella generando imágenes incongruentes de personas históricas han estado circulando en las redes sociales en los últimos días, como imágenes de los Padres Fundadores de EE. UU. representados como indígenas americanos, negros o asiáticos, lo que ha llevado a críticas e incluso burlas.

Escribiendo en una publicación en LinkedIn, el capitalista de riesgo con sede en París, Michael Jackson, se unió hoy a las críticas, calificando la IA de Google como "una parodia DEI sin sentido" (DEI significa 'Diversidad, Equidad e Inclusión'). En una publicación anterior en X ayer, Google confirmó que era "consciente" de que la IA estaba produciendo "inexactitudes en algunas representaciones de generación de imágenes históricas", agregando en un comunicado: "Estamos trabajando para mejorar este tipo de representaciones de inmediato. La generación de imágenes Al de Gemini produce una amplia gama de personas, lo cual generalmente es algo bueno porque la gente de todo el mundo la usa. Pero está fallando aquí".

Críticas anteriores a herramientas AI generativas de Google

Las herramientas AI generativas producen resultados basados en datos de entrenamiento y otros parámetros, como los pesos del modelo. Estas herramientas han enfrentado críticas más a menudo por producir resultados sesgados de manera más estereotipada, como imágenes de mujeres sexualizadas o al responder a indicaciones de roles laborales de alto estatus con imágenes de hombres blancos.

Una herramienta AI de clasificación de imágenes anterior creada por Google causó indignación en 2015 cuando clasificó incorrectamente a hombres negros como gorilas. La empresa prometió solucionar el problema, pero, como informó Wired unos años después, su "solución" fue simplemente bloquear la tecnología para que no reconociera gorilas en absoluto.


Crear Canciones Personalizadas
Publicidad


Otras noticias • IA

Inteligencia vocal

OpenAI presenta innovadoras funciones de inteligencia vocal y traducción

OpenAI ha lanzado nuevas funcionalidades de inteligencia vocal, incluyendo modelos avanzados de conversación, traducción en tiempo real y transcripción en vivo. Estas herramientas prometen mejorar...

Productividad mejorada

Perplexity lanza PC para Mac con inteligencia artificial integrada

Perplexity ha lanzado Personal Computer para usuarios de Mac, una herramienta que integra inteligencia artificial en dispositivos locales, mejorando la gestión de flujos de trabajo....

Contacto confiable

OpenAI presenta Trusted Contact para mejorar la seguridad emocional

OpenAI ha lanzado la función Trusted Contact para alertar a un tercero de confianza sobre menciones de autolesionismo en ChatGPT. Esta medida busca mejorar la...

Cambio estratégico

Bumble elimina deslizamiento y apuesta por inteligencia artificial

Bumble eliminará la función de deslizamiento en un intento de revitalizar su modelo de negocio, enfrentando una caída en usuarios de pago. La CEO Whitney...

Tensión regulatoria

Musk y OpenAI: Tensión entre seguridad y lucro en IA

El enfrentamiento legal entre Elon Musk y OpenAI destaca la tensión entre la seguridad de la inteligencia artificial y la búsqueda de beneficios económicos. Testimonios...

Seguridad informática

Inteligencia artificial transforma la seguridad del software y ciberseguridad

La inteligencia artificial, como Mythos de Anthropic, revoluciona la seguridad del software al detectar vulnerabilidades críticas que antes pasaban desapercibidas. A pesar de su eficacia,...

Crecimiento rápido

Moonshot AI destaca en inteligencia artificial con modelo Kimi K2.5

Moonshot AI, fundada en 2023, ha crecido rápidamente en el sector de la inteligencia artificial en China, destacando con su modelo Kimi K2.5. Su éxito...

Cambio tecnológico

xAI y Anthropic transforman la industria tecnológica con nueva alianza

La asociación entre xAI y Anthropic, que implica la compra de capacidad de computación, marca un cambio en la industria tecnológica. xAI se posiciona como...