Google suspende temporalmente la generación de imágenes de personas con su herramienta Gemini AI
Google ha anunciado que ha suspendido temporalmente la capacidad de Gemini, su suite de modelos AI generativos emblemáticos, para generar imágenes de personas mientras trabaja en la actualización del modelo para mejorar la precisión histórica de las salidas.
En una publicación en la plataforma de redes sociales X, la empresa anunció lo que describió como una "pausa" en la generación de imágenes de personas, escribiendo que está trabajando para abordar "problemas recientes" relacionados con inexactitudes históricas. "Mientras hacemos esto, vamos a pausar la generación de imágenes de personas y lanzaremos una versión mejorada pronto", añadió.
Críticas y ridículo por imágenes incongruentes generadas por Gemini AI
Google lanzó la herramienta de generación de imágenes Gemini a principios de este mes. Sin embargo, ejemplos de ella generando imágenes incongruentes de personas históricas han estado circulando en las redes sociales en los últimos días, como imágenes de los Padres Fundadores de EE. UU. representados como indígenas americanos, negros o asiáticos, lo que ha llevado a críticas e incluso burlas.
Escribiendo en una publicación en LinkedIn, el capitalista de riesgo con sede en París, Michael Jackson, se unió hoy a las críticas, calificando la IA de Google como "una parodia DEI sin sentido" (DEI significa 'Diversidad, Equidad e Inclusión'). En una publicación anterior en X ayer, Google confirmó que era "consciente" de que la IA estaba produciendo "inexactitudes en algunas representaciones de generación de imágenes históricas", agregando en un comunicado: "Estamos trabajando para mejorar este tipo de representaciones de inmediato. La generación de imágenes Al de Gemini produce una amplia gama de personas, lo cual generalmente es algo bueno porque la gente de todo el mundo la usa. Pero está fallando aquí".
Críticas anteriores a herramientas AI generativas de Google
Las herramientas AI generativas producen resultados basados en datos de entrenamiento y otros parámetros, como los pesos del modelo. Estas herramientas han enfrentado críticas más a menudo por producir resultados sesgados de manera más estereotipada, como imágenes de mujeres sexualizadas o al responder a indicaciones de roles laborales de alto estatus con imágenes de hombres blancos.
Una herramienta AI de clasificación de imágenes anterior creada por Google causó indignación en 2015 cuando clasificó incorrectamente a hombres negros como gorilas. La empresa prometió solucionar el problema, pero, como informó Wired unos años después, su "solución" fue simplemente bloquear la tecnología para que no reconociera gorilas en absoluto.
Otras noticias • IA
Narrativas positivas de IA fomentan interacciones éticas y beneficiosas
La representación de la inteligencia artificial en la cultura popular influye en su desarrollo y comportamiento. Anthropic destaca que narrativas positivas mejoran la alineación de...
Oracle despide a miles sin aviso ni indemnización adecuada
Oracle llevó a cabo despidos masivos que afectaron a entre 20,000 y 30,000 empleados, generando descontento por la falta de aviso y condiciones de indemnización....
Inteligencia artificial despide empleados pese a ingresos crecientes
La inteligencia artificial está transformando el mercado laboral, con empresas como Cloudflare despidiendo personal a pesar de aumentar ingresos. Este fenómeno plantea dilemas éticos sobre...
OpenAI presenta innovadoras funciones de inteligencia vocal y traducción
OpenAI ha lanzado nuevas funcionalidades de inteligencia vocal, incluyendo modelos avanzados de conversación, traducción en tiempo real y transcripción en vivo. Estas herramientas prometen mejorar...
Perplexity lanza PC para Mac con inteligencia artificial integrada
Perplexity ha lanzado Personal Computer para usuarios de Mac, una herramienta que integra inteligencia artificial en dispositivos locales, mejorando la gestión de flujos de trabajo....
OpenAI presenta Trusted Contact para mejorar la seguridad emocional
OpenAI ha lanzado la función Trusted Contact para alertar a un tercero de confianza sobre menciones de autolesionismo en ChatGPT. Esta medida busca mejorar la...
Bumble elimina deslizamiento y apuesta por inteligencia artificial
Bumble eliminará la función de deslizamiento en un intento de revitalizar su modelo de negocio, enfrentando una caída en usuarios de pago. La CEO Whitney...
Musk y OpenAI: Tensión entre seguridad y lucro en IA
El enfrentamiento legal entre Elon Musk y OpenAI destaca la tensión entre la seguridad de la inteligencia artificial y la búsqueda de beneficios económicos. Testimonios...
Lo más reciente
- 1
General Motors despide 600 empleados y apuesta por inteligencia artificial
- 2
RCS mejora la seguridad en la mensajería entre Android e iPhone
- 3
Digg renace con inteligencia artificial y contenido relevante
- 4
Microdramas: la nueva revolución del entretenimiento digital en auge
- 5
Discord lanza Nitro Rewards para atraer y fidelizar suscriptores
- 6
Cowboy Space planea centros de datos en órbita terrestre
- 7
Venmo rediseña su app para atraer a usuarios jóvenes

