IA | Regulaciones

Nuevas directrices de Google Play para aplicaciones de IA

Google emite nuevas directrices para desarrolladores de aplicaciones de IA en Google Play

Google ha anunciado hoy nuevas directrices para los desarrolladores que construyen aplicaciones de IA distribuidas a través de Google Play, con la esperanza de reducir el contenido inapropiado y prohibido. La empresa afirma que las aplicaciones que ofrecen funciones de IA deberán evitar la generación de contenido restringido, que incluye contenido sexual, violencia y más, y tendrán que ofrecer una forma para que los usuarios puedan señalar contenido ofensivo que encuentren. Además, Google dice que los desarrolladores deben "probar rigurosamente" sus herramientas y modelos de IA para garantizar que respeten la seguridad y la privacidad de los usuarios.

Mayor control sobre las aplicaciones de IA

Además, Google está tomando medidas enérgicas contra las aplicaciones cuyos materiales de marketing promueven casos de uso inapropiados, como aplicaciones que desnudan a las personas o crean imágenes desnudas no consensuadas. Si la publicidad dice que la aplicación es capaz de hacer este tipo de cosas, puede ser prohibida en Google Play, independientemente de si la aplicación es realmente capaz de hacerlo.

Problemas crecientes con aplicaciones de desnudo de IA

Estas directrices siguen a una creciente proliferación de aplicaciones de desnudo de IA que se han estado promocionando a través de las redes sociales en los últimos meses. Un informe de abril de 404 Media, por ejemplo, encontró que Instagram estaba mostrando anuncios de aplicaciones que afirmaban usar IA para generar desnudos deepfake. Una aplicación se promocionaba usando una imagen de Kim Kardashian y el lema "desnuda a cualquier chica gratis". Apple y Google retiraron las aplicaciones de sus respectivas tiendas de aplicaciones, pero el problema sigue siendo generalizado.

Aplicaciones de IA inapropiadas en las escuelas

Las escuelas de todo Estados Unidos informan de problemas con los estudiantes que comparten desnudos deepfake de otros estudiantes (y a veces profesores) para acosar e intimidar, junto con otros tipos de contenido inapropiado de IA. El mes pasado, un deepfake racista de un director de escuela llevó a un arresto en Baltimore. Peor aún, el problema incluso está afectando a estudiantes de secundaria, en algunos casos.

Google busca mantener aplicaciones inapropiadas fuera de Google Play

Google afirma que sus políticas ayudarán a evitar que las aplicaciones de Google Play presenten contenido generado por IA que pueda ser inapropiado o dañino para los usuarios. La empresa señala a su Política de Contenido Generado por IA existente como un lugar para consultar sus requisitos para la aprobación de aplicaciones en Google Play. La empresa dice que las aplicaciones de IA no pueden permitir la generación de ningún contenido restringido y también deben dar a los usuarios una forma de señalar contenido ofensivo e inapropiado, así como supervisar y priorizar esos comentarios. Esto es particularmente importante en aplicaciones donde las interacciones de los usuarios "dan forma al contenido y la experiencia", dice Google, como en aplicaciones donde los modelos populares se clasifican más alto o de manera más prominente, quizás.

Responsabilidad de los desarrolladores y mejores prácticas

Además, los desarrolladores también son responsables de proteger sus aplicaciones contra mensajes que puedan manipular sus funciones de IA para crear contenido dañino y ofensivo. Google dice que los desarrolladores pueden utilizar su función de pruebas cerradas para compartir versiones preliminares de sus aplicaciones con los usuarios para obtener comentarios. La empresa sugiere encarecidamente que los desarrolladores no solo prueben antes de lanzar, sino que también documenten esas pruebas, ya que Google podría pedir revisarlas en el futuro.

La compañía también está publicando otros recursos y mejores prácticas, como su Manual de IA + Personas, que tiene como objetivo apoyar a los desarrolladores que construyen aplicaciones de IA.


Crear Canciones Personalizadas
Publicidad


Otras noticias • IA

Pruebas automatizadas

Momentic revoluciona el testing de software con IA accesible

Momentic, una startup de testing de software impulsada por IA, busca simplificar el proceso de pruebas automatizadas, permitiendo a los usuarios describir flujos de trabajo...

Expansión autónoma

Waymo expande operaciones de vehículos autónomos en California

Waymo ha recibido autorización para operar vehículos autónomos en más áreas de California, incluyendo la Bahía de San Francisco y San Diego. Su expansión busca...

Crecimiento exponencial

Sierra, startup de IA, alcanza 100 millones en 21 meses

Sierra, una startup de IA en servicio al cliente, ha alcanzado 100 millones de dólares en ingresos anuales en solo 21 meses. Su modelo de...

Fraude digital

Google combate el fraude digital en India con nuevas herramientas

Google está combatiendo el fraude digital en India mediante herramientas de detección en tiempo real y colaboraciones con aplicaciones financieras. A pesar de los avances,...

Edición creativa

Mixup: la app de edición de fotos que transforma imágenes

Mixup es una innovadora app de edición de fotos impulsada por IA, que permite a los usuarios transformar imágenes mediante "recetas" creativas. Fomenta la interacción...

Chats grupales

ChatGPT lanza chats grupales para colaboración y creatividad

OpenAI ha lanzado chats grupales en ChatGPT, permitiendo a usuarios colaborar en proyectos y decisiones. Con un enfoque en la privacidad y una interacción dinámica,...

Limpieza informativa

Wikipedia lanza "Project AI Cleanup" para combatir desinformación

La comunidad de Wikipedia ha lanzado el "Project AI Cleanup" para combatir la desinformación generada por inteligencia artificial. A través de una guía sobre signos...

Crecimiento tecnológico

India impulsa construcción de centros de datos con HyperVault

India está experimentando un auge en la construcción de centros de datos, impulsado por la demanda de inteligencia artificial. Tata Consultancy Services y TPG lanzan...