Google emite nuevas directrices para desarrolladores de aplicaciones de IA en Google Play
Google ha anunciado hoy nuevas directrices para los desarrolladores que construyen aplicaciones de IA distribuidas a través de Google Play, con la esperanza de reducir el contenido inapropiado y prohibido. La empresa afirma que las aplicaciones que ofrecen funciones de IA deberán evitar la generación de contenido restringido, que incluye contenido sexual, violencia y más, y tendrán que ofrecer una forma para que los usuarios puedan señalar contenido ofensivo que encuentren. Además, Google dice que los desarrolladores deben "probar rigurosamente" sus herramientas y modelos de IA para garantizar que respeten la seguridad y la privacidad de los usuarios.
Mayor control sobre las aplicaciones de IA
Además, Google está tomando medidas enérgicas contra las aplicaciones cuyos materiales de marketing promueven casos de uso inapropiados, como aplicaciones que desnudan a las personas o crean imágenes desnudas no consensuadas. Si la publicidad dice que la aplicación es capaz de hacer este tipo de cosas, puede ser prohibida en Google Play, independientemente de si la aplicación es realmente capaz de hacerlo.
Problemas crecientes con aplicaciones de desnudo de IA
Estas directrices siguen a una creciente proliferación de aplicaciones de desnudo de IA que se han estado promocionando a través de las redes sociales en los últimos meses. Un informe de abril de 404 Media, por ejemplo, encontró que Instagram estaba mostrando anuncios de aplicaciones que afirmaban usar IA para generar desnudos deepfake. Una aplicación se promocionaba usando una imagen de Kim Kardashian y el lema "desnuda a cualquier chica gratis". Apple y Google retiraron las aplicaciones de sus respectivas tiendas de aplicaciones, pero el problema sigue siendo generalizado.
Aplicaciones de IA inapropiadas en las escuelas
Las escuelas de todo Estados Unidos informan de problemas con los estudiantes que comparten desnudos deepfake de otros estudiantes (y a veces profesores) para acosar e intimidar, junto con otros tipos de contenido inapropiado de IA. El mes pasado, un deepfake racista de un director de escuela llevó a un arresto en Baltimore. Peor aún, el problema incluso está afectando a estudiantes de secundaria, en algunos casos.
Google busca mantener aplicaciones inapropiadas fuera de Google Play
Google afirma que sus políticas ayudarán a evitar que las aplicaciones de Google Play presenten contenido generado por IA que pueda ser inapropiado o dañino para los usuarios. La empresa señala a su Política de Contenido Generado por IA existente como un lugar para consultar sus requisitos para la aprobación de aplicaciones en Google Play. La empresa dice que las aplicaciones de IA no pueden permitir la generación de ningún contenido restringido y también deben dar a los usuarios una forma de señalar contenido ofensivo e inapropiado, así como supervisar y priorizar esos comentarios. Esto es particularmente importante en aplicaciones donde las interacciones de los usuarios "dan forma al contenido y la experiencia", dice Google, como en aplicaciones donde los modelos populares se clasifican más alto o de manera más prominente, quizás.
Responsabilidad de los desarrolladores y mejores prácticas
Además, los desarrolladores también son responsables de proteger sus aplicaciones contra mensajes que puedan manipular sus funciones de IA para crear contenido dañino y ofensivo. Google dice que los desarrolladores pueden utilizar su función de pruebas cerradas para compartir versiones preliminares de sus aplicaciones con los usuarios para obtener comentarios. La empresa sugiere encarecidamente que los desarrolladores no solo prueben antes de lanzar, sino que también documenten esas pruebas, ya que Google podría pedir revisarlas en el futuro.
La compañía también está publicando otros recursos y mejores prácticas, como su Manual de IA + Personas, que tiene como objetivo apoyar a los desarrolladores que construyen aplicaciones de IA.
Otras noticias • IA
Claude supera a ChatGPT por su ética y responsabilidad
Claude, el asistente de inteligencia artificial de Anthropic, ha ganado popularidad frente a ChatGPT de OpenAI debido a controversias sobre la ética y colaboración con...
Controversia por designación de Anthropic como riesgo de suministro
La designación de Anthropic como "riesgo de cadena de suministro" por el Departamento de Defensa de EE. UU. ha generado una fuerte reacción en la...
14.ai transforma el servicio al cliente con inteligencia artificial autónoma
14.ai, una startup respaldada por Y Combinator, está revolucionando el servicio al cliente mediante inteligencia artificial, reemplazando equipos tradicionales con soluciones autónomas. Su enfoque innovador...
Google y Airtel combaten el spam en mensajería RCS en India
Google y Airtel se unen en India para combatir el spam en la mensajería RCS, integrando un sistema de filtrado de spam a nivel de...
Controversia por acuerdo de OpenAI y Defensa de EE. UU
El acuerdo de OpenAI con el Departamento de Defensa de EE. UU. ha generado controversia por su rapidez y preocupaciones éticas sobre el uso de...
Claude supera a ChatGPT con enfoque ético en IA
Claude, el chatbot de Anthropic, ha superado a ChatGPT en popularidad, impulsado por un enfoque ético en su desarrollo. Las negociaciones con el Pentágono han...
OpenAI colabora con Defensa de EE. UU. en IA clasificada
OpenAI ha firmado un acuerdo con el Departamento de Defensa de EE. UU. para utilizar su IA en redes clasificadas, generando tensiones con Anthropic. A...
EE. UU. prohíbe productos de Anthropic por ética en IA
El presidente de EE. UU. ha ordenado a las agencias federales cesar el uso de productos de Anthropic tras un conflicto por la ética en...
Lo más reciente
- 1
Apple lanza MacBook Air y Pro con chips M5 revolucionarios
- 2
X Chat lanza beta y genera dudas sobre su seguridad
- 3
Fig Security revoluciona la seguridad digital con monitorización en tiempo real
- 4
Apple lanza chips M5 Pro y M5 Max para profesionales creativos
- 5
Apple presenta nuevos MacBook y pantallas con tecnología avanzada
- 6
Cursor alcanza 2.000 millones en ingresos anuales con innovación
- 7
Desinstalaciones de ChatGPT aumentan por asociación con Defensa

