Protección | IA

OpenAI forma equipo Child Safety para proteger uso de IA infantil

OpenAI crea un equipo especializado en seguridad infantil para proteger a los niños de los posibles abusos de su inteligencia artificial

OpenAI ha formado un nuevo equipo para estudiar formas de prevenir el mal uso o abuso de sus herramientas de inteligencia artificial por parte de los niños, en respuesta a la presión de activistas y padres preocupados. La existencia de este equipo, llamado Child Safety, ha sido revelada a través de una oferta de trabajo publicada en la página de carreras de OpenAI. La compañía afirma que este equipo trabaja en colaboración con los grupos de políticas de plataforma, legales e investigaciones internos de OpenAI, así como con socios externos, para gestionar "procesos, incidentes y revisiones" relacionados con los usuarios menores de edad.

Contratación de un especialista en seguridad infantil

El equipo de seguridad infantil de OpenAI está buscando contratar a un especialista en cumplimiento de seguridad infantil, quien será responsable de aplicar las políticas de OpenAI en el contexto del contenido generado por inteligencia artificial y trabajar en los procesos de revisión relacionados con contenido "sensible" (presumiblemente relacionado con niños).

Es común que las empresas tecnológicas de cierto tamaño dediquen una cantidad considerable de recursos para cumplir con leyes como la Regla de Protección de la Privacidad en Línea para Niños de Estados Unidos, que exigen controles sobre lo que los niños pueden y no pueden acceder en la web, así como qué tipo de datos las empresas pueden recopilar sobre ellos. Por lo tanto, no sorprende del todo que OpenAI esté contratando expertos en seguridad infantil, especialmente si la compañía espera tener una base significativa de usuarios menores de edad en el futuro. (Los términos de uso actuales de OpenAI requieren el consentimiento de los padres para niños de 13 a 18 años y prohíben el uso para niños menores de 13 años).

Preocupación por el uso de la inteligencia artificial por parte de los niños

El uso de herramientas de inteligencia artificial por parte de niños y adolescentes está aumentando, no solo para tareas escolares, sino también para problemas personales. Según una encuesta del Centro para la Democracia y la Tecnología, el 29% de los niños afirma haber utilizado ChatGPT para lidiar con la ansiedad o problemas de salud mental, el 22% para problemas con amigos y el 16% para conflictos familiares.

Sin embargo, esto también plantea preocupaciones sobre los posibles riesgos asociados. El verano pasado, las escuelas y universidades se apresuraron a prohibir el uso de ChatGPT debido a temores de plagio y desinformación. Desde entonces, algunas han revertido sus prohibiciones. Pero no todos están convencidos del potencial de la inteligencia artificial generativa para el bien, señalando encuestas como la del Centro de Internet Seguro del Reino Unido, que encontró que más de la mitad de los niños (53%) informa haber visto a personas de su edad usar inteligencia artificial generativa de manera negativa, como crear información falsa o imágenes creíbles para molestar a alguien.

Llamados a establecer pautas para el uso de la inteligencia artificial generativa por parte de los niños

La Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) instó el año pasado a los gobiernos a regular el uso de la inteligencia artificial generativa en la educación, incluyendo la implementación de límites de edad para los usuarios y salvaguardias en la protección de datos y la privacidad de los usuarios. Audrey Azoulay, directora general de la UNESCO, afirmó en un comunicado de prensa que "la inteligencia artificial generativa puede ser una tremenda oportunidad para el desarrollo humano, pero también puede causar daño y prejuicio. No se puede integrar en la educación sin la participación pública y las salvaguardias y regulaciones necesarias por parte de los gobiernos".


Podcast El Desván de las Paradojas
Publicidad


Otras noticias • IA

Resilientes

Empresas de logística se mantienen fuertes a pesar de desaceleración

A pesar de la desaceleración en la financiación de la robótica, el impulso en empresas de almacenes y logística se mantiene fuerte debido a la...

Lanzamiento

Ex cofundador de OpenAI lanza Safe Superintelligence Inc. en Palo Alto

Ilya Sutskever, ex cofundador de OpenAI, ha lanzado Safe Superintelligence Inc. (SSI) con un enfoque en la seguridad de la IA. La empresa, con sede...

Redes

Snap presenta modelo de difusión de imágenes en tiempo real

Snap ha presentado un modelo de difusión de imágenes en tiempo real para dispositivos que genera experiencias de realidad aumentada vívidas. También ha lanzado herramientas...

Innovación

DeepMind crea tecnología V2A para bandas sonoras automáticas en videos

DeepMind, laboratorio de IA de Google, desarrolla tecnología V2A para generar bandas sonoras automáticas para videos. La herramienta sincroniza música, efectos de sonido y diálogos...

Innovación

Perplexity y Tako revolucionan búsqueda con resultados visuales directos

Perplexity mejora su motor de búsqueda con resultados visuales directos para consultas factuales como el tiempo y la conversión de divisas. La startup colabora con...

Tecnología

TikTok presenta avatares de IA generativa para creadores y marcas

TikTok presenta avatares de IA generativa para creadores y marcas, incluyendo avatares personalizados y de stock, así como una herramienta de doblaje de IA para...

Éxito

Tempus, empresa de pruebas genómicas debuta con éxito en Nasdaq

Tempus, empresa de pruebas genómicas fundada por Eric Lefkosky, debutó en Nasdaq con éxito a pesar de una valoración reducida. Se enfoca en inteligencia artificial...

Nombramiento

Paul Nakasone se une al consejo de OpenAI por ciberseguridad

El exjefe de la NSA, Paul Nakasone, se unirá al consejo de OpenAI para aportar su experiencia en seguridad y protección. Su incorporación refleja el...