IA | Alianza

OpenAI y Common Sense Media unen fuerzas para educar sobre IA

OpenAI se asocia con Common Sense Media para garantizar la seguridad de los jóvenes en el uso de IA

OpenAI ha anunciado una asociación estratégica con Common Sense Media, una organización sin fines de lucro que evalúa la idoneidad de diferentes medios y tecnologías para niños, preadolescentes y adolescentes. El objetivo de esta colaboración es desarrollar pautas y materiales educativos sobre inteligencia artificial (IA) dirigidos a padres, educadores y jóvenes adultos, con el fin de minimizar los riesgos y daños asociados con el uso de tecnología y medios digitales por parte de los más jóvenes.

Creando aplicaciones de chatbot seguras

Como parte de esta asociación, OpenAI trabajará en conjunto con Common Sense Media para seleccionar y curar aplicaciones de chatbot "amigables para la familia" en la GPT Store de OpenAI, el mercado de aplicaciones basadas en los modelos GenAI de OpenAI. Estas aplicaciones estarán diseñadas de acuerdo con los estándares de calificación y evaluación de Common Sense Media, con el objetivo de ofrecer a las familias y adolescentes herramientas seguras y confiables.

Sam Altman, CEO de OpenAI, enfatizó la importancia de esta asociación para fortalecer el trabajo de seguridad de OpenAI y brindar confianza a las familias y adolescentes en el uso de sus herramientas de IA. Altman destacó los beneficios que la IA puede ofrecer a las familias y adolescentes, y afirmó que esta colaboración permitirá aprovechar al máximo dichos beneficios.

Una etiqueta de nutrición para aplicaciones de IA

La colaboración entre OpenAI y Common Sense Media surge después de que OpenAI se comprometiera a participar en el nuevo marco de Common Sense Media para la evaluación y calificación de productos de IA, lanzado en septiembre. Este marco tiene como objetivo proporcionar una "etiqueta de nutrición" para las aplicaciones basadas en IA, evaluando aspectos como la seguridad, transparencia, uso ético e impacto de dichos productos.

James Steyer, cofundador y CEO de Common Sense Media, destacó que los padres de hoy en día suelen tener menos conocimientos sobre las herramientas GenAI, como el chatbot ChatGPT de OpenAI, en comparación con las generaciones más jóvenes. Por lo tanto, esta asociación se enfocará en educar a las familias y educadores sobre el uso seguro y responsable de estas herramientas de IA, evitando así cualquier consecuencia no deseada del uso de esta tecnología emergente.

La presión regulatoria sobre OpenAI

OpenAI se encuentra bajo presión regulatoria para demostrar que sus aplicaciones impulsadas por GenAI, incluido ChatGPT, son beneficiosas para la sociedad en general y no perjudiciales. En el verano pasado, la Comisión Federal de Comercio de Estados Unidos abrió una investigación sobre OpenAI para determinar si ChatGPT dañó a los consumidores a través de la recopilación de datos y la publicación de declaraciones falsas sobre las personas. Las autoridades europeas de protección de datos también han expresado su preocupación por el manejo de información privada por parte de OpenAI.

Uso creciente de herramientas de IA por parte de los jóvenes

A pesar de las limitaciones y sesgos inherentes a las herramientas de IA de OpenAI, los niños y adolescentes cada vez las utilizan más para obtener ayuda no solo en tareas escolares, sino también para problemas personales. Según una encuesta del Center for Democracy and Technology, el 29% de los niños afirma haber utilizado ChatGPT para lidiar con la ansiedad o problemas de salud mental, el 22% para problemas con amigos y el 16% para conflictos familiares.

La asociación entre OpenAI y Common Sense Media busca abordar estos desafíos y garantizar que la IA tenga un impacto positivo en la vida de los jóvenes y las familias. Al proporcionar pautas claras y materiales educativos, se espera que los padres y educadores puedan comprender mejor el uso seguro y responsable de las herramientas de IA, evitando así posibles consecuencias negativas y maximizando los beneficios que estas tecnologías pueden ofrecer.


Crear Canciones Personalizadas
Publicidad


Otras noticias • IA

Precios ajustados

Anthropic modifica precios de Claude Code generando reacciones mixtas

Anthropic ha cambiado su política de precios para Claude Code, limitando el uso de herramientas de terceros y adoptando un sistema de "pago por uso"....

Energía artificial

Empresas tecnológicas invierten en gas ante demanda de energía creciente

La creciente demanda de energía por parte de los centros de datos impulsados por la inteligencia artificial ha llevado a las empresas tecnológicas a invertir...

Cambios directivos

OpenAI reestructura su dirección con cambios clave y renuncias

OpenAI ha realizado cambios significativos en su alta dirección, destacando la reubicación de Brad Lightcap y la llegada de Denise Dresser como directora de ingresos....

Gas sostenible

Gigantes tecnológicos impulsan carrera por gas natural sostenible

La carrera por el gas natural en la era de la IA está impulsada por la demanda energética de gigantes tecnológicos como Microsoft y Google....

Nuevos modelos

Microsoft presenta tres innovadores modelos de IA centrados en humanos

Microsoft lanza tres nuevos modelos de IA: MAI-Transcribe-1 para transcripción, MAI-Voice-1 para generación de audio y MAI-Image-2 para creación de imágenes. Con un enfoque en...

Innovaciones digitales

Google Vids lanza funciones innovadoras para crear contenido fácilmente

Google Vids ha lanzado nuevas funciones que permiten personalizar avatares mediante comandos de texto, generar vídeos cortos con Veo 3.1, exportar directamente a YouTube y...

Dilemas medioambientales

Meta enfrenta críticas por huella de carbono en expansión

La expansión de Meta con su centro de datos Hyperion plantea dilemas medioambientales al depender de plantas de gas natural, aumentando su huella de carbono....

Filtraciones preocupantes

Filtraciones en Anthropic generan alarma sobre seguridad en IA

Anthropic ha sufrido filtraciones de datos que han expuesto su código fuente, generando preocupaciones sobre la seguridad en la inteligencia artificial. Estos incidentes resaltan la...