Cuatro líderes en IA se unen para formar un nuevo organismo de la industria
Cuatro de los principales actores en el campo de la inteligencia artificial (IA) se han unido para formar un nuevo organismo de la industria diseñado para garantizar el "desarrollo seguro y responsable" de los llamados modelos de IA "de frontera".
En respuesta a las crecientes demandas de supervisión regulatoria, OpenAI, desarrollador de ChatGPT, Microsoft, Google y Anthropic han anunciado el Frontier Model Forum, una coalición que se basa en la experiencia de las empresas miembro para desarrollar evaluaciones técnicas y referencias, y promover las mejores prácticas y estándares.
El nuevo frente
En el núcleo de la misión del foro se encuentra lo que OpenAI ha denominado anteriormente "IA de frontera", que son modelos avanzados de IA y aprendizaje automático que se consideran lo suficientemente peligrosos como para plantear "riesgos graves para la seguridad pública". Argumentan que estos modelos representan un desafío regulatorio único, ya que "las capacidades peligrosas pueden surgir de manera inesperada", lo que dificulta la prevención del mal uso de los modelos.
Los objetivos declarados por el nuevo foro incluyen:
i) Promover la investigación sobre seguridad de la IA para fomentar el desarrollo responsable de los modelos de frontera, minimizar los riesgos y permitir evaluaciones independientes y estandarizadas de las capacidades y seguridad.
ii) Identificar las mejores prácticas para el desarrollo y despliegue responsable de los modelos de frontera, ayudando al público a comprender la naturaleza, capacidades, limitaciones e impacto de la tecnología.
iii) Colaborar con responsables políticos, académicos, sociedad civil y empresas para compartir conocimientos sobre los riesgos de confianza y seguridad.
iv) Apoyar los esfuerzos para desarrollar aplicaciones que puedan ayudar a enfrentar los mayores desafíos de la sociedad, como la mitigación y adaptación al cambio climático, la detección temprana y prevención del cáncer, y la lucha contra las amenazas cibernéticas.
Aunque el Frontier Model Forum cuenta actualmente con solo cuatro miembros, el colectivo afirma que está abierto a nuevos miembros. Las organizaciones que califiquen deben estar desarrollando y desplegando modelos de IA de frontera, y demostrar un "firme compromiso con la seguridad de los modelos de frontera".
A corto plazo, los miembros fundadores afirman que los primeros pasos serán establecer una junta asesora para guiar su estrategia, junto con un estatuto, una estructura de gobierno y financiamiento.
"Planeamos consultar con la sociedad civil y los gobiernos en las próximas semanas sobre el diseño del Foro y sobre formas significativas de colaboración", escribieron las empresas en un comunicado conjunto hoy.
Regulación
Si bien el Frontier Model Forum está diseñado para demostrar que la industria de la IA se toma en serio las preocupaciones de seguridad, también destaca el deseo de las grandes tecnológicas de evitar la regulación entrante a través de iniciativas voluntarias, y tal vez avanzar en la redacción de sus propias reglas.
De hecho, la noticia de hoy llega en un momento en que Europa avanza con lo que será el primer conjunto de normas concretas de IA, diseñadas para consagrar la seguridad, la privacidad, la transparencia y la no discriminación en el corazón del ethos de desarrollo de IA de las empresas.
La semana pasada, el presidente Biden se reunió con siete empresas de IA en la Casa Blanca, incluidos los cuatro miembros fundadores del Frontier Model Forum, para acordar salvaguardias voluntarias contra la creciente revolución de la IA, aunque los críticos argumentan que los compromisos eran algo vagos.
Sin embargo, Biden también indicó que la supervisión regulatoria estaría en el futuro.
"Para hacer realidad la promesa de la IA mediante la gestión del riesgo, se necesitarán nuevas leyes, regulaciones y supervisión", dijo Biden en ese momento. "En las próximas semanas, seguiré tomando medidas ejecutivas para ayudar a Estados Unidos a liderar el camino hacia una innovación responsable. Y trabajaremos con ambos partidos para desarrollar legislación y regulaciones adecuadas".
Otras noticias • IA
OpenAI mejora IA tras incidentes de respuestas inapropiadas
OpenAI ha decidido implementar cambios significativos en sus modelos de IA tras incidentes de respuestas inapropiadas de ChatGPT. Se introducirán fases de prueba, mayor transparencia...
Airbnb lanza bot de IA que reduce consultas humanas un 15%
Airbnb ha implementado un bot de servicio al cliente basado en inteligencia artificial en EE. UU., con un 50% de usuarios utilizándolo. Esto ha reducido...
Reddit lanza chatbot para satisfacer a Seekers y aumentar compromiso
Reddit ha identificado dos tipos de usuarios: Scrollers, que buscan interacción comunitaria, y Seekers, que buscan respuestas. Para estos últimos, ha lanzado Reddit Answers, un...
Amazon presenta Alexa+ con IA generativa para interacciones mejoradas
Amazon ha lanzado Alexa+, un asistente digital mejorado con IA generativa, que busca ofrecer interacciones más naturales. Aunque enfrenta retos tecnológicos y limitaciones actuales, la...
Inteligencia artificial revoluciona ciencia, pero genera escepticismo persistente
La inteligencia artificial está transformando la investigación científica, con herramientas como las de FutureHouse que prometen acelerar descubrimientos. Sin embargo, persisten limitaciones y escepticismo entre...
Olmo 2 1B democratiza la IA con un billón de parámetros
Olmo 2 1B, lanzado por Ai2, es un modelo de inteligencia artificial con un billón de parámetros, diseñado para ser accesible y eficiente en dispositivos...
Claude de Anthropic se actualiza con nuevas integraciones avanzadas
Anthropic ha actualizado su chatbot Claude con nuevas integraciones que mejoran su conectividad y capacidad de investigación profunda. Asociaciones con empresas como Atlassian y Zapier...
Google elimina lista de espera y lanza AI Mode para todos
Google ha eliminado la lista de espera para su función AI Mode, permitiendo a todos los usuarios mayores de 18 años en EE. UU. acceder...
Lo más reciente
- 1
Gemini 2.5 Pro de Google completa Pokémon Blue, un hito
- 2
Plataformas de segunda mano se adaptan y crecen en crisis
- 3
Inteligencia artificial prioriza compromiso y descuida calidad en interacciones
- 4
Gemini 2.5 de Google genera más contenido inapropiado y preocupaciones
- 5
Filtración en Raw expone datos sensibles y genera alarma
- 6
Startups innovan en tecnología legal moda y salud a pesar desafíos
- 7
NotebookLM de Google transforma la toma de notas móviles