IA | Ampliación

OpenAI flexibiliza su política de uso y abre puertas militares

OpenAI abre la puerta a aplicaciones militares en su política de uso

En una actualización no anunciada de su política de uso, OpenAI ha abierto la puerta a aplicaciones militares de sus tecnologías. Si bien la política anterior prohibía el uso de sus productos con fines "militares y de guerra", ese lenguaje ha desaparecido ahora, y OpenAI no negó que ahora esté abierto a usos militares.

El Intercept fue el primero en notar el cambio, que parece haberse implementado el 10 de enero.

Cambios no anunciados en la redacción de políticas ocurren con bastante frecuencia en la tecnología a medida que los productos que rigen la utilización evolucionan y cambian, y OpenAI claramente no es una excepción. De hecho, el reciente anuncio de la compañía de que sus GPT personalizables estarían disponibles públicamente junto con una política de monetización vagamente articulada probablemente haya requerido algunos cambios.

Pero el cambio en la política de no-militar no puede ser una consecuencia de este nuevo producto en particular. Tampoco se puede afirmar creíblemente que la exclusión de "militar y guerra" es simplemente "más clara" o "más legible", como dice una declaración de OpenAI sobre la actualización. Es un cambio sustancial y consecuente de la política, no una reafirmación de la misma.

Un cambio de política sustancial

Es evidente que todo el documento ha sido reescrito, aunque si es más legible o no es más una cuestión de gusto que otra cosa. Personalmente, considero que una lista de viñetas de prácticas claramente prohibidas es más legible que las directrices más generales con las que han sido reemplazadas. Pero los redactores de políticas en OpenAI claramente piensan lo contrario, y si esto les da más margen para interpretar favorable o desfavorablemente una práctica que hasta ahora estaba prohibida, eso es simplemente un efecto secundario agradable.

Sin embargo, como explicó el representante de OpenAI, Niko Felix, todavía existe una prohibición general de desarrollar y utilizar armas, lo cual se puede ver que estaba originalmente y separado de "militar y guerra". Después de todo, el ejército no solo fabrica armas, y otras personas además del ejército fabrican armas.

Y es precisamente donde esas categorías no se superponen donde especulo que OpenAI está examinando nuevas oportunidades comerciales. No todo lo que hace el Departamento de Defensa está estrictamente relacionado con la guerra; como cualquier académico, ingeniero o político sabe, el establecimiento militar está profundamente involucrado en todo tipo de investigación básica, inversión, fondos para pequeñas empresas y apoyo a infraestructuras.

Nuevas oportunidades de negocio

Las plataformas GPT de OpenAI podrían ser de gran utilidad, por ejemplo, para los ingenieros del ejército que buscan resumir décadas de documentación sobre la infraestructura hídrica de una región. Es un verdadero dilema en muchas empresas cómo definir y navegar su relación con el gobierno y el dinero militar. El famoso "Proyecto Maven" de Google dio un paso demasiado lejos, aunque a pocos pareció importarles el contrato multibillonario de la nube JEDI. Podría estar bien que un investigador académico con una subvención del laboratorio de investigación de la Fuerza Aérea utilice GPT-4, pero no un investigador dentro del AFRL que trabaje en el mismo proyecto. ¿Dónde trazas la línea? Incluso una política estricta de "no militar" tiene que detenerse después de algunas excepciones.

Dicho esto, la eliminación total de "militar y guerra" de los usos prohibidos de OpenAI sugiere que la compañía está, al menos, abierta a servir a clientes militares. Le pedí a la compañía que confirmara o negara que este era el caso, advirtiéndoles que el lenguaje de la nueva política dejaba claro que cualquier cosa excepto una negación se interpretaría como una confirmación.

Hasta el momento de escribir esto, no han respondido. Actualizaré esta publicación si obtengo una respuesta.


Podcast El Desván de las Paradojas
Publicidad


Otras noticias • IA

Inteligencia artificial

Helios revoluciona la política pública con inteligencia artificial Proxi

Helios, cofundada por Joe Scheidler y Joseph Farsakh, integra inteligencia artificial en la política pública con su producto Proxi. Este sistema optimiza la toma de...

Sesgo ético

Grok 4 de xAI: ¿Sesgo de Elon Musk en inteligencia artificial?

Grok 4, de xAI, refleja la influencia de las opiniones de Elon Musk en su funcionamiento, lo que cuestiona su objetividad y capacidad para buscar...

Marketplace IA

AWS lanza marketplace de IA para democratizar soluciones personalizadas

El lanzamiento del marketplace de agentes de IA de AWS el 15 de julio promete democratizar el acceso a la inteligencia artificial, permitiendo a empresas...

Creación audiovisual

Google lanza Veo 3, revolucionando la creación de videos

Google ha lanzado Veo 3, una herramienta de inteligencia artificial que permite generar videos a partir de imágenes. Esta innovación democratiza la creación de contenido...

Certificación ágil

Knox acelera certificación FedRAMP y democratiza contratos gubernamentales

Knox, fundada por Irina Denisenko, busca acelerar el proceso de certificación FedRAMP para software como servicio en el sector público, reduciendo el tiempo y coste....

Análisis geoespacial

LGND revoluciona análisis geoespacial con 9 millones en financiación

LGND es una startup que transforma el análisis de datos geoespaciales mediante embebidos vectoriales, mejorando la eficiencia en la interpretación de imágenes satelitales. Con una...

Innovación sostenible

Google impulsa startups de IA con nueva Academia Americana

Google lanza la segunda cohorte de su Academia de Infraestructura Americana, apoyando startups de IA en áreas críticas como ciberseguridad y salud. El programa, sin...

Expansión sanitaria

Diligent Robotics expande flota Moxi para mejorar atención sanitaria

Diligent Robotics, con la incorporación de Rashed Haq y Todd Brugger en su liderazgo, busca expandir su flota de robots Moxi en el sector sanitario....