OpenAI abre la puerta a aplicaciones militares en su política de uso
En una actualización no anunciada de su política de uso, OpenAI ha abierto la puerta a aplicaciones militares de sus tecnologías. Si bien la política anterior prohibía el uso de sus productos con fines "militares y de guerra", ese lenguaje ha desaparecido ahora, y OpenAI no negó que ahora esté abierto a usos militares.
El Intercept fue el primero en notar el cambio, que parece haberse implementado el 10 de enero.
Cambios no anunciados en la redacción de políticas ocurren con bastante frecuencia en la tecnología a medida que los productos que rigen la utilización evolucionan y cambian, y OpenAI claramente no es una excepción. De hecho, el reciente anuncio de la compañía de que sus GPT personalizables estarían disponibles públicamente junto con una política de monetización vagamente articulada probablemente haya requerido algunos cambios.
Pero el cambio en la política de no-militar no puede ser una consecuencia de este nuevo producto en particular. Tampoco se puede afirmar creíblemente que la exclusión de "militar y guerra" es simplemente "más clara" o "más legible", como dice una declaración de OpenAI sobre la actualización. Es un cambio sustancial y consecuente de la política, no una reafirmación de la misma.
Un cambio de política sustancial
Es evidente que todo el documento ha sido reescrito, aunque si es más legible o no es más una cuestión de gusto que otra cosa. Personalmente, considero que una lista de viñetas de prácticas claramente prohibidas es más legible que las directrices más generales con las que han sido reemplazadas. Pero los redactores de políticas en OpenAI claramente piensan lo contrario, y si esto les da más margen para interpretar favorable o desfavorablemente una práctica que hasta ahora estaba prohibida, eso es simplemente un efecto secundario agradable.
Sin embargo, como explicó el representante de OpenAI, Niko Felix, todavía existe una prohibición general de desarrollar y utilizar armas, lo cual se puede ver que estaba originalmente y separado de "militar y guerra". Después de todo, el ejército no solo fabrica armas, y otras personas además del ejército fabrican armas.
Y es precisamente donde esas categorías no se superponen donde especulo que OpenAI está examinando nuevas oportunidades comerciales. No todo lo que hace el Departamento de Defensa está estrictamente relacionado con la guerra; como cualquier académico, ingeniero o político sabe, el establecimiento militar está profundamente involucrado en todo tipo de investigación básica, inversión, fondos para pequeñas empresas y apoyo a infraestructuras.
Nuevas oportunidades de negocio
Las plataformas GPT de OpenAI podrían ser de gran utilidad, por ejemplo, para los ingenieros del ejército que buscan resumir décadas de documentación sobre la infraestructura hídrica de una región. Es un verdadero dilema en muchas empresas cómo definir y navegar su relación con el gobierno y el dinero militar. El famoso "Proyecto Maven" de Google dio un paso demasiado lejos, aunque a pocos pareció importarles el contrato multibillonario de la nube JEDI. Podría estar bien que un investigador académico con una subvención del laboratorio de investigación de la Fuerza Aérea utilice GPT-4, pero no un investigador dentro del AFRL que trabaje en el mismo proyecto. ¿Dónde trazas la línea? Incluso una política estricta de "no militar" tiene que detenerse después de algunas excepciones.
Dicho esto, la eliminación total de "militar y guerra" de los usos prohibidos de OpenAI sugiere que la compañía está, al menos, abierta a servir a clientes militares. Le pedí a la compañía que confirmara o negara que este era el caso, advirtiéndoles que el lenguaje de la nueva política dejaba claro que cualquier cosa excepto una negación se interpretaría como una confirmación.
Hasta el momento de escribir esto, no han respondido. Actualizaré esta publicación si obtengo una respuesta.
Otras noticias • IA
Meta abre WhatsApp a chatbots de terceros en Brasil
Meta ha permitido el uso de chatbots de terceros en WhatsApp en Brasil, tras presiones regulatorias de CADE. Aunque esto fomenta la competencia, los altos...
Anthropic clasificada como riesgo por Defensa de EE. UU
El Departamento de Defensa de EE. UU. ha clasificado a Anthropic como un riesgo para la cadena de suministro, lo que podría afectar su colaboración...
DiligenceSquared transforma la diligencia debida con inteligencia artificial
DiligenceSquared, una startup de Y Combinator, revoluciona la diligencia debida en capital privado utilizando inteligencia artificial para ofrecer análisis de calidad a un coste reducido....
Amazon Connect Health revoluciona la atención médica con IA
Amazon Connect Health, lanzado por AWS, transforma la atención médica mediante la automatización de tareas administrativas con inteligencia artificial. Esta plataforma se integra con sistemas...
Trump propone regulaciones que amenazan a empresas de chips AI
La administración Trump plantea nuevas regulaciones sobre la exportación de chips de inteligencia artificial, lo que podría afectar a empresas estadounidenses como Nvidia y AMD....
Conflicto Anthropic-EE.UU. revela dilemas éticos en IA militar
El conflicto entre Anthropic y el Departamento de Defensa de EE. UU. refleja la tensión entre la ética empresarial y el uso militar de la...
OpenAI lanza GPT-5.4, revolucionando la inteligencia artificial profesional
OpenAI ha lanzado GPT-5.4, su modelo más avanzado, con capacidad para gestionar un millón de tokens y mayor eficiencia. Incluye versiones estándar, de razonamiento y...
Luma Agents revoluciona publicidad con inteligencia artificial innovadora
Luma Agents, una innovadora plataforma de inteligencia artificial, transforma la publicidad y el marketing al permitir la creación y gestión integral de contenido. Su enfoque...
Lo más reciente
- 1
Robinhood lanza fondo para democratizar inversiones en startups
- 2
X lanza publicidad recomendada para mejorar experiencia del usuario
- 3
TerraPower obtiene permiso para reactor Natrium en Wyoming
- 4
Investigación de OSHA tras muerte de trabajador en Rivian
- 5
Defensa de EE. UU. clasifica a Anthropic como riesgo ético
- 6
Récord de PCs en India en 2025, futuro prometedor
- 7
Claude supera a ChatGPT y gana la confianza del público

