La jefa de hardware de OpenAI dimite por el acuerdo con el Pentágono

Última actualización: marzo 10, 2026
Autor: ForoPC
  • La responsable de hardware y robótica de OpenAI, Caitlin Kalinowski, renuncia por desacuerdos éticos con el contrato con el Pentágono.
  • El acuerdo permite el uso de la IA de OpenAI en seguridad nacional, con líneas rojas oficiales sobre vigilancia doméstica y armas autónomas.
  • La dimisión visibiliza tensiones internas y provoca una fuerte reacción pública, con un incremento masivo de desinstalaciones de ChatGPT.
  • El caso reabre el debate en Europa y EEUU sobre la gobernanza de la IA militar y la responsabilidad de las grandes tecnológicas.

Directiva de OpenAI renuncia por acuerdo con el Pentágono

La salida de Caitlin Kalinowski de OpenAI ha encendido todas las alarmas en el sector tecnológico. La que hasta ahora era responsable de hardware y robótica de la compañía ha presentado su dimisión en protesta por el polémico acuerdo firmado con el Departamento de Defensa de Estados Unidos, más conocido como el Pentágono.

Su marcha no se interpreta como un simple movimiento interno, sino como la cristalización de un conflicto de fondo: hasta qué punto una empresa que nació con la bandera de la IA segura y de beneficio general puede integrarse en la maquinaria de defensa sin cruzar líneas rojas éticas, un debate que también resuena en Europa y España, donde se prepara regulación específica para la IA de uso dual.

Quién es Caitlin Kalinowski y qué papel jugaba en OpenAI

Antes de romper con OpenAI, Kalinowski era una de las figuras más influyentes en el ámbito del hardware en Silicon Valley. Llegó a la compañía en 2024 procedente de Meta, donde había liderado el desarrollo de dispositivos de realidad aumentada, y anteriormente trabajó en Apple en el diseño de equipos como los MacBook.

En OpenAI se encargó de levantar desde cero la división de robótica y hardware, supervisando un laboratorio con alrededor de un centenar de investigadores y técnicos que entrenaban brazos robóticos y otros sistemas físicos para ejecutar tareas domésticas y de manipulación avanzada. Esta apuesta a largo plazo situaba a la empresa en competencia directa con proyectos de robots humanoides y plataformas robóticas que se están desarrollando en Estados Unidos, Asia y, cada vez más, también en centros de investigación europeos.

Su rol no se limitaba a la parte técnica: Kalinowski participaba en las decisiones estratégicas sobre qué tipo de infraestructura de cómputo debía construir OpenAI para sostener modelos cada vez más potentes, una cuestión que se vuelve crítica cuando esa misma infraestructura entra en redes clasificadas del sector defensa.

Acuerdo de OpenAI con el Pentágono y renuncia de su jefa de hardware

El acuerdo con el Pentágono: qué se sabe y por qué genera polémica

El contrato entre OpenAI y el Pentágono se negoció con un grado llamativo de discreción y se anunció de forma rápida, algo que varios empleados han criticado puertas adentro. Los detalles económicos y técnicos completos no se han hecho públicos, pero las distintas filtraciones y declaraciones apuntan a que la IA de OpenAI se integrará en redes clasificadas del Departamento de Defensa para tareas de seguridad nacional.

  Australia lleva a Microsoft a los tribunales por una oferta de IA engañosa

Según la propia empresa, los modelos se utilizarán en ámbitos como ciberseguridad, análisis de inteligencia, logística militar y otras formas de apoyo a la toma de decisiones. No se trataría solo de “software de oficina”, sino también de hardware de alto rendimiento optimizado para procesar datos sensibles en tiempo real, con potencial impacto en operaciones sobre el terreno.

La compañía insiste en que el acuerdo incluye “líneas rojas” muy claras: no se permitirá el uso de sus sistemas para vigilancia doméstica de ciudadanos estadounidenses ni para el desarrollo de armas completamente autónomas sin supervisión humana. OpenAI sostiene que ha incorporado salvaguardas técnicas y contractuales, y que tras las primeras críticas revisó el texto para dejar esos límites por escrito.

Sin embargo, estas garantías han llegado tarde para parte de la plantilla. Un responsable del propio Departamento de Defensa llegó a afirmar públicamente que el acuerdo permitiría emplear los modelos de OpenAI por “todos los medios legales”, una formulación ambigua que muchos interpretan como incompatible con las promesas hechas por Sam Altman en redes sociales.

Las razones de la renuncia: principios, gobernanza y “líneas que se han cruzado”

En su despedida, Kalinowski fue especialmente clara. Reconoció que la inteligencia artificial puede jugar un papel relevante en la seguridad nacional, pero marcó dos fronteras que, a su juicio, se han gestionado con excesiva ligereza: la vigilancia de ciudadanos sin supervisión judicial y la eventual autonomía letal de sistemas militares.

Para ella, estas cuestiones requerían “más deliberación de la que recibieron” antes de firmar el contrato. Lo definió como una cuestión de principios y, sobre todo, como un fallo de gobernanza dentro de la empresa: los anuncios y compromisos se habrían hecho “demasiado deprisa”, sin blindar de antemano los límites éticos y técnicos del acuerdo.

Pese a sus críticas, Kalinowski subrayó que conserva un “profundo respeto” por Altman y por el equipo de OpenAI, insistiendo en que su desacuerdo no es personal sino estructural. El mensaje, no obstante, es contundente: cuando quien diseña los “hierros” que hacen posible la IA decide bajarse del barco, la señal hacia dentro y hacia fuera es que el rumbo ha cambiado de forma preocupante.

Esta dimisión recuerda a otros episodios sonados en la industria, como las protestas internas en Google por el proyecto Maven, también vinculado al Pentágono. En todos estos casos, el conflicto gira en torno al mismo eje: hasta qué punto la IA civil puede hibridarse con la defensa sin convertirse en un activo más del complejo militar-tecnológico.

  RTX 5090 Ti o RTX Titan: lo que se sabe del nuevo tope de gama de Nvidia

Debate ético sobre el uso militar de la inteligencia artificial

Reacción interna, presión externa y fuga de usuarios

La renuncia de la jefa de hardware no ha sido el único efecto colateral del acuerdo. Dentro de la propia OpenAI, ingenieros de hardware, especialistas en seguridad y expertos en alineación han expresado temores parecidos, advirtiendo del riesgo de que infraestructuras concebidas para impulsar el progreso se acaben empleando como piezas de una nueva “guerra fría algorítmica”.

Fuera de la compañía, el impacto ha sido inmediato en términos de reputación. Diversos medios especializados reportan que, tras el anuncio del contrato con el Pentágono, las desinstalaciones de la app de ChatGPT se dispararon hasta un 295 % en solo un día. En paralelo, herramientas competidoras como Claude, de Anthropic, ganaron tracción en descargas y visibilidad en las tiendas de aplicaciones.

El movimiento de boicot bajo lemas como “cancelar ChatGPT” ha encontrado eco especialmente entre usuarios jóvenes y perfiles técnicos que ya veían con recelo la creciente concentración de poder en unas pocas plataformas de IA. En Europa, donde el Reglamento de IA de la UE pone el foco precisamente en usos de alto riesgo como la vigilancia masiva, estos acontecimientos alimentan el debate sobre si las salvaguardas actuales son suficientes.

OpenAI, por su parte, ha respondido con una campaña de comunicación defensiva. La empresa reitera que el acuerdo “abre un camino viable para usos responsables de la IA en defensa” y que continuará dialogando con empleados, gobiernos, organizaciones civiles y comunidades internacionales. Pese a ello, la percepción pública ya se ha resentido y será difícil revertirla a corto plazo.

Anthropic, cláusulas más estrictas y el mercado de la defensa

El caso de OpenAI no se entiende del todo sin el contexto de su principal rival, Anthropic. Antes de cerrar el acuerdo con OpenAI, el Pentágono mantuvo negociaciones con esta compañía, conocida por poner el acento en la seguridad y en límites más rígidos al uso de sus modelos.

Anthropic habría planteado condiciones muy estrictas para impedir que su IA se utilizara en vigilancia doméstica masiva o en armamento completamente autónomo, algo que finalmente hizo naufragar las conversaciones. Posteriormente, el Departamento de Defensa llegó a etiquetar a la firma como un “riesgo para la cadena de suministro”, cerrándole en la práctica la puerta a futuros contratos militares.

Esta decisión se ha politizado aún más después de que figuras del gobierno estadounidense tildaran a Anthropic de empresa “demasiado radical” en materia de regulación, mientras que gigantes como Microsoft, Google o Amazon han optado por seguir ofreciendo sus modelos a clientes no vinculados a la defensa. La compañía ha anunciado que planea recurrir legalmente esa clasificación.

En paralelo, altos cargos de seguridad de Anthropic, como su responsable de salvaguardas, han advertido públicamente de que el “mundo está en peligro” si la carrera por desplegar IA cada vez más potente continúa sin marcos de control robustos. Sus mensajes encajan con la crítica de Kalinowski: si la gobernanza va por detrás del negocio, el riesgo no es abstracto, sino muy concreto.

  Ryzen 9 9950X3D2: filtraciones, rendimiento y lo que prepara AMD

Un debate que también mira a Europa y España

Aunque el acuerdo se ha firmado en Estados Unidos, las consecuencias se proyectan mucho más allá. La Unión Europea ha aprobado el AI Act, que introduce obligaciones estrictas para sistemas de alto riesgo, incluyendo usos en seguridad, control fronterizo y vigilancia. El caso OpenAI-Pentágono refuerza las posiciones de quienes, en Bruselas y en capitales como Madrid, París o Berlín, piden aún más garantías cuando se trata de aplicaciones de defensa.

En España, donde el despliegue de la IA en la administración pública y en la industria está todavía en fase de consolidación, episodios como este servirán de referencia a la hora de diseñar contratos públicos y alianzas con grandes tecnológicas. Las autoridades europeas suelen mirar con lupa cómo se gestionan la transparencia, las auditorías y las salvaguardas cuando la tecnología cruza la línea entre lo civil y lo militar.

Para los centros de investigación y las startups europeas que trabajan en IA aplicada a robótica, defensa y seguridad, el mensaje es doble. Por un lado, el mercado de la defensa se confirma como una fuente potencial de financiación y escalado. Por otro, la gestión ética de estos acuerdos puede determinar tanto la capacidad para atraer talento como la relación con reguladores y ciudadanía.

La dimisión de la jefa de hardware de OpenAI, en definitiva, refuerza la idea de que el debate sobre la IA militar ya no es teórico ni futurista: se está dirimiendo hoy en los contratos, en los comités de ética y en las renuncias de altos cargos que deciden no comprometer sus principios.

Todo lo ocurrido en torno al acuerdo de OpenAI con el Pentágono deja una fotografía incómoda para la industria: una compañía clave en la revolución de la inteligencia artificial entra de lleno en el mercado de defensa, su principal responsable de hardware dimite por falta de salvaguardas, los usuarios reaccionan con una ola de desinstalaciones y los reguladores, especialmente en Europa, toman nota. La discusión sobre qué límites deben regir el uso militar de la IA ya no puede aplazarse, porque está marcando, en tiempo real, el rumbo de las empresas, la confianza de la sociedad y el tipo de tecnología que se construirá en los próximos años.

plataforma de inteligencia artificial de huawei
Artículo relacionado:
Plataforma de inteligencia artificial de Huawei: ecosistema, chips y nube