Todo lo que se sabe de GPT-5.5-Cyber de OpenAI y su impacto en la ciberseguridad

Última actualización: mayo 2, 2026
Autor: ForoPC
  • GPT-5.5-Cyber es la variante de ciberseguridad del nuevo modelo GPT-5.5 de OpenAI, con acceso restringido a defensores críticos.
  • Los ensayos en pruebas CTF y simulaciones avanzadas muestran capacidades casi autónomas en cadenas complejas de ciberataque.
  • El acceso se gestiona mediante programas de Trusted Access y procesos de verificación, en colaboración con gobiernos y el sector.
  • OpenAI converge con Anthropic en un modelo de despliegue limitado por riesgos de uso ofensivo de la IA.

Modelo GPT-5.5-Cyber de OpenAI para ciberseguridad

OpenAI ha situado a GPT-5.5-Cyber en el centro del debate sobre ciberseguridad y riesgos de la inteligencia artificial avanzada. Este modelo, afinado sobre la base de GPT-5.5, combina capacidades de análisis técnico profundo con un nivel de autonomía que empieza a rozar lo que hasta hace poco se veía solo en la teoría.

Al mismo tiempo, la compañía ha optado por implantar un acceso fuertemente restringido, orientado a un grupo reducido de defensores considerados críticos para la protección de infraestructuras y organizaciones sensibles. Esa estrategia, alineada con la de otros actores como Anthropic, reabre la discusión sobre quién debe poder utilizar herramientas capaces de descubrir y explotar vulnerabilidades a gran escala.

nueva ley europea de ciberseguridad
Related article:
Qué cambia con la nueva ley europea de ciberseguridad

Qué es exactamente GPT-5.5-Cyber y a quién va dirigido

GPT-5.5-Cyber es la versión especializada en ciberseguridad del modelo GPT-5.5, presentado por OpenAI como su sistema más avanzado hasta la fecha. Mientras el modelo general se orienta a una «computación más intuitiva», capaz de entender mejor las intenciones de los usuarios y ejecutar tareas de manera autónoma, la variante Cyber se ha entrenado y afinado específicamente para escenarios de seguridad informática.

Según ha explicado Sam Altman, el despliegue inicial se dirigirá a «defensores críticos de la ciberseguridad». Bajo esta etiqueta se agrupan equipos con responsabilidad directa sobre redes corporativas complejas, infraestructuras sensibles y sistemas que, en caso de ataque, tendrían un impacto significativo en la economía, los servicios esenciales o la seguridad pública.

El acceso a GPT-5.5-Cyber no se plantea como un producto de consumo masivo ni como una simple funcionalidad adicional de un chatbot. Al contrario, OpenAI ha activado un esquema de solicitud y verificación en el que los interesados deben aportar credenciales profesionales y detallar el uso previsto de la herramienta, dentro de programas como el llamado Trusted Access for Cyber.

Esta aproximación supone que la compañía asume un papel de filtro previo, en colaboración con el sector y con autoridades gubernamentales, para decidir quién puede interactuar con un modelo que combina funciones defensivas y ofensivas. Para empresas europeas con actividad en sectores regulados, este tipo de control previo se cruza de lleno con los requisitos del reglamento europeo de servicios digitales y del futuro marco de IA de la UE, donde la gestión del riesgo es clave.

Capacidades técnicas: de los retos CTF a las simulaciones de intrusión compleja

Uno de los puntos que más ha llamado la atención de organismos públicos y expertos es el rendimiento de GPT-5.5-Cyber en pruebas específicas de ciberseguridad tipo Capture The Flag (CTF). En un entorno de evaluación controlado por el Instituto de Seguridad de la Inteligencia Artificial del Reino Unido (AISI), el modelo se enfrentó a 95 tareas cibernéticas repartidas en cuatro niveles de dificultad.

  Motivos por los que Microsoft Copilot no termina de convencer

Esas pruebas incluían ingeniería inversa, explotación de vulnerabilidades web y criptografía avanzada, entre otros retos habituales en competiciones técnicas. Mientras modelos anteriores solo brillaban en ejercicios relativamente cortos y con poca necesidad de búsqueda adicional de información, GPT-5.5-Cyber destacó precisamente en las tareas más largas y complejas, aquellas que exigen planificación y razonamiento encadenado.

En las tareas de nivel experto, el sistema registró una tasa de éxito media en torno al 71 %, superando no solo a predecesores como GPT-5.4, sino también a modelos competidores. Frente al 52 % aproximado de GPT-5.4 y cifras por debajo del 50 % en otros sistemas de referencia, el salto se considera significativo en términos de capacidades ciberofensivas y defensivas de alto nivel.

Más allá de los CTF clásicos, el AISI evaluó a GPT-5.5-Cyber en una simulación avanzada conocida como “The Last Ones” (TLO). Se trata de un escenario de ciberataque de 32 pasos que recrea una red corporativa realista, con casi una veintena de equipos repartidos en cuatro subredes. El agente de IA comienza sin credenciales ni privilegios, desde una máquina de ataque aislada.

Evaluación de GPT-5.5-Cyber en escenarios de ciberseguridad

En este entorno, la IA debe realizar reconocimiento de red, obtención y explotación de credenciales, desplazamiento lateral entre dominios y, finalmente, un pivote a través de la cadena de suministro de integración y despliegue continuo (CI/CD) para extraer una base de datos interna protegida. El diseño obliga a mantener un hilo conductor técnico y estratégico similar al de un atacante humano experimentado.

El propio AISI estima que un especialista humano tardaría unas 20 horas y varios intentos en completar toda la cadena de ataque. Frente a esa referencia, GPT-5.5-Cyber logró terminar la simulación de extremo a extremo en dos de cada diez ejecuciones, convirtiéndose en el segundo sistema capaz de conseguirlo, solo por detrás de otro modelo puntero evaluado previamente.

Herramienta dual: pruebas de penetración, explotación y defensa

Más allá de los benchmarks académicos, la descripción que ofrece OpenAI de GPT-5.5-Cyber deja claro que estamos ante un “kit de herramientas” de ciberseguridad con aplicaciones ofensivas y defensivas. Entre las capacidades previstas destacan las pruebas de penetración (penetration testing), la identificación de vulnerabilidades, la explotación controlada y la ingeniería inversa de malware.

En un contexto corporativo europeo, este tipo de funciones permitiría a equipos de seguridad acelerar auditorías internas, validar la robustez de sus sistemas y descubrir fallos de configuración que, de otro modo, podrían pasar desapercibidos durante meses. La automatización parcial de estos procesos, apoyada en un modelo capaz de razonar a largo plazo, reduce tiempos y facilita el trabajo de equipos con recursos limitados.

  Microsoft empieza a reducir la integración de Copilot en Windows 11

A la vez, la existencia de una IA capaz de localizar, encadenar y explotar vulnerabilidades con poca supervisión humana plantea un riesgo evidente si esas capacidades se desvían de su objetivo original. Esa dualidad es la que explica el énfasis de OpenAI en mantener un control estricto sobre quién accede al modelo y con qué propósito declarado.

OpenAI sostiene que sus barreras de seguridad “reducen suficientemente el riesgo cibernético por ahora”, y que la exposición de GPT-5.5-Cyber se limita de momento a un reducido número de especialistas. No obstante, las propias evaluaciones del AISI apuntan a que la autonomía, el razonamiento y la programación a largo plazo en tareas de ciberseguridad están mejorando de forma continuada, lo que sugiere que las capacidades seguirán creciendo con las próximas generaciones de modelos.

Para las empresas de la Unión Europea, especialmente aquellas sujetas a normas como NIS2 o el futuro marco de certificación de ciberseguridad, la llegada de estas herramientas abre una vía para reforzar sus mecanismos de protección, pero también obliga a revisar políticas internas sobre dependencia tecnológica y gestión de proveedores de IA fuera del territorio europeo.

Modelo de acceso restringido y colaboración con gobiernos

El despliegue de GPT-5.5-Cyber se está realizando bajo un modelo de acceso controlado, basado en solicitudes individuales o institucionales. Para optar al uso del sistema, los interesados deben acreditar experiencia y responsabilidades en ciberseguridad, además de explicar de forma detallada el caso de uso previsto.

OpenAI ha indicado que este proceso no se limita a una lista de espera convencional, sino que funciona como un filtro para identificar perfiles con credenciales legítimas dentro del ámbito de la seguridad informática. La revisión tiene en cuenta tanto la función profesional como el impacto potencial del uso de la plataforma.

En paralelo, la compañía afirma que está trabajando “con todo el ecosistema y con el gobierno” para definir criterios de acceso considerados confiables. En la práctica, eso implica un diálogo con autoridades, principalmente en Estados Unidos, aunque las decisiones que se adopten influirán de forma indirecta en organizaciones europeas que dependan de estos servicios cloud.

Además del acceso por solicitud, OpenAI ha lanzado iniciativas como un programa de Trusted Access for Cyber con créditos específicos de uso de la API, orientado a organizaciones que desempeñan funciones críticas de defensa cibernética. Este tipo de esquemas recuerda a otras colaboraciones entre grandes tecnológicas y administraciones públicas, en las que la IA se integra en estrategias nacionales de ciberseguridad.

Sin embargo, la decisión de dejar en manos de empresas privadas la capacidad de decidir quién utiliza herramientas de seguridad ofensiva de alto nivel plantea interrogantes de gobernanza. En ausencia de un marco regulatorio detallado, el criterio sobre quién entra en esos programas y quién se queda fuera recae casi por completo en el proveedor.

  TPU Ironwood de Google: potencia para la era de la inferencia

Convergencia con Anthropic y debate sobre riesgos

El enfoque adoptado para GPT-5.5-Cyber se parece mucho al que su competidor Anthropic aplica con su modelo Claude Mythos, también especializado en ciberseguridad. Mythos fue presentado como una herramienta capaz de detectar vulnerabilidades de alta gravedad en los principales sistemas operativos y navegadores, dentro del llamado Proyecto Glasswing.

En su momento, Anthropic justificó un despliegue muy restringido de Mythos, alegando que las capacidades de descubrimiento de “zero-days” y la posibilidad de ejecutar ataques autónomos exigían un acceso limitado a un reducido grupo de grandes organizaciones y operadores de infraestructuras críticas. Entre ellas se encontraban compañías tecnológicas globales y entidades financieras de primer nivel.

El caso de Mythos demostró, además, que los controles de acceso no son infalibles: un grupo de informáticos aseguró haber conseguido utilizar el modelo sin autorización, lo que alimentó las dudas sobre la eficacia real de mantener estas herramientas en un círculo cerrado. Ese episodio se utiliza ahora como referencia en el debate sobre la política de acceso a GPT-5.5-Cyber.

Con todo, tanto los datos publicados por el AISI como la experiencia reciente en ciberataques muestran que la frontera entre herramientas defensivas y ofensivas se ha vuelto muy fina. Un mismo modelo puede servir para auditar la seguridad de un hospital europeo o, con ligeros cambios de intención, para atacar a otra organización con recursos similares.

En la práctica, OpenAI y Anthropic están convergiendo en un modelo similar de despliegue: acceso verificado, revisión caso por caso y colaboración con gobiernos para intentar equilibrar innovación y control de riesgos. La diferencia ya no está tanto en la filosofía declarada, sino en los detalles de implementación y en la transparencia con la que se comuniquen esas decisiones.

Para los reguladores europeos, que trabajan en el desarrollo de normas específicas sobre IA de alto riesgo, este tipo de movimientos refuerza la idea de que la ciberseguridad basada en IA requiere un tratamiento particular, similar al de otras tecnologías sensibles, desde la criptografía avanzada hasta determinados sistemas de defensa.

El desarrollo y despliegue de GPT-5.5-Cyber refleja así una fase nueva en la relación entre IA y ciberseguridad: modelos capaces de resolver de principio a fin simulaciones de ataque complejas, empresas que los restringen a defensores seleccionados y autoridades que empiezan a analizar cómo encajan estas herramientas en los marcos legales existentes. En este escenario, organizaciones de España y del resto de Europa deberán valorar no solo el potencial de estas soluciones para reforzar sus defensas, sino también las implicaciones de depender de infraestructuras de IA controladas desde fuera del continente.