Meta se apoyará en los chips Graviton de AWS para escalar su IA agentiva

Última actualización: abril 24, 2026
Autor: ForoPC
  • Meta ampliará su colaboración con AWS usando decenas de millones de núcleos Graviton para cargas de IA agentiva.
  • Los procesadores Graviton5, con hasta 192 núcleos y mayor caché, buscan mejorar rendimiento y eficiencia de costes.
  • El acuerdo refuerza la posición de Amazon frente a Google Cloud y otros proveedores en la carrera por la infraestructura de IA.
  • La apuesta por CPU basadas en ARM señala un cambio de foco más allá de las GPU en los grandes centros de datos de IA.

Infraestructura de IA con chips Graviton

Meta ha cerrado una ampliación de su alianza con Amazon Web Services (AWS) para incorporar de forma masiva los procesadores Graviton en su infraestructura de inteligencia artificial. El acuerdo, que se extenderá al menos durante varios años, supone que la tecnológica de Mark Zuckerberg trasladará decenas de millones de núcleos de computación a esta familia de chips basados en ARM alojados en la nube de Amazon.

Este movimiento refuerza la apuesta de Meta por una IA más avanzada y autónoma, al tiempo que consolida a AWS como uno de los grandes proveedores de potencia de cálculo para los gigantes tecnológicos. La operación se enmarca en la carrera global por disponer de hardware propio y optimizado para cargas de trabajo de IA, un terreno donde Amazon quiere plantar cara tanto a Google Cloud como a fabricantes de chips tradicionales como Nvidia o Intel.

Un salto de escala: millones de CPU Graviton para la IA de Meta

Según detalla Amazon, el pacto contempla el despliegue de “decenas de millones de núcleos AWS Graviton” al servicio de distintas cargas de trabajo internas de Meta. No se han hecho públicos los términos económicos, pero la magnitud del despliegue convierte este acuerdo en una pieza relevante dentro de la estrategia de infraestructura de IA de ambas compañías, en un contexto donde la escasez de CPU se agrava.

Desde AWS subrayan que el foco estará especialmente en la línea Graviton5, la generación más reciente de estas CPU basadas en arquitectura ARM. Este modelo está diseñado para ofrecer un procesamiento de datos más ágil y un ancho de banda superior, aspectos que Meta considera críticos para hacer funcionar sistemas de IA que deben razonar y ejecutar tareas a gran escala de forma continua.

En palabras de Santosh Janardhan, responsable de Infraestructura de Meta, la ampliación a Graviton les permitirá ejecutar cargas de trabajo intensivas en CPU que sustentan su llamada “IA agente”, con el nivel de rendimiento y eficiencia energética que exige una plataforma utilizada por miles de millones de personas en todo el planeta.

La colaboración entre ambas compañías no parte de cero. AWS recuerda que ya venía dando soporte a buena parte de los negocios globales de Meta con su infraestructura de nube, de modo que el salto a Graviton se interpreta como una profundización en una relación de larga duración, más que como un giro radical de estrategia.

Graviton5: arquitectura ARM y más caché para la era de la IA agentiva

Los chips Graviton se han ido consolidando dentro del catálogo de AWS como una opción para clientes que buscan una mejor relación entre precio, rendimiento y consumo energético. La quinta generación, Graviton5, da un paso más y se presenta expresamente preparada para cargas de inteligencia artificial, especialmente en la fase de uso intensivo de los modelos.

Tal y como detalla Amazon, Graviton5 incorpora hasta 192 núcleos y una memoria caché que multiplica por cinco la de la generación anterior. Este aumento de caché interna se traduce en una reducción de hasta un 33 % de la latencia en la comunicación entre núcleos, un factor clave cuando el sistema tiene que manejar, en tiempo real, múltiples peticiones y procesos encadenados.

  Google Drive refuerza la protección contra ransomware con IA

En paralelo, estos procesadores se apoyan en la plataforma AWS Nitro, que combina hardware y software dedicados para aislar recursos, mejorar la seguridad y garantizar un rendimiento más estable en entornos multicliente. Esa combinación resulta especialmente relevante cuando se ejecutan aplicaciones que requieren tanto alta disponibilidad como protección de datos a gran escala.

Además de Meta, otras compañías como Adobe o Apple ya han adoptado Graviton en diferentes tipos de cargas, lo que refuerza la idea de que estas CPU ARM han dejado de ser un experimento para convertirse en una opción madura dentro del ecosistema de centros de datos en la nube.

De las GPU a las CPU: cómo cambia el reparto de trabajo en la IA

Durante los últimos años, el debate en torno al hardware para inteligencia artificial ha girado casi por completo alrededor de las GPU, como el acuerdo de Nvidia que asegura el suministro. Estos procesadores gráficos se han consolidado como la herramienta preferente para el entrenamiento de grandes modelos, al ser capaces de realizar operaciones en paralelo a una velocidad muy superior a la de las CPU tradicionales.

Sin embargo, la evolución de la IA hacia modelos más complejos y, sobre todo, hacia el despliegue de agentes autónomos está empezando a cambiar ese equilibrio. Una vez que un modelo ya está entrenado, la fase de inferencia —cuando responde a instrucciones, genera código o coordina tareas— puede requerir un tipo de cómputo distinto, donde entran en juego las CPU optimizadas como Graviton.

Amazon sostiene que la versión más reciente de sus chips fue diseñada específicamente con estas necesidades en mente: razonamiento en tiempo real, búsqueda de información en grandes repositorios de datos y coordinación de procesos de varios pasos. Son tareas que consumen muchos recursos, pero que no dependen exclusivamente de la potencia bruta de las GPU.

El auge de la llamada IA agentiva, que imita la toma de decisiones humanas para resolver problemas de forma autónoma, está generando una demanda “masiva” de capacidad de cómputo basada en CPU, según reconoce la propia AWS. En esta nueva fase, la eficiencia de costes y la posibilidad de escalar sin disparar el consumo energético pesan tanto como el rendimiento máximo por chip.

Para Meta, que quiere extender el uso de sus modelos de IA a productos y servicios muy diversos, desde redes sociales hasta herramientas profesionales, tener acceso a una base sólida de CPU especializadas le permite ajustar mejor el coste por cada petición de los usuarios y mantener la calidad del servicio incluso en picos de tráfico.

Movimiento estratégico en la guerra de la nube: AWS frente a Google y otros rivales

En el plano competitivo, el acuerdo lanza un mensaje claro al mercado de la nube. Más allá de lo técnico, Meta está redistribuyendo su gasto entre los grandes proveedores de infraestructura, y con este paso devuelve una porción relevante de negocio a AWS en un momento sensible para el sector.

Conviene recordar que, en agosto del año pasado, Meta firmó con Google Cloud un acuerdo de seis años valorado en unos 10.000 millones de dólares. Hasta entonces, su relación había estado más concentrada en AWS, aunque la compañía también ha utilizado servicios de Microsoft Azure para distintas áreas de su actividad.

La coordinación temporal tampoco ha pasado desapercibida: Amazon anunció esta alianza con Meta justo al término de la conferencia Google Cloud Next, uno de los escaparates clave de su rival en materia de IA y servicios en la nube. El gesto se interpreta en el sector como un golpe de efecto con el que AWS busca subrayar su propio músculo en infraestructura y chips personalizados.

  La jefa de hardware de OpenAI dimite por el acuerdo con el Pentágono

Mientras tanto, Google continúa avanzando con sus TPU y otros procesadores diseñados a medida para inteligencia artificial, y Microsoft impulsa sus propias soluciones junto a socios como Nvidia o AMD. En este contexto, cada gran proveedor intenta diferenciarse no solo por el software o por el tamaño de sus centros de datos, sino también por el control del silicio que alimenta sus servicios.

Para las empresas europeas, incluidas las españolas, esta batalla entre hyperscalers no es un asunto lejano: del resultado de estas apuestas depende, en buena parte, la oferta de servicios de IA en la nube disponibles en la región, sus precios y las condiciones de uso en términos de rendimiento, consumo energético y cumplimiento normativo.

El papel de Trainium y la presión sobre el diseño de chips propios

Graviton no es la única pieza del puzle de hardware interno de Amazon. La compañía también dispone de Trainium, un chip orientado expresamente a cargas de trabajo de inteligencia artificial que puede utilizarse tanto para entrenar modelos como para la fase de inferencia.

Buena parte de la capacidad futura de Trainium ha quedado ya asociada a acuerdos de gran envergadura, como el que AWS firmó recientemente con Anthropic, desarrolladora del modelo Claude. Ese pacto prevé un gasto de hasta 100.000 millones de dólares en servicios de AWS durante una década, con un foco especial en el uso de Trainium para impulsar sus modelos.

A cambio, Amazon se comprometió a inyectar miles de millones de dólares en la propia Anthropic, elevando su inversión total en la compañía hasta cifras de dos dígitos en miles de millones. Esta estrategia de intercambio entre infraestructura y capital muestra hasta qué punto el diseño de chips se ha convertido en un elemento central del posicionamiento competitivo en IA.

En ese contexto, el convenio con Meta permite a AWS exhibir músculo en otra parte de su oferta de silicio: si Trainium está fuertemente vinculado al crecimiento de Anthropic, ahora es Graviton el que se asocia a las necesidades de uno de los mayores grupos tecnológicos del mundo en materia de IA.

El propio consejero delegado de Amazon, Andy Jassy, ha insistido en sus comunicaciones a los accionistas en que las empresas buscan cada vez más una relación equilibrada entre coste y rendimiento para sus proyectos de inteligencia artificial. La apuesta por chips diseñados a medida y ejecutados exclusivamente en su nube es la vía con la que la compañía pretende responder a esa demanda y consolidar acuerdos de largo recorrido.

Competencia directa con Nvidia, Intel y la nueva generación de CPU para IA

El avance de Graviton sitúa a Amazon en una competencia más frontal con fabricantes consolidados como Nvidia e Intel, pero también con nuevas generaciones de CPU especializadas. Uno de los rivales más citados es la CPU Vera de Nvidia, igualmente basada en arquitectura ARM y concebida para manejar cargas vinculadas a agentes de inteligencia artificial.

En este punto, la diferencia de modelo de negocio es relevante: Nvidia vende sus chips y sistemas de IA a empresas y proveedores de nube, entre ellos la propia AWS, mientras que Amazon no comercializa Graviton al por menor, sino que ofrece su uso únicamente a través de sus servicios en la nube. Dicho de otro modo, quien quiera acceder a estos chips tiene que hacerlo dentro del ecosistema AWS.

Este enfoque integrado permite a Amazon controlar mejor la combinación de hardware, software y red, pero también eleva la presión sobre sus equipos internos de ingeniería. Si la compañía quiere convencer a grandes clientes de que sus procesadores pueden competir con las soluciones de Nvidia o Intel, debe demostrarlo con rendimiento estable, capacidad de escala y ahorros tangibles de costes.

  Características del procesador MediaTek MT6753 y rendimiento real

Para sostener esa apuesta, AWS ha ido mostrando poco a poco las tripas de su división de diseño de semiconductores, abriendo incluso una pequeña ventana a su laboratorio de desarrollo de chips. La idea es transmitir al mercado que la firma no solo alquila servidores, sino que está construyendo una plataforma de cómputo completa, desde el silicio hasta las capas más altas de software.

Con Meta como escaparate, Amazon consigue una referencia de primer nivel para probar y perfeccionar estas soluciones. La forma en que rindan Graviton y Trainium en entornos de uso real y masivo será uno de los indicadores que el sector observará con lupa en los próximos años, también en Europa, donde las regulaciones sobre IA y datos añaden un grado extra de complejidad a la ecuación.

Meta acelera su inversión en infraestructura de IA en plena reordenación interna

El refuerzo de la alianza con AWS se suma a otros movimientos recientes de Meta destinados a ampliar su capacidad de cómputo para IA. En las últimas semanas, la compañía ha anunciado acuerdos millonarios con proveedores de infraestructura como CoreWeave o Nebius, centrados en ofrecerle acceso adicional a hardware especializado, especialmente GPU, para el entrenamiento de sus modelos.

Este ritmo de inversión contrasta con la decisión de la empresa de reducir su plantilla en torno a un 10 %, un ajuste que afectaría a unos 8.000 empleados. En la práctica, Meta está recortando costes en determinadas áreas mientras pisa el acelerador en todo lo relacionado con la inteligencia artificial, un patrón que se repite en buena parte del sector tecnológico.

Dentro de la compañía, la expansión de la infraestructura de IA se presenta como un pilar para desarrollar su “próxima generación” de productos inteligentes, desde asistentes virtuales integrados en redes sociales hasta herramientas avanzadas para creadores de contenido y anunciantes, como SAM, el modelo de IA de Meta. El objetivo oficial es construir una IA capaz de comprender y anticiparse a las necesidades de miles de millones de personas, adaptándose a sus contextos y preferencias.

Para lograrlo, Meta necesita no solo GPU para entrenar modelos de gran tamaño, sino también una base masiva de CPU eficientes para hacer frente al uso diario de esas herramientas. Ahí es donde entran en juego los millones de núcleos Graviton que AWS pondrá a su disposición a través de su nube global.

En Europa y España, este tipo de infraestructuras se traducen, de forma indirecta, en nuevas capacidades que pueden llegar a empresas y usuarios finales mediante servicios ya conocidos —como redes sociales y plataformas de mensajería— y aplicaciones profesionales que aprovechan la IA para automatizar tareas y analizar datos a gran escala.

Todo apunta a que la alianza entre Meta y AWS alrededor de los chips Graviton marca un paso más en la maduración del mercado de inteligencia artificial: las GPU siguen siendo esenciales para entrenar modelos, pero las CPU especializadas ganan terreno como columna vertebral de la inferencia y de los agentes de IA que funcionarán de forma continua. En ese escenario, la capacidad de diseñar y operar silicio propio desde la nube se perfila como un factor decisivo para los grandes proveedores, con impacto directo en la oferta de servicios de IA que llegará a empresas y administraciones de España y del resto de Europa en los próximos años.

Meta y AMD firman una alianza estratégica en chips de IA
Related article:
Meta y AMD sellan una gran alianza estratégica en chips de IA