- Los nodos de 2 nm prometen hasta un 15% más de rendimiento y un 30% menos de consumo frente a 3 nm gracias a transistores GAA y mayor densidad.
- TSMC lidera la fabricación en 2 nm, con capacidad casi copada hasta 2027, mientras Intel y Samsung intentan alcanzarla con sus propios procesos avanzados.
- El coste por oblea sube hasta unos 30.000 dólares y el encapsulado avanzado como CoWoS-L añade cuellos de botella y retrasa lanzamientos clave.
- Los 2 nm se concentrarán en móviles y PCs de gama alta y, sobre todo, en supercomputación e IA, con proyectos como Fujitsu-Monaka y FugakuNEXT.

Los chips de 2 nm ya no son ciencia ficción ni un simple titular de marketing: están a punto de convertirse en la base de la próxima generación de CPUs, GPUs y SoC para móviles, PCs y centros de datos. Al mismo tiempo, llegan con una letra pequeña importante: costes de fabricación disparados, cuellos de botella industriales y una competencia feroz entre TSMC, Intel, Samsung y nuevos actores como Fujitsu y Broadcom en el terreno de la supercomputación.
En las próximas líneas vamos a desgranar qué implica realmente dar el salto a 2 nm, qué mejoras de rendimiento y eficiencia se esperan, qué fabricantes van más adelantados, por qué hay tanta presión con las reservas de capacidad de producción y cómo se traducirá todo esto en el precio de los dispositivos que acabarán en nuestras manos.
Qué significa realmente fabricar chips en 2 nm
A estas alturas conviene dejar algo claro: los “2 nm” ya no describen un parámetro físico concreto del transistor (como la longitud de puerta o la distancia entre transistores). Se han convertido en una etiqueta comercial para agrupar una generación de procesos de fabricación avanzados, y cada fundición (TSMC, Samsung, Intel…) define el nodo a su manera.
Esto provoca que no podamos comparar de forma directa el 2 nm de TSMC con el 2 nm de Samsung o el 18A/14A de Intel solo por el nombre. Lo que sí es común es la idea de un salto generacional: mayor densidad de transistores, menor consumo, más rendimiento por vatio y una adopción generalizada de nuevas estructuras de transistor, con los GAA (Gate-All-Around) como gran protagonista.
La teoría que maneja la industria es clara: al pasar de 3 nm a 2 nm, los clientes esperan entre un 10% y un 15% más de rendimiento, un recorte de consumo que se sitúa aproximadamente entre el 20% y el 30% y una densidad de transistores alrededor de un 15% superior. Son cifras orientativas, pero sirven para entender por qué tantos fabricantes están dispuestos a pagar mucho más por cada oblea.
En el mercado de consumo, el usuario medio lo traduce en algo sencillo: más FPS, más velocidad de respuesta, menor tiempo de espera al abrir aplicaciones o renderizar vídeo, y todo ello con un consumo más ajustado. Sin embargo, con nodos de 3, 4 o 5 nm ya se ha alcanzado un nivel tan alto que justificar el salto a 2 nm solo por rendimiento bruto empieza a ser complicado si miramos los costes.
Rendimiento, eficiencia y problemas térmicos con 2 nm
El gran objetivo de los 2 nm es mejorar la relación rendimiento por vatio. Más transistores en el mismo espacio significan más capacidad de cómputo con igual consumo, o el mismo rendimiento gastando menos energía. Pero la realidad práctica es más matizada por culpa del calor.
La lógica es simple pero implacable: más rendimiento suele implicar frecuencias más altas, mayor densidad y, por tanto, más calor a disipar. En sobremesa y portátiles se puede compensar con disipadores grandes, ventiladores potentes o refrigeración líquida, pero cuando hablamos de móviles, tablets, smartwatches o servidores densamente empaquetados, el margen térmico se encoge y el diseño se vuelve mucho más complicado.
Desde la introducción de los transistores FinFET y el avance agresivo de las litografías, la industria se ha topado con problemas térmicos cada vez más serios. No basta con reducir el tamaño del nodo: hay que rediseñar la arquitectura del transistor. De ahí que Samsung, por ejemplo, haya investigado intensamente los transistores GAAFET y variantes, e incluso materiales alternativos como el molibdeno para intentar mantener a raya las pérdidas y mejorar el control del canal.
En ese contexto, los procesos de 2 nm de nueva generación adoptan los transistores GAA con nanohojas como evolución clara del FinFET. Con esta estructura se logra un mejor control electrostático, menor fuga de corriente y, en teoría, una mejora notable del rendimiento por vatio. Tanto TSMC (con su N2) como Intel (con 20A y, sobre todo, 18A) han apostado de lleno por esta transición.
La clave está en que parte de la mejora de los 2 nm no proviene solo del encogimiento geométrico, sino del salto arquitectónico en el tipo de transistor. Esa combinación es la que permite hablar de incrementos del 10‑15% en rendimiento y de ahorros del 25‑30% en consumo si todo sale según lo previsto.
TSMC, Samsung e Intel: quién manda en la litografía de 2 nm
En la carrera por los 2 nm, TSMC sigue siendo el gran referente de la fabricación avanzada. Domina aproximadamente el 60% del mercado de fundición y viene de cerrar un periodo especialmente favorable impulsado por la demanda de chips para IA, móviles de gama alta y centros de datos.
TSMC ya ha arrancado la producción de su nodo N2 y ha destinado fábricas clave como las Fab 20 y Fab 22 a esta tecnología, con transistores GAA integrados. Las previsiones hablan de una producción en masa a partir de la segunda mitad de 2025, momento en el que grandes clientes como Apple, NVIDIA, AMD, MediaTek y Qualcomm esperan tener listos sus primeros diseños comerciales.
En el plano técnico, ejecutivos de Intel como Ben Sell han subrayado que con los nodos equivalentes a 2 nm se observa una progresión sostenida en densidad y rendimiento por vatio, además de una reducción del área. Esto se refleja en proyectos como Panther Lake, donde el mosaico de cómputo se fabrica precisamente en 18A, y en los planes para futuros nodos aún más agresivos, como 14A orientado también al mercado doméstico, aunque este último se mantiene más en la sombra.
Quién va a usar 2 nm: móviles, CPUs y supercomputación
El despliegue de 2 nm no va a ser uniforme. En el mercado doméstico, lo más probable a corto plazo es ver chips con diseño heterogéneo que combinen distintos nodos dentro del mismo encapsulado, en lugar de monolitos completos a 2 nm. Esto ya ocurre con Intel, que utiliza varias litografías en un mismo procesador para ajustar costes sin penalizar demasiado el rendimiento, y con AMD, que mezcla un nodo avanzado para los chiplets de núcleos y otro más maduro para el die de E/S.
La tendencia apunta a que, en PCs de consumo y algunos SoC, se integrarán bloques críticos a 2 nm (por ejemplo, núcleos de CPU de alto rendimiento o NPUs para IA) junto a otros componentes fabricados en 3, 4 o 5 nm. Esta estrategia permite contener el coste y maximizar el beneficio de la nueva litografía donde más impacto tiene.
En el ecosistema móvil, la batalla se librará en la gama alta. Se espera que Apple apueste por su chip A20 y A20 Pro para los iPhone 18, fabricados en N2 de TSMC, mientras que Qualcomm prepara un Snapdragon 8 Elite Gen 6 y una versión Pro en el mismo nodo, y MediaTek se ha adelantado con el tape-out de su Dimensity 9600 también a 2 nm.
Todo apunta a que, hacia septiembre de 2026, veremos una convergencia inédita de lanzamientos: Apple, Qualcomm y MediaTek sacando sus SoC de 2 nm prácticamente a la vez, sin que nadie disfrute de una exclusividad temporal significativa. Esto significa que el éxito no dependerá tanto de “llegar primero”, sino de quién consiga la mejor combinación de arquitectura, eficiencia energética y software.
En el terreno profesional, la cosa se pone aún más seria. Superordenadores, servidores de IA y centros de datos de alto rendimiento serán algunos de los primeros en exprimir a fondo los 2 nm, tanto por la necesidad brutal de rendimiento como por la urgencia de contener el consumo eléctrico y los costes operativos.
Fujitsu-Monaka y Broadcom: 2 nm para la nueva generación de supercomputadores
Un ejemplo llamativo de hasta dónde puede llegar este nodo es el proyecto Fujitsu-Monaka, desarrollado por Fujitsu junto con Broadcom y TSMC. Hablamos de un SoC diseñado específicamente para la próxima supercomputadora insignia de Japón, FugakuNEXT, dirigida por RIKEN.
Este chip Monaka emplea un proceso de 2 nm y se presenta como un SoC de 144 núcleos orientado a cargas de trabajo de HPC (High Performance Computing) e inteligencia artificial a gran escala. Utiliza una arquitectura de empaquetado 3.5D (XDSiP), lo que permite integrar múltiples componentes con una densidad de interconexión altísima manteniendo la latencia y el consumo bajo control.
Para alimentar semejante bestia, el diseño incorpora un sub-sistema de memoria con doce canales DDR5, además de soporte para PCIe 6.0 y CXL 3.0. En conjunto, forma una plataforma pensada para procesar cargas de IA gigantescas, simulaciones científicas complejas y tareas críticas de supercomputación donde cada vatio y cada nanosegundo cuentan.
Lo interesante de Monaka es que, aunque no sea el primer chip anunciado a 2 nm, sí es de los pocos que están ya en fase de fabricación real y no solo sobre el papel. Su producción se orienta inicialmente a FugakuNEXT, pero se espera que a partir de 2027 pueda llegar a centros de datos y entornos de HPC más amplios, compitiendo de tú a tú con soluciones como AMD Instinct, NVIDIA Grace/Grace Hopper o Intel Xeon y Gaudi.
Costes desbocados: cuánto cuesta fabricar en 2 nm
El gran freno para la adopción masiva de los 2 nm es el precio por oblea. Las estimaciones sitúan el coste de un wafer de 3 nm en torno a los 18.000‑20.000 dólares, mientras que en 2 nm se dispararía hasta cerca de 30.000 dólares por oblea. Estamos hablando de incrementos que pueden ir desde el 25% hasta rondar el 60‑65% en un salto de una sola generación.
El motivo es doble: por un lado, la propia complejidad técnica del proceso, que exige más pasos de litografía, mayor precisión, nuevos equipos (incluida litografía EUV más avanzada) y controles de calidad más estrictos. Por otro, la inversión multimillonaria en nuevas fábricas, herramientas y líneas dedicadas exclusivamente a los nodos más avanzados.
A esto se suma la integración de tecnologías de encapsulado de última generación como CoWoS-L (Chip-on-Wafer-on-Substrate “Lite”), que permiten montar varios chips sobre un interposer con un cableado de ultra alta densidad. Esta solución es crítica para integrar, por ejemplo, bloques de cómputo masivo con pilas de memoria (como la 3D V-Cache de AMD) o grandes cantidades de caché L3 en procesadores para servidores.
El problema es que CoWoS-L introduce nuevos retos térmicos y mecánicos. La dilatación térmica de los distintos materiales puede deformar el interposer, provocar fallos de conexión o reducir el rendimiento de la producción (yield) si no se controla al milímetro. De hecho, se ha señalado que TSMC ha tenido que retrasar entregas de GPUs Blackwell de NVIDIA debido precisamente a limitaciones de capacidad y problemas de rendimiento asociados al encapsulado avanzado.
Y si pensamos que 2 nm es el techo, la industria ya mira más allá. TSMC tiene en el horizonte su proceso A16 (1,6 nm con fuente Super Power Rail), donde el coste por oblea podría rondar los 45.000 dólares. La tendencia está clara: cuanto más bajamos en el nodo, más se encarece cada wafer y más se estrecha el círculo de empresas que pueden permitirse jugar a ese nivel.
Cuellos de botella, reservas y guerra por la capacidad de TSMC
El liderazgo de TSMC tiene una cara B: su capacidad de producción en 2 nm está prácticamente comprometida para 2026 y 2027. La fundición lleva tiempo advirtiendo a sus socios de que, quien no reserve ahora, se arriesga a quedarse fuera del nodo N2 hasta casi 2028.
La situación recuerda en parte a los cuellos de botella vividos durante la pandemia, aunque ahora el origen está en la enorme demanda concentrada en el nodo más avanzado y en el uso intensivo de encapsulados complejos como CoWoS-L. No es un problema que se solucione simplemente montando una línea más: hacen falta fábricas enteras, permisos, inversión masiva y tiempo.
Para complicar aún más las cosas, clientes estratégicos como NVIDIA han bloqueado una gran parte de la capacidad de TSMC en CoWoS-L (se ha llegado a hablar de en torno al 70% de la producción disponible), lo que reduce de forma automática el margen para el resto de compañías y encarece todavía más el acceso a estos servicios.
TSMC, además, avisa con una antelación poco habitual: si quieres 2 nm, tienes que firmar ya. Esto obliga a los fabricantes de chips a planificar lanzamientos, hojas de ruta de productos y estrategias comerciales con más tiempo del que solían manejar. En una industria donde el “timing” puede decidir quién lidera y quién llega tarde, quedarse sin cupo de N2 puede suponer renunciar a la gama más alta durante una generación completa.
El contexto global tampoco ayuda a diversificar esta dependencia. Aunque Estados Unidos, Europa y otros países asiáticos están destinando miles de millones a levantar fábricas de semiconductores, la realidad es que los procesos más punteros siguen concentrados en Taiwán, y no se espera que salgan de allí de forma significativa hasta la siguiente oleada de nodos. Mientras tanto, TSMC refuerza su posición en la cadena de valor y sus socios tienen que afinar mucho sus cuentas y su calendario.
Del escritorio al datacenter: por qué los 2 nm no llegarán igual a todos
Entre 2014 y los primeros años de la década actual, pasamos relativamente rápido de 14 nm a 7 nm y 5 nm, con mejoras claras y pocas catástrofes para TSMC, que supo escalar estas tecnologías a gran volumen. Intel, en cambio, sufrió bastante con la transición de 10 a 7 nm y llegó a perder terreno frente a AMD en sobremesa y servidores.
Ese ritmo tan acelerado de reducción de nodo, sumado a una demanda explosiva de centros de datos por la inteligencia artificial y al boom de móviles, ha tensionado toda la cadena de suministro. De hecho, el paso a 3 nm ya trajo un incremento de costes por oblea de en torno al 50%, y ahora el salto a 2 nm aprieta aún más las tuercas.
Por eso muchas compañías se preguntan si compensa realmente avanzar a 2 nm para todos sus productos. No todos los saltos de nodo han supuesto una revolución: de 7 a 6 nm o de 5 a 4 nm las mejoras fueron relativamente modestas y, en algunos casos, orientadas más a optimizar costes que a incrementar el rendimiento de manera espectacular.
Donde sí se nota el salto es cuando hay una reducción de 2 o 3 nanómetros de golpe, como de 5 a 3 nm, lo que justifica el interés de AMD, NVIDIA, Qualcomm, Samsung o Intel en estar en la cresta de la ola. En el entorno doméstico, sin embargo, veremos cómo muchos productos siguen quedándose en nodos ligeramente más viejos (3, 4, 5 nm), ya que ofrecen un rendimiento excelente a un coste más razonable.
En cambio, en datacenters, HPC e IA de gran escala la historia es otra. Aquí cada vatio ahorrado se multiplica por millones de servidores y contratos con gigantes del cloud, por lo que pagar más por los 2 nm puede salir rentable si los ahorros en consumo y la mejora en densidad amortizan la inversión en unos pocos años.
El efecto colateral se deja notar también en mercados adyacentes, como el de la memoria RAM. Supercomputadores y servidores de IA que integran chips tan avanzados como Fujitsu-Monaka, con docenas de canales DDR5 y enlaces de alta velocidad, presionan aún más la cadena de suministro de DRAM y pueden agravar o prolongar crisis de precios y disponibilidad.
Al final, los 2 nm se van a convertir en un territorio casi reservado para productos “halo” y soluciones de gama altísima, tanto en consumo (tope de gama en móviles, GPUs y CPUs entusiastas) como en el entorno profesional. El resto del mercado vivirá con nodos ligeramente menos avanzados pero mucho más equilibrados en coste y rendimiento.
En este escenario, los chips de 2 nm se sitúan como una tecnología tan prometedora como cara y limitada en capacidad a corto plazo. Ofrecen mejoras tangibles en rendimiento, eficiencia y densidad, permiten diseños heterogéneos más ambiciosos y hacen posibles proyectos extremos como FugakuNEXT, pero a costa de obleas que se pagan a precio de oro, reservas con años de antelación y una dependencia todavía enorme de TSMC y de unos pocos procesos de encapsulado avanzado. Para el usuario final, esto se traducirá en dispositivos más potentes, eficientes y cargados de funciones de IA, pero también en un segmento premium cada vez más caro y exclusivo donde el rendimiento máximo será, literalmente, cuestión de miles de dólares por wafer.
