Los nuevos AirPods con cámaras e inteligencia artificial: así quiere Apple que Siri vea lo que tú ves

Última actualización: mayo 8, 2026
Autor: ForoPC
  • Apple ultima unos AirPods Pro con cámaras integradas que actúan como sensores visuales para Siri, sin funciones de foto ni vídeo convencionales.
  • El proyecto está en fase de pruebas avanzadas (DVT) y su lanzamiento se coordinaría con la llegada del nuevo Siri y iOS 27.
  • Las cámaras de baja resolución analizarán el entorno para ofrecer respuestas contextuales, navegación más precisa y funciones inteligentes adicionales.
  • El diseño será similar a los AirPods Pro, con vástagos algo más largos, luces LED de aviso y un fuerte foco en privacidad y uso responsable.

AirPods con cámaras e inteligencia artificial

Apple está dando los últimos pasos para lanzar una nueva generación de AirPods equipados con cámaras e inteligencia artificial, un proyecto que busca ir bastante más allá del simple audio inalámbrico. Estos futuros auriculares no están pensados para hacer fotos ni vídeos, sino para dotar a Siri de una especie de «visión» del entorno y permitirle responder de forma mucho más contextual.

La compañía lleva años trabajando en este concepto y, según distintas fuentes citadas por Bloomberg y otros medios especializados, el producto se encuentra ya en una fase de pruebas avanzadas con prototipos casi definitivos. El calendario interno de Apple vincula directamente estos AirPods con la llegada del nuevo Siri y de iOS 27, que deberá estrenar funciones de inteligencia visual mucho más ambiciosas.

AirPods con cámaras: un proyecto de cuatro años que entra en recta final

Auriculares AirPods con cámaras para IA

De acuerdo con las informaciones disponibles, Apple lleva aproximadamente cuatro años desarrollando estos AirPods con cámaras integradas. El proyecto acaba de entrar en la etapa conocida internamente como DVT (Design Validation Test), una fase en la que el diseño y las funciones ya están prácticamente cerrados y se validan en condiciones de uso real antes de dar el salto a la producción masiva.

En esta fase, empleados de Apple ya están utilizando prototipos funcionales en su día a día para comprobar estabilidad, autonomía, comodidad y, sobre todo, cómo se comporta la parte de inteligencia artificial visual. El siguiente peldaño sería el PVT (Production Validation Test), donde se ajustan las líneas de fabricación y se producen las primeras unidades en volumen limitado.

Los planes iniciales apuntaban a un lanzamiento en la primera mitad de 2026, pero el calendario se ha reajustado para que el estreno de estos auriculares coincida con la versión renovada de Siri que llegará con iOS 27, previsiblemente en septiembre. Sin ese nuevo asistente, más potente y multimodal, el hardware perdería gran parte de su sentido.

Este producto forma parte de una oleada de dispositivos con IA que Apple prepara para los próximos años, entre los que también se mencionan gafas inteligentes y un colgante con cámara. Sin embargo, todo indica que los AirPods con cámaras serán los primeros en ver la luz, aprovechando el enorme parque de usuarios que ya confían a diario en los auriculares de la marca.

  Asistente personal de IA con Raspberry Pi: proyectos, guías y seguridad

Cómo son las cámaras de los AirPods: los «ojos» de Siri

Cámaras integradas en AirPods para Siri

Uno de los puntos clave del proyecto es entender que no se trata de una cámara para el usuario, sino para Siri. Las distintas filtraciones insisten en que estos sensores no podrán hacer fotografías tradicionales ni grabar vídeo guardable. Su papel será, exclusivamente, capturar información visual de baja resolución para que la inteligencia artificial pueda analizar lo que ocurre alrededor de quien lleva puestos los auriculares.

Las cámaras irán integradas en ambos auriculares, derecho e izquierdo, alojadas en unos vástagos algo más largos que los de los actuales AirPods Pro. Su funcionamiento se asemejaría más a los sensores de profundidad y seguimiento presentes en dispositivos como Apple Vision Pro, pero miniaturizados y centrados en la detección del entorno y los objetos, no en generar contenido multimedia.

La información visual se enviará al asistente digital para que este pueda reconocer objetos, interpretar escenas o identificar puntos de referencia. Todo ello con una resolución y un flujo de datos pensados para ser eficientes a nivel energético y suficientemente rápidos como para responder casi en tiempo real.

Según las fuentes consultadas, el sistema está diseñado para replicar, en un formato portátil y discreto, las capacidades de análisis de imagen que ya se ven en servicios de IA generativa, como cuando se sube una foto a un chatbot para que la describa o proponga acciones a partir de ella.

Desde el punto de vista técnico, Apple combinaría estas capturas de baja resolución con modelos de visión por computador y algoritmos de IA ejecutados tanto en el iPhone como en la nube, dentro del marco de Apple Intelligence y del nuevo Siri. El reto consiste en equilibrar precisión, latencia y consumo de batería en un formato tan compacto como unos auriculares.

Qué podrá hacer Siri con la inteligencia visual de los AirPods

Uso de inteligencia visual en AirPods

El objetivo de este nuevo dispositivo es convertir a Siri en un asistente mucho más visual, contextual y útil en situaciones cotidianas. En lugar de depender únicamente de la voz, el sistema podrá cruzar lo que el usuario dice con lo que está viendo en ese momento.

Uno de los ejemplos que más se repite en los informes es el de la cocina: el usuario se coloca frente a una encimera con varios ingredientes y pregunta a Siri qué podría preparar para cenar con lo que tiene delante. Las cámaras identifican los alimentos, los modelos de IA interpretan la escena y el asistente sugiere recetas posibles sin que haya que hacer una foto manualmente.

  Audio-Technica renueva su serie AT33x de cápsulas fonográficas

Más allá de la cocina, Apple está probando usos relacionados con la navegación y las indicaciones paso a paso. Con datos visuales en tiempo real, Siri podría dar instrucciones del estilo: «gira cuando llegues al edificio rojo» o «continúa hasta la farmacia de la esquina y luego cruza». Es decir, usar puntos de referencia reales, reconocidos por las cámaras, para que la orientación resulte más natural.

También se estudian funciones de alertas y recordatorios contextuales basados en lo que la cámara detecta. Por ejemplo, avisar si el sistema reconoce una señal importante, un obstáculo en el camino o algún elemento relevante para la seguridad del usuario. Todo ello sin necesidad de mirar la pantalla del iPhone.

En paralelo, estos AirPods con cámaras se integrarán con el nuevo ecosistema de Apple Intelligence y con un Siri rediseñado como agente de IA, capaz de controlar apps, resumir información, generar contenido y ofrecer respuestas mucho más ricas. La parte visual actuaría como una entrada adicional, que se suma a la voz y al contexto de uso habitual (ubicación, calendario, actividad, etc.).

Diseño, similitudes con los AirPods Pro y enfoque en privacidad

Diseño de AirPods con cámaras e IA

En apariencia, los nuevos auriculares mantendrán una línea continuista. Los distintos reportes coinciden en que recordarán mucho a los AirPods Pro 3, con almohadillas de silicona y formato intraauricular, pero con un tallo ligeramente más alargado para dejar espacio a la óptica, la circuitería asociada y el indicador luminoso.

Apple es consciente de que llevar una cámara pegada a la oreja puede generar dudas, por lo que ha decidido integrar un pequeño LED que se encenderá cuando el dispositivo esté enviando datos visuales. Este avisador funcionará de forma similar al punto naranja o verde que aparece en los productos de la marca cuando se usa el micrófono o la cámara, o al indicador que ya incorporan las gafas inteligentes de Meta.

El propósito de este LED es aportar transparencia hacia las personas que rodean al usuario, de manera que cualquiera pueda saber cuándo las cámaras están activas. No obstante, algunos analistas apuntan a que, por el tamaño reducido de los auriculares, habrá que ver en la práctica hasta qué punto resulta visible en entornos reales.

En el interior, estos AirPods conservarán la esencia de los modelos actuales: cancelación de ruido, audio espacial y micrófonos avanzados, pero añadiendo toda la capa de sensores visuales y de procesamiento adicional. La marca ha tenido que trabajar en la miniaturización de componentes para no comprometer ergonomía ni autonomía.

Otro elemento clave será la gestión de la energía. Las cámaras, aunque sean de baja resolución, consumen recursos, y Apple necesita que la autonomía siga siendo competitiva respecto a los AirPods tradicionales. Para ello, se recurrirá previsiblemente a técnicas de activación selectiva, de forma que los sensores visuales solo funcionen cuando realmente son necesarios, por ejemplo, al invocar Siri o en situaciones concretas definidas por el sistema.

  Microsoft empieza a reducir la integración de Copilot en Windows 11

Privacidad, uso responsable y debate social en Europa

Privacidad en AirPods con cámaras

La llegada de dispositivos con cámaras siempre abre un debate en Europa, donde la regulación en materia de privacidad y protección de datos es especialmente estricta. Apple, que suele presentarse como una compañía centrada en la privacidad, está diseñando estos AirPods precisamente con este tema en mente.

Por ahora, la información disponible indica que las cámaras se limitarán a recoger imágenes de baja resolución orientadas al análisis, no a la creación de fotografías o vídeos almacenables. En muchos casos, el procesamiento podría realizarse de forma local, ya sea en el iPhone o en el propio auricular, transformando la imagen en datos abstractos antes de que nada llegue a la nube.

La compañía también quiere dejar claro al usuario cuándo se están usando las cámaras, combinando el indicador LED con notificaciones y ajustes claros en el sistema operativo. En Europa, será especialmente importante que el producto explique con detalle qué datos se recogen, durante cuánto tiempo se conservan y con qué fines concretos se utilizan.

Este tipo de dispositivo se moverá en un terreno sensible regulado por normas como el Reglamento General de Protección de Datos (RGPD) y la futura normativa europea sobre IA. Será clave que Apple ofrezca controles granulares para que los usuarios de España y del resto de la UE puedan decidir si quieren activar o no las funciones visuales, así como limitar su uso en determinadas aplicaciones o entornos.

En cualquier caso, el debate sobre la aceptación social de los wearables con cámaras seguirá vigente. Ya se ha visto con las gafas inteligentes de otras marcas, que han generado reacciones diversas en espacios públicos. La apuesta de Apple pasa por una solución mucho más discreta, integrada en unos auriculares que millones de personas ya utilizan a diario, lo que podría facilitar una adopción más gradual.

Con este movimiento, Apple intenta combinar la popularidad de los AirPods con una nueva capa de inteligencia artificial visual, apuntando a un futuro en el que los auriculares no se limiten a reproducir sonido, sino que se conviertan en un nodo clave dentro de un ecosistema de IA siempre presente y contextual.

era Ternus en Apple con enfoque en hardware e IA
Related article:
La era Ternus en Apple: hardware al mando en plena ola de IA