
Mientras OpenAI acelera con nuevos modelos, su proyecto de hardware junto a Jony Ive no pinta tan inminente: diversas informaciones recogidas por medios internacionales señalan que el primer dispositivo podría retrasarse por obstáculos que aún no están resueltos. La ventana que se barajaba para 2026, según esas fuentes, ya no estaría garantizada.
El informe, atribuido a Financial Times y citado por cabeceras como Engadget y TechCrunch, sitúa el foco en tres frentes: la definición de la “personalidad” del asistente, la gestión de la privacidad ante un modo de escucha continuo y los altos costes de cómputo que tensionan el presupuesto del proyecto.
Los retos técnicos y de privacidad
Uno de los puntos más delicados está en dar con una voz y un comportamiento que se sientan cercanos y útiles sin resultar invasivos. El equipo trabaja para que el asistente sea, en palabras citadas por las fuentes, “un amigo que es un ordenador”, evitando caer en lo incómodo; ajustar la “personalidad” del asistente está siendo más complejo de lo esperado.
También preocupa el enfoque de funcionamiento. Varias fuentes señalan que el dispositivo tendería a estar “siempre activo” para captar señales del entorno y responder con rapidez, pese a que internamente no desean imponer ese modo por defecto. Aun así, queda por afinar que solo intervenga cuando realmente aporta valor y que termine la conversación a tiempo.
La privacidad es el segundo gran frente. Un aparato atento al ambiente, con escucha y potencial captación visual, plantea dudas sobre cómo se procesan y protegen los datos, el posible acceso de terceros y el trato a personas cercanas al usuario. La gestión del tratamiento de los datos y el encaje normativo son piezas críticas del diseño.
Y en tercer lugar, la infraestructura. El nivel de cómputo necesario para ofrecer respuestas fluidas y contextuales —ya sea en local o apoyado en la nube— implica un alto coste de la potencia de cálculo, un punto que condiciona tanto el precio final como la viabilidad de fabricar el dispositivo a gran escala.
Calendario, producción y situación del proyecto
La hoja de ruta inicial apuntaba a 2026, pero los tropiezos técnicos y de privacidad han enfriado las expectativas y podrían forzar cambios en el plan. Incluso se comenta internamente que el propio Sam Altman describió el producto como de bolsillo, consciente del entorno y sin pantalla, aunque sin comprometer fechas más allá del objetivo preliminar.
En el frente industrial, se ha informado de conversaciones para fabricar con Luxshare, proveedor habitual del ecosistema Apple. Este paso daría forma a la cadena de suministro, pero su materialización estaría supeditada a que el diseño final esté cerrado y los problemas clave queden resueltos.
Las pruebas de uso, según las filtraciones, han dejado claro que no basta con escuchar: el sistema debe “saber estar”. Asegurar que el asistente solo hable cuando sea útil y corte a tiempo no es trivial, sobre todo si se pretende una interacción natural, sin activación por comando verbal explícito.
En paralelo, el equipo intenta equilibrar ambición y viabilidad. La experiencia de lanzamientos recientes —como el Humane AI Pin, que tuvo un recorrido corto— es un recordatorio de que, sin una propuesta redonda y sostenible, el mercado puede ser implacable con apuestas de hardware de IA.
Qué se sabe del dispositivo y el contexto
Lo descrito hasta ahora habla de un gadget de bolsillo y sin pantalla, capaz de captar señales de audio y visuales del entorno para ofrecer respuestas contextuales. Esa combinación —conciencia del ambiente y diálogo natural— es la base que explica tanto su potencial como los quebraderos de cabeza que está generando.
Según se ha publicado, OpenAI adquirió en mayo la startup de hardware vinculada a Jony Ive por alrededor de 6.500 millones de dólares, con la ambición de “crear una nueva generación de ordenadores con IA”. Esa inversión estructura el proyecto, aunque no lo blinda frente a los problemas técnicos y de privacidad mencionados.
La estrategia actual parece ser ir con pies de plomo: menos promesas y más validación antes de exponer fechas. A diferencia de otros actores que han anunciado “dispositivos nativos de IA” con pocos detalles, aquí la prioridad estaría en cerrar bien la arquitectura, desde la experiencia de uso hasta el anclaje en seguridad y privacidad.
De cara a próximos hitos, será clave conocer el modelo de datos (procesamiento en el dispositivo frente a la nube), las garantías de privacidad por defecto y la definición final de la interacción. Son decisiones que pueden inclinar la balanza entre un asistente útil y uno percibido como intrusivo.
Con todo lo anterior sobre la mesa, la sensación es que el retraso del primer dispositivo cobra fuerza por una combinación de barreras técnicas, dudas de privacidad y límites presupuestarios, mientras el diseño se centra en un formato de bolsillo sin pantalla y sensible al entorno; por ahora, toca esperar movimientos oficiales que confirmen calendario y especificaciones.


