OpenAI prepara un dispositivo personal sin pantalla centrado en la voz para cambiar cómo usamos la IA

Dispositivo personal de OpenAI centrado en audio

El giro que está dando OpenAI hacia el audio tiene mucho más fondo que un simple retoque en las voces de ChatGPT. La compañía lleva meses moviendo fichas por dentro para apostar por un dispositivo personal sin pantalla, pensado para funcionar principalmente a través de la voz y con una hoja de ruta que apunta a un lanzamiento alrededor de 2026.

Esta apuesta cuestiona de frente la lógica dominante de la última década, basada en pantallas cada vez más grandes y omnipresentes. La hipótesis que gana terreno en Silicon Valley es clara: el siguiente salto de la computación personal podría no consistir en mirar más, sino en escuchar mejor y hablar con naturalidad, reduciendo la dependencia constante del móvil y otros dispositivos visuales.

Reorganización interna para priorizar el audio y el nuevo hardware

Según informaciones coincidentes de medios como The Information y TechCrunch, OpenAI ha pasado los últimos dos meses en una reorganización profunda de sus equipos de ingeniería, producto e investigación. El objetivo es reforzar una unidad única centrada en modelos de audio avanzados y, en paralelo, en la creación de un dispositivo personal audio-first sin pantalla.

Esta reestructuración no se limita a mejoras incrementales de ChatGPT. La compañía estaría planificando un nuevo modelo de audio para principios de 2026, que sirva como base tecnológica de ese hardware. La intención es que la IA pase de «leer en alto» a mantener conversaciones mucho más parecidas a las humanas, con mayor fluidez, naturalidad y respuesta en tiempo real.

En este contexto, el dispositivo en preparación se concibe como un aparato diseñado desde cero para la interacción por voz, dejando la pantalla en un papel secundario o directamente prescindible. La idea recuerda a un asistente siempre disponible, más cercano a un compañero que a una simple herramienta, algo que Sam Altman ha defendido en distintas ocasiones cuando habla de computación ambiental.

Además de este dispositivo principal, dentro de la compañía se habla de una posible familia de productos sin pantalla, que podrían incluir altavoces compactos o incluso gafas inteligentes, todos ellos centrados en el audio y en la presencia constante, pero sin reclamar la mirada del usuario cada pocos segundos.

IA de voz y modelos de audio de OpenAI

Un modelo de audio que habla mientras hablas

Los detalles que han trascendido sobre el nuevo modelo de audio apuntan a un cambio relevante en la forma de interactuar con la tecnología. OpenAI trabaja en un sistema capaz de gestionar interrupciones, solapamientos de voz y cambios de turno de palabra de manera más parecida a como lo hacen dos personas al hablar.

Una de las capacidades más llamativas en desarrollo es que el modelo pueda responder mientras el usuario todavía está hablando. Hoy, la mayoría de asistentes de voz funcionan a base de turnos rígidos: uno habla, el otro espera. La ambición de OpenAI es acercarse a una conversación más espontánea, donde la IA pueda anticipar respuestas, matizar indicaciones y seguir el hilo incluso cuando el usuario se corrige a mitad de frase.

  Audio-Technica renueva su serie AT33x de cápsulas fonográficas

Esta mejora técnica persigue reducir la sensación de latencia y de diálogo forzado que todavía limita el uso continuado de muchos asistentes. La meta es que el intercambio por voz deje de sentirse como rellenar formularios con la boca y se parezca más a charlar con alguien que entiende contextos, cortes y rectificaciones sin perder el ritmo.

En términos de implementación, se espera que parte del procesamiento se realice de forma local en el propio dispositivo, algo clave para recortar tiempos de respuesta, contener costes de infraestructura y mitigar algunas preocupaciones sobre privacidad al evitar enviar todos los datos de audio a la nube.

Este enfoque encaja con lo que ya se está viendo en otros actores del sector, como las versiones reducidas de modelos en móviles de gama alta. OpenAI estudiaría vías similares para optimizar sus modelos de voz y hacerlos viables en hardware compacto, manteniendo un equilibrio entre rendimiento, consumo energético y protección de datos.

Un movimiento en línea con la industria: del salón al coche y a los wearables

El viraje de OpenAI llega en un momento en que la voz ya se ha instalado en millones de hogares gracias a los altavoces inteligentes. En Estados Unidos, estos dispositivos forman parte de la rutina de más de un tercio de las viviendas, lo que indica que hablar con la tecnología ya no es algo exótico, sino un hábito cotidiano para poner música, fijar recordatorios o hacer consultas sencillas.

Al mismo tiempo, otros gigantes están empujando el audio hacia entornos mucho menos estáticos. Meta ha incorporado en sus gafas Ray-Ban una matriz de cinco micrófonos capaz de mejorar la escucha en lugares ruidosos, transformando literalmente la cabeza del usuario en una especie de sistema direccional. Es un giro que sitúa al micrófono, y no solo a la cámara, como sensor protagonista en la próxima generación de wearables.

En el ámbito de las búsquedas, Google está probando funciones como Audio Overviews, que convierten los resultados en resúmenes hablados. Se trata de usar la voz no solo como vía de entrada de datos, sino también como formato principal de salida, permitiendo que el usuario obtenga la información que necesita sin tener que leer pantallas llenas de texto.

El coche es otro escenario clave para esta transición. Tesla está integrando el chatbot Grok, de xAI, en sus vehículos para que se encargue de la navegación, el control del climatizador o las consultas generales mediante conversación natural. En la cabina, la pantalla compite con la carretera por la atención del conductor, por lo que la voz se plantea como la interfaz más razonable por seguridad y comodidad.

Todo este contexto ayuda a entender por qué el dispositivo personal de OpenAI se inscribe en una tendencia más amplia, en la que distintos actores intentan que el usuario interactúe menos con paneles táctiles y más con asistentes conversacionales presentes en varios puntos de su día a día.

  Refrigeración de centros de datos: agua, calor y nuevas soluciones en la era de la IA

Aprendizajes de otros dispositivos sin pantalla

La idea de un aparato centrado en el audio y sin pantalla no es completamente nueva, y los ejemplos recientes invitan tanto a la ambición como a la prudencia. Uno de los casos más comentados ha sido el del Humane AI Pin, un pequeño dispositivo que prometía cambiar la relación con el teléfono gracias a la voz y a una proyección láser minimalista.

Tras una fuerte inversión, el producto terminó convirtiéndose en un ejemplo de expectativas desbordadas y ejecución complicada, con críticas sobre su utilidad real frente a un smartphone tradicional. El caso demuestra que eliminar la pantalla no basta: el dispositivo tiene que ofrecer una experiencia claramente mejor o más cómoda que sacar el móvil del bolsillo.

También se ha hablado mucho del colgante Friend AI, diseñado para grabar audio de manera constante y ofrecer compañía al usuario. Aunque la propuesta se presenta como una ayuda emocional y organizativa, ha encendido las alarmas por sus implicaciones de privacidad y vigilancia continua, ya que un micrófono activo todo el día afecta no solo al propietario, sino también a quienes le rodean.

Junto a estos ejemplos, el ecosistema de startups sigue experimentando con formatos alternativos. Proyectos como Sandbar y la nueva iniciativa liderada por Eric Migicovsky, conocido por haber impulsado los relojes Pebble, trabajan en anillos con capacidades de escucha y respuesta por voz que podrían llegar al mercado en 2026. El planteamiento es casi literal: hablarle a la mano para interactuar con la IA, con un dispositivo discreto y siempre a mano.

Los tropiezos y avances de estos productos marcan el terreno por el que tendrá que moverse OpenAI: equilibrar la discreción y cercanía del audio con requisitos básicos de utilidad, fiabilidad y respeto a la intimidad de los usuarios.

Dispositivos sin pantalla centrados en la voz

Jony Ive, diseño y cansancio de pantallas

Una pieza clave en la estrategia de OpenAI es la participación de Jony Ive, exjefe de diseño de Apple. Su estudio, io, fue adquirido por la compañía por unos 6.500 millones de dólares, y desde entonces se le vincula estrechamente a los planes de hardware centrados en audio.

Ive ha sido crítico en varias ocasiones con la deriva adictiva de muchos dispositivos de consumo, y ve en los formatos audio-first una oportunidad para replantear la relación con la tecnología. La idea es diseñar aparatos que estén presentes cuando se les necesita, pero que no monopolizen la atención visual a base de notificaciones, colores llamativos y pantallas constantes.

En este enfoque, el nuevo dispositivo personal de OpenAI no se concibe solo como un gadget potente, sino como un intento de corregir algunos excesos de la era del smartphone. Un asistente que se comunique por voz podría, sobre el papel, acompañar sin interrumpir tanto la interacción con el entorno físico y social.

Sin embargo, el reto de diseño va más allá de apagar pantallas. Un aparato que escucha y habla también puede ser muy intrusivo si no se gestiona bien cuándo y cómo interviene. Altman ha mencionado que el objetivo es que el dispositivo sea capaz de decidir en qué momentos conviene interrumpir al usuario y cuándo es mejor no molestar, algo que implica una combinación delicada de contexto, aprendizaje y buen criterio.

  Microsoft apuesta por microfluidos para enfriar chips de IA

En Europa y en España, donde el debate sobre la salud digital y la regulación tecnológica es cada vez más visible, este tipo de productos se mirará con lupa. El papel de diseño responsable y centrado en la persona será tan relevante como la potencia bruta del modelo de IA que haya detrás.

Privacidad, contexto y un compañero siempre atento

La expansión de los dispositivos de voz plantea inevitablemente preguntas sobre privacidad y uso de datos. Hablarle a un altavoz en el salón no es lo mismo que llevar un wearable que puede captar conversaciones en la calle, en el trabajo o en una consulta médica. El salto del entorno doméstico a la presencia permanente multiplica los posibles conflictos.

Para que un asistente de este tipo resulte realmente útil, necesita entender el contexto en el que se encuentra el usuario: quién está cerca, qué está haciendo, si está en una reunión, si conduce o si simplemente quiere desconectar. Gran parte de esa información pasa por el audio, lo que obliga a definir políticas claras sobre qué se procesa en el dispositivo, qué se envía a servidores y durante cuánto tiempo se conserva.

La Unión Europea ya ha mostrado una postura firme en cuestiones de datos personales y algoritmos, por lo que cualquier dispositivo audio-first que llegue al mercado europeo tendrá que ajustarse a normativas como el RGPD y a futuras regulaciones específicas sobre IA. Esto implica transparencia, opciones de control para el usuario y mecanismos sencillos para desactivar funciones de escucha prolongada.

OpenAI es consciente de que la confianza será tan crítica como la calidad técnica. La promesa de un compañero digital que pueda acompañar al usuario de forma continua debe ir acompañada de garantías sobre cómo se gestionan esas interacciones, especialmente en regiones como España y el resto de Europa, donde la sensibilidad en torno a la privacidad es alta.

En paralelo, surgen debates sobre ergonomía social y accesibilidad. Hablarle a un dispositivo en público no siempre resulta cómodo ni práctico, pero el audio puede ser una herramienta poderosa para personas con dificultades de visión o con limitaciones motoras, siempre que se respete su autonomía y se evite convertir la ayuda en dependencia excesiva.

Todos estos movimientos sitúan al audio como el próximo gran campo de batalla de la inteligencia artificial de consumo. OpenAI está reposicionando su estructura interna, redefiniendo sus modelos de voz y preparando un dispositivo personal sin pantalla que busca encajar en esta nueva etapa: menos centrada en mirar y tocar, y más en conversar de forma continua. Si la apuesta cuaja, el cambio de ciclo tecnológico no se verá tanto en nuevos paneles brillantes, sino que se notará en cómo suena y en cómo responde la tecnología que llevamos encima.

[relacionado url=»https://foropc.com/sam-audio-el-modelo-de-ia-de-meta-que-separa-cualquier-sonido/»]

Deja un comentario