
El desarrollo de modelos de audio que permitan a los usuarios hablar e interrumpir a la inteligencia artificial durante el diálogo, así como mantener una conversación fluida, ha marcado una nueva etapa en la estrategia de OpenAI respecto a sus dispositivos personales. El medio The Information detalló que la firma tecnológica reestructuró sus equipos internos unificando los departamentos de ingeniería, producto e investigación para potenciar estas capacidades, con la vista puesta en el lanzamiento de un dispositivo dirigido a la interacción por voz y sin pantalla.
Según publicó The Information, OpenAI ha enfocado los últimos dos meses en esta reorganización para modernizar sus algoritmos de audio. El objetivo radica en habilitar una interacción mucho más natural entre la inteligencia artificial y las personas usuarias, de tal forma que el asistente pueda comprender cuándo responder, cuándo permitir interrupciones y cuándo mantener el flujo de la conversación. Este desarrollo cobra relevancia de cara a la presentación de una nueva familia de dispositivos personales previstos para principios de 2026.
Tal como consignó The Information, la compañía prevé que este nuevo asistente tenga la capacidad de comunicarse como un "compañero" del usuario, apartándose de la interfaz tradicional centrada en pantallas. La relación entre humano y dispositivo cambiaría, al centrarse en la voz como único canal de interacción y en la adaptación contextual de las respuestas generadas por la inteligencia artificial.
OpenAI ya había adelantado su intención de introducir un aparato diferente al smartphone, orientado a suplir la mayoría de las tareas habituales mediante comandos verbales. Este proyecto se desarrolla en colaboración con Jonathan Ive, quien fue jefe de diseño en Apple y es cofundador de la empresa io, adquirida por la propia OpenAI el año anterior. De acuerdo con la información reportada por The Information, la participación de Ive aporta experiencia en el diseño de productos que priorizan la experiencia de usuario y la integración tecnológica discreta, elementos clave para un dispositivo personal sin pantalla.
En declaraciones recogidas por The Information, Sam Altman, director ejecutivo de OpenAI, expuso que la ambición de la empresa es "construir un dispositivo que, además de hacer cosas por los usuarios, sea contextualmente consciente de cuándo debería molestarlos y cuándo presentarles información o solicitar su opinión, o no". Según detalló el medio, esto supone que el dispositivo deberá evaluar no solo las órdenes explícitas del usuario, sino también su contexto y preferencia en cada momento.
El trabajo orientado a la modernización de los modelos de audio y la integración de equipos en OpenAI también se alinea con la creciente demanda de asistentes inteligentes que respondan en tiempo real y se adapten a distintas situaciones cotidianas. Según reportó The Information, esta tendencia impulsa la inversión en inteligencia artificial capaz de interpretar el habla humana de manera más sofisticada y de gestionar las conversaciones de forma menos rígida.
La reorganización interna de OpenAI incluye la colaboración directa entre los equipos técnicos y de producto, así como los responsables de investigación, con el fin de acelerar el desarrollo de estos modelos. El medio The Information explicó que la unificación favorece el intercambio de conocimiento y la aplicación conjunta de avances en aprendizaje automático, procesamiento de lenguaje natural y comprensión contextual dentro de la misma estructura de la empresa.
El dispositivo personal en desarrollo por OpenAI y Jonathan Ive constituye una respuesta a la búsqueda de herramientas tecnológicas que asistan en las tareas cotidianas sin requerir atención visual constante. Según The Information, la apuesta por dispositivos sin pantalla plantea desafíos adicionales para el procesamiento de voz, ya que la interacción debe ser intuitiva y sin fricciones, gestionando con precisión tanto las interrupciones accidentales como las conversaciones simultáneas.
De acuerdo con la información aportada por The Information, la meta de la firma estadounidense apunta a establecer un nuevo estándar en la relación entre humanos y sistemas de inteligencia artificial. Esto incluye la adaptación continua a las necesidades de las personas usuarias, la gestión de la privacidad y una mayor facilidad de uso para interacción por voz en cualquier entorno.
La hoja de ruta interna presentada por OpenAI, según publicó The Information, sitúa el lanzamiento del primer modelo de audio mejorado para comienzos de 2026. Los trabajos de integración y mejora de la infraestructura tecnológica seguirán marcando el ritmo en los próximos meses, en paralelo con el diseño del hardware específico para este nuevo segmento de dispositivos inteligentes.
Últimas Noticias
Dinamarca y Suecia se ofrecen para hospitalizar a víctimas del incendio de Suiza
Israel vuelve a bombardear el sur del Líbano asegurando haber atacado objetivos de Hizbulá
El Villarreal firma al mediapunta argentino Thiago Fernández hasta 2031

Hacienda ha devuelto ya 13.094 millones a 15,6 millones de contribuyentes del IRPF, el 95,5% del total

La borrasca 'Francis' dejará lluvia en amplias zonas de España este fin de semana y los Reyes llegarán con frío y nieve
