
Apple estaría desarrollando una función de traducción en tiempo real para sus auriculares AirPods, permitiendo la comunicación entre diferentes idiomas sin la necesidad de interactuar directamente con un iPhone.
Según informó Bloomberg, los AirPods contarían con una tecnología que permitiría detectar automáticamente el idioma de una conversación y traducirlo en tiempo real. Aunque la compañía no se ha pronunciado, se estima que esta característica estaría disponible a finales de 2025, con la llegada del sistema operativo iOS 19.
De esta manera, un usuario podría escuchar la traducción en su idioma nativo y responder sin interrupciones, mientras su interlocutor recibiría la respuesta traducida. Esta función operaría de manera similar a la aplicación Traducir de Apple, pero con una integración más fluida dentro de los auriculares.

Apple Intelligence y la mejora en traducciones
Apple estaría incorporando inteligencia artificial en sus dispositivos a través de Apple Intelligence, un conjunto de tecnologías que mejorarían la experiencia del usuario en diferentes aplicaciones y funciones del ecosistema Apple.
Dentro de este marco, la traducción en tiempo real en los AirPods podría beneficiarse de modelos de aprendizaje automático avanzados, permitiendo traducciones más precisas y adaptadas al contexto de la conversación.
Apple Intelligence también podría integrar funciones como la detección de entonación y modismos en diferentes idiomas, mejorando la comprensión y reduciendo errores de interpretación. Esta tecnología podría convertir a los AirPods en una herramienta más sofisticada dentro del ecosistema Apple, con posibles aplicaciones en reuniones internacionales y viajes.

Competencia en el mercado
Apple no sería la primera empresa en incorporar esta tecnología en auriculares. Samsung ya ofrece una función similar con los Galaxy Buds3 y Buds3 Pro, que utilizan Live Translate de Galaxy AI para traducción en tiempo real. Esta función permitiría mantener conversaciones entre idiomas sin necesidad de mirar la pantalla del teléfono.
Otros dispositivos, como los Google Pixel Buds, también han implementado capacidades de traducción en años recientes. Apple, que todavía no había incluido esta función dentro de sus auriculares, buscaría diferenciarse al integrar esta función de manera nativa en los AirPods, sin depender de aplicaciones adicionales.
La implementación de traducción en tiempo real en auriculares podría facilitar la comunicación en diversos contextos, incluyendo turismo, negocios internacionales y educación. Además, podría representar una ventaja competitiva en el mercado de auriculares inteligentes, donde Apple buscaría consolidar su liderazgo.

Aunque Apple no ha confirmado si esta función estaría disponible en todos los modelos de AirPods o solo en las versiones Pro, la actualización podría marcar un hito en la evolución de las herramientas de traducción portátiles.
Otra función de los AirPods: cancelación de ruido
Los AirPods Pro y AirPods Max incluyen la función de cancelación activa de ruido, una tecnología que permite reducir los sonidos del entorno para mejorar la calidad del audio. La cancelación de ruido se basa en micrófonos que detectan los sonidos externos y generan ondas de sonido inversas para neutralizarlos. Esta característica es especialmente útil en entornos ruidosos como aviones, transporte público o espacios de trabajo compartidos.
Además, los AirPods Pro cuentan con un modo de transparencia que permite al usuario escuchar su entorno sin necesidad de quitarse los auriculares. Esto resulta útil en situaciones donde se requiere atención al entorno, como al caminar por la calle o mantener una conversación rápida sin desconectar los auriculares.

La cancelación de ruido en los AirPods ofrece ventajas como una mayor inmersión en la música, mejor calidad en llamadas y reducción de fatiga auditiva al no necesitar subir el volumen para contrarrestar el ruido exterior. Con la incorporación de nuevas funciones de inteligencia artificial, Apple podría mejorar aún más esta tecnología, adaptándola dinámicamente a diferentes entornos y preferencias del usuario.
Últimas Noticias
El código de ChatGPT revela integración en desarrollo con Apple Health
Informes señalan que OpenAI estaría trabajando para que su popular chatbot pueda acceder a los datos recolectados por la app Salud de Apple

AWS lanza nuevas herramientas para crear y personalizar LLMs sin gestionar infraestructura
El avance principal presentado por Amazon Web Services es la posibilidad de adaptar modelos de lenguaje grandes a medida utilizando dos de sus plataformas más relevantes en IA en la nube

Jensen Huang, CEO de Nvidia, admite que trabaja 7 días a la semana: “Es agotador”
La presión constante y la ansiedad marcan la vida del CEO de Nvidia, quien considera que la adversidad es clave para alcanzar grandes logros

Cuáles fueron las canciones más buscadas en Google este 2025: Bad Bunny y Taylor Swift lideran
DtMF y Eldest Daughter son dos de las canciones más buscadas en el mundo en Google

Optimus, el robot de Elon Musk, aprende a correr como los humanos
El prototipo sorprende con su capacidad de locomoción y anticipa una nueva era para los robots humanoides




