Selecciona tu emisora

Ir a la emisora
PerfilDesconecta
Buscar noticias o podcast

Apple rediseña sus sistemas operativos y presenta su novedoso sistema de traducción de llamadas en la WWDC 2025

La compañía tecnológica celebra su conferencia anual de desarrolladores en Cupertino (California)

El CEO de Apple, Tim Cook, hablando desde el Apple Park de Cupertino (California). / JOHN G. MABANGLO (EFE)

El CEO de Apple, Tim Cook, hablando desde el Apple Park de Cupertino (California).

El gigante tecnológico Apple celebra esta semana (entre el 9 y el 13 de junio) su conferencia anual de desarrolladores, denominada WWDC 25. Este lunes a las 19:00 ha arrancado desde el Apple Park de Cupertino (California), donde el presidente de la compañía, Tim Cook, ha anunciado algunas de las novedades y actualizaciones de los productos de uno de los fabricantes tecnológicos más famosos del mundo.

Más información

Una de las novedades anunciadas por el jefe de software de la empresa, Craig Federighi, es la denominada Foundation Models Framework, una herramienta que permite a los desarrolladores integrar las capacidades de la IA de Apple, denominada Intelligence, en aplicaciones de terceros. Gracias a esto, la compañía permitirá que todas las aplicaciones que el usuario quiera usen la inteligencia artificial desarrollada por Apple.

"Este trabajo necesitaba más tiempo para alcanzar nuestro alto estándar de calidad", indicó Federighi, vicepresidente senior de ingeniería de software de Apple, sobre los retrasos en algunas funciones como las mejoras del asistente virtual Siri.

Federighi también anunció que Apple planea una renovación del diseño de todos sus sistemas operativos que gira en torno a un diseño llamado vidrio líquido, en el que los íconos y menús son parcialmente transparentes. Un paso que los ejecutivos de Apple han indicado que ha sido posible gracias a los chips personalizados más potentes en los dispositivos Apple en comparación con la década pasada.

Este nuevo diseño abarcará los sistemas operativos de iPhones, Macs y otros productos de Apple y vendrá acompañado de un cambio de nomenclatura en las nuevas versiones de sus productos más conocidos. A partir de ahora, los sistemas operativos de la compañía tendrán nombres por año en lugar de números secuenciales para simplificar los nombres de los productos de la empresa.

Traducción en tiempo real, filtro de llamadas e inteligencia visual

Entre las nuevas funciones que Apple ha presentado se encuentra la traducción en tiempo real de llamadas teléfonicas, una tecnología que no necesita que la persona al otro lado de la llamada tenga un iPhone para que funcione la traducción. El gigante tecnológico ha presentado una función de inteligencia artificial (IA) que permite "superar las barreras lingüísticas" en mensajes y llamadas con traducción en vivo con subtítulos en pantalla que formará parte del nuevo sistema operativo de iPhone, iOS 26.

"Presentamos la traducción en vivo con Apple Intelligence (la IA de Apple). La traducción en vivo puede traducir conversaciones al instante. Está integrada en Mensajes, FaceTime y el teléfono, y se habilita gracias a modelos creados por Apple que se ejecutan en el dispositivo", ha explicado la compañía de la manzana mordida en su evento de desarrolladores en su sede de Apple Park en Cupertino, California. Apple ha revelado esta función con un vídeo pregrabado de una conversación en francés e inglés en FaceTime en la que se mostraban subtítulos en pantalla.

La compañía ha dicho que esta herramienta vanguardista "funcionará a la perfección incluso al llamar a alguien que no tiene iPhone". Nuevos elementos de traducción también llegarán a Apple Music, la aplicación de Música de la compañía, ya que se añadirán la traducción de letras de las canciones y su pronunciación, "para que todos puedan cantar sin importar el idioma".

Además, la empresa ha presentado un filtro de llamadas ('call screening') con el que los móviles responderán automáticamente a llamadas de números desconocidos y preguntarán por el motivo de la llamada. Cuando este lo indique, el iPhone le mostrará al usuario una transcripción de lo que le ha dicho la otra persona y el teléfono sonará para alertar al dueño.

Por último, la aplicación Visual Intelligence funcionará como una especie de Google Lens. Con ella, el usuario puede hacer una fotografía a un objeto que quiera encontrar y el iPhone la analizará y recomendará varias aplicaciones que contengan productos parecidos.

 

Directo

  • Cadena SER

  •  
Últimos programas

Estas escuchando

Hora 14
Crónica 24/7

1x24: Ser o no Ser

23/08/2024 - 01:38:13

Ir al podcast

Noticias en 3′

  •  
Noticias en 3′
Últimos programas

Otros episodios

Cualquier tiempo pasado fue anterior

Tu audio se ha acabado.
Te redirigiremos al directo.

5 "

Compartir