Apple agregó una función llamada “FaceTime Attention Correction” a la última beta de iOS 13 Developer y parece que podría hacer una gran diferencia cuando se trata de que las llamadas de FaceTime se sientan aún más cómo hablar con alguien en persona. La característica, que se encuentra en la tercera versión beta de la nueva actualización de software que se lanzó esta semana, aparentemente hace un excelente trabajo al hacer que parezca que estás mirando directamente a la cámara, incluso cuando estás mirando la pantalla durante una llamada de FaceTime.
Es una gran mejora porque cuando las personas se enfrentan a FaceTime, la mayoría de las veces miran la pantalla en lugar de la cámara, ya que el objetivo principal es ver a la persona o personas con las que se está hablando, en lugar de una pequeña lente negra en la parte superior del dispositivo.
El problema hasta ahora parecer ser que esta función de FaceTime solo está disponible en iPhone XS y iPhone XS Max, lo que podría significar que solo funciona con la última tecnología de cámara disponible en hardware de Apple. Esto podría deberse al nuevo procesador de señal de imagen que Apple incluyó en el procesador A12 que alimenta al iPhone XS y XS Max y que también brinda mejoras en los teléfonos de la generación anterior en términos de efectos de iluminación HDR y retrato.
También es posible con cualquier actualización o característica que llegue a las versiones beta de iOS que puedan expandirse a otros dispositivos y/o desaparecer antes del lanzamiento público real de iOS 13, que está configurado en unos meses. El objetivo es generar una sensación de “presencia” para las llamadas de FaceTime, que es uno de los valores centrales de la función de chat de Apple en general.