El modo cine de los nuevos iPhone 13 es la gran apuesta de Apple este año. Trata de ir más allá de un modo retrato en vídeo, introduciendo el enfoque automático a personas u objetos según el protagonismo que estos tienen en la escena. Todo en tiempo real y con datos guardados para su post-procesado, algo que consiguen gracias al A15 Bionic.
En una entrevista tanto al vicepresidente de Apple, Kaiann Drance, como al diseñador de interfaz, Johnie Manzari, se han desvelado detalles sobre cómo funciona a nivel técnico el modo cine y todos los elementos que se tuvieron en cuenta a la hora de desarrollarlo.
El modo cine de Apple, explicado
Desde Apple indican que desarrollar el modo cine fue "mucho más desafiante" que desarrollar el modo retrato. En vídeo se necesita más información sobre la profundidad de la escena, para que el desenfoque pueda funcionar en personas, mascotas, objetos y demás. Además, es necesario que esos datos se procesen de forma continua y en tiempo real, en movimiento.
A esto hay que sumarle que el modo cine se procesa en calidad Dolby Vision HDR, aunque esté limitado a Full HD, y que esta información se debe mostrar en la vista previa, es decir, mientras estamos grabando. El objetivo era crear un modo automático, capaz de detectar los elementos de la escena para ajustar el enfoque y procesarlo todo en tiempo real.
Apple indica que utiliza tanto la CPU como la propia GPU del teléfono, así como el motor neuronal de Apple. Se vale asimismo del nuevo sensor estabilizado y aprovecha la luminosidad extra del mismo y de la lente, que ahora cuenta con apertura f/1.5. Básicamente, Apple indica que los elementos principales de su modo cine son los siguientes:
- Reconocimiento y seguimiento de sujetos
- Bloqueo de enfoque
- Enfoque en rack (movimiento de enfoque de un sujeto a otro de forma orgánica)
- Sobreescaneo de imagen y estabilización en cámara
- Bokeh sintético (desenfoque de lente)
- Modo de edición posterior al disparo que le permite modificar sus puntos de enfoque incluso después de disparar
En otras palabras, el A15 Bionic se encarga de procesar en tiempo real toda la información de la escena, con el principal objetivo de segmentar objetos y personas para poder aislarlas del fondo de forma selectiva. Se llega a utilizar el propio acelerómetro del teléfono para predecir los movimientos de la persona que graba.
Es decir, si estamos grabando a una persona y nos movemos ligeramente para enfocar a otra, ya estará enfocada antes de que si quiera hayamos terminado el movimiento, ya que el modo cine se anticipa a la propia escena. También analiza la mirada de la persona, para comprender si van a entrar o no en escena.
En definitiva, un modo cine que da sus primeros pasos, como lo hizo el modo retrato, y que pone todos los recursos del iPhone a su disposición.
Vía | Techcrunch
Ver 1 comentarios