Con los nuevos iPhone 12 y 12 Pro llegaron pequeñas mejoras a nivel de cámara, principalmente cambios en la lente (ahora con siete elementos y más luminosa) y un nuevo sensor con un tamaño un 47% superior en el caso del iPhone 12 Pro Max. No obstante, una de las mayores novedades pasó desapercibida: la detección inteligente de escenas.
Esta no es una función nueva, ya que es la traducción de Apple a la aplicación del aprendizaje automático a distintas escenas. Vamos a explicarte cómo dice Apple que funciona, lo que hemos podido probar y dónde se activa esta función, ya que en según qué circunstancias puede ser muy recomendable asegurarse de que está activa.
Los nuevos iPhone 12 reconocen lo que están fotografiando
Una de las principales novedades implementadas junto a HDR Inteligente 3 en los iPhone es el reconocimiento de escenas. Esta función viene activa por defecto en el iPhone 12 y, según la propia Apple, retoca la nitidez, el color y el balance de blancos "donde haga falta."
Durante años los teléfonos Android han contado con modos "IA" que reconocían imágenes y aplicaban valores en base a la escena, aunque por lo general los algoritmos han sobresaturado la imagen para darle algo más de viveza. En el caso de Apple, es un mecanismo más al estilo de los Google Pixel: aprendizaje automático integrado en la cámara, pero sin que el usuario se de cuenta.
"Con la detección de escenas, la cámara detecta de forma inteligente lo que estás fotografiando y aplica un aspecto personalizado para sacar las mejores cualidades de la escena. Para desactivar esta función, ve a Ajustes > Cámara y desactiva la Detección de escenas. " Apple.
Hemos hecho varias pruebas con la detección activa y desactivada. En el caso de la fotografía diurna no hemos notado apenas diferencia entre ambos modos, pero en algunas escenas nocturnas la diferencia es notable.
Uno de los problemas históricos en los iPhone ha venido de la mano del balance de blancos, que en muchas ocasiones se tornaba demasiado amarillento y verdoso, sobre todo en el apartado nocturno con luz artificial. En Android esto se ha ido corrigiendo bastante bien con el paso de los años, con buen ejemplo en los Google Pixel, que suelen tender a un balance de blancos neutro.
Con la opción detección de escenas activa, se logra una corrección automática del balance de blancos en los iPhone. Esta corrección se hace en tiempo real y, como podemos ver en las imágenes, es bastante notable.
No siempre actúa de esta forma tan agresiva. De hecho, hay que buscar bastante la situación concreta para ver actuar la detección de escenas. No obstante, son buenas noticias que Apple deje de lado el exceso de amarillo y verde en las fotografías, que hacían de los resultados finales, en muchas ocasiones, algo alejado de lo que realmente estábamos viendo.
Ver 4 comentarios