Da igual que sea un iPhone o un Android, en fotografía móvil uno de los modos que más trabajo detrás lleva es el modo retrato y esto no siempre es bueno. Así, mientras que el modo retrato de algunos móviles parece magia en cuanto a resultados, en otros casos la fotografía es un mal truco, ya sea por la imagen en sí como por lo artificial del procesado o incluso, la escasa consistencia de la imagen generada. Pues bien, DXOMARK ha elaborado un estudio en el que ha encontrado al culpable de los malos modos retrato.
Y sí, es independiente del sistema operativo del teléfono en cuestión e incluso de la gama a la que pertenezca el terminal, si bien este punto es determinante en cuanto a la óptica integrada.
¿Un mal modo retrato? Ojo al sesgo del entrenamiento de la IA
Para entender los resultados de este estudio merece la pena aportar un poco de contexto sobre cómo funciona la inteligencia artificial. Para que una IA sea buena es requisito imprescindible que lleve un gran entrenamiento detrás tanto en cantidad como en calidad. Así, no basta con que aprenda con millones de referencias sino que estas deben ser diversas. De lo contrario pueden suceder aberraciones como cuando el algoritmo de Google confundió a una pareja de personas negras con gorilas.
Y si ahora mismo acudes a una inteligencia artificial generadora de imágenes y le das un prompt genérico, verás cómo lo más habitual es que te salgan hombres y que estos sean blancos. Tampoco es casual. O que si en la petición solicitas que aparezca una mujer, es altamente probable que la imagen sea sexualizada. Cero casualidades aquí: cuando el grueso de las personas que están detrás son varones blancos cis y heteros, pasan estas cosas. La diversidad no solo es necesaria, es conveniente.
Pues bien, el estudio de DXOMARK revela que el grado de satisfacción de las personas usuarias en modo retrato varía enormemente en función del tono de tu piel. Más concretamente, de lo oscura o no que sea. Según el estudio, la culpa está en ese sesgo de entrenamiento: la mayoría de modelos de IA se entrenan con conjuntos de datos donde no abunda la diversidad de tonos de piel, como consecuencia el modo retrato de los móviles detecta y procesa peor a las personas con tonos de piel más oscuros.
Entre los diferentes gráficos del estudio aparecen fotografías de personas con diferentes tonos de piel para enfatizar cómo pueden variar parámetros como los ajustes de enfoque y exposición de la cámara en ambos casos. Como puede verse sobre estas líneas, el modelo con piel más clara aparece enfocado y bien expuesto, mientras que la otra persona, de piel más oscura, tiene una exposición baja y está peor enfocada.
Como detalla Android Authority, la calibración de la cámara es otro factor que puede agravar el problema. Así, si las escenas de prueba procedían de determinadas ubicaciones geográficas, la calibración no parece ser la correcta para una base de usuarios diversa, lo que repercute en la forma en la que los dispositivos reproducen los tonos de piel. Según el estudio, algunos smartphones parecen preferir "tonos de piel más claros a los oscuros".
La conclusión, aunque no es nueva, es bastante clara: es necesario contar con una mayor diversidad de los datos y mejores estrategias de ajuste para garantizar una calidad de imagen constante independientemente del tono de piel o apariencia de la persona. Para DXOMark, se necesitan más casos para abarcar diversidad de configuraciones, condiciones y tonos de piel para que el renderizado final ofrezca una experiencia satisfactoria. No obstante, los fabricantes parecen estar en ello, sirva como ejemplo la tecnología Real Tone de Google.
Portada | Javier Penalva (Xataka)
En Xataka Móvil | El camino a seguir para ganar la batalla de la fotografía móvil: el modo Retrato
Ver 0 comentarios