Rostros de muertos, de gemelos, de dormidos... Está claro que los sistemas de reconocimiento facial se enfrentan a grandes retos, y no es la primera vez que salta la polémica en torno ellos y al uso de datos sin consentimiento que se lleva a cabo para mejorarlos. Hemos visto, por ejemplo, las irregularidades que hubo en los aeropuertos de Estados Unidos cuando se adoptó este sistema de identificación o las acusaciones de discriminación en torno a las personas transgénero y de 'género no conforme'.
A principios de año, sin ir más lejos, el famoso reto viral #10yearchallenge se vio envuelto en sospechas sobre su posible propósito oculto: entrenar sistemas de reconocimiento facial. Precisamente para ello es para lo que, según una investigación de NBC News, la app de almacenamiento de imágenes Everalbum usaba las fotos de sus usuarios, sin su consentimiento y sin informarles de ello.
Sin advertencia ni consentimiento
La startup Ever se lanzó como un sistema de almacenamiento en la nube en 2013 que ofrecía copias de seguridad privadas ilimitadas y gratuitas "de todos los recuerdos de la vida". Después, como era de esperar, llegó su apps móvil tanto para iOS como para Android (en este caso, bajo la denominación Everalbum).
Sin embargo, según cuenta NBC News, se convirtió en un proveedor de tecnología de reconocimiento facial (Ever AI) y comenzó a usar las instantáneas privadas de los clientes para entrenar y vender su software a otras empresas. El problema es que en ningún momento sus usuarios fueron informados de este cambio.
La política de privacidad original de la compañía establecía que el reconocimiento facial ayudaba a "organizar" los archivos de los usuarios, permitiéndoles agrupar las imágenes de la misma persona, con una única línea que decía: "Sus archivos pueden usarse para ayudar a mejorar y capacitar a nuestros productos y estas tecnologías". Sin embargo, las fotos que las personas guardan en la app se utilizaban (y se utilizan) para entrenar sistemas de reconocimiento facial que la compañía vende después a compañías privadas, a la policía y al ejército.
Tras ser contactada en abril por NBC News, la compañía actualizó su política de privacidad y añadió una frase para explicar que estos "productos" incluyen "ofertas de reconocimiento facial para empresas". Sin embargo, son varios los expertos que aseguran que Ever viola claramente la privacidad de los usuarios al no informarles de cómo están siendo utilizados sus datos personales (en este caso, sus imágenes).
De momento, Ever nunca ha vendido su software al ejército ni a la policía, pero ha firmado acuerdos con clientes como SoftBank Robotics, fabricante del robot Pepper. En cualquier caso, es de sobra conocido que muchas empresas privadas utilizan enormes bases de datos de millones de fotos e incluso sitios web públicos, como Flickr, para entrenar el reconocimiento facial de AI.
En la página web de Ever AI, la compañía se jacta de tener uno de los "conjuntos de datos etiquetados más grandes, más diversos y patentados del mundo", con más de 13 mil millones de imágenes y vídeos, eso sí, sin mencionar Everalbum. Asegura también que su software se usa para "vigilancia y monitoreo, control de acceso físico y autenticación digital", y que no solo es capaz de reconocer a las personas, sino también de categorizar sus emociones, etnia, género y edad.
Cuando NBC News le preguntó a Doug Aley, CEO de Ever, si la compañía había hecho lo suficiente para informar a los usuarios sobre el uso de sus datos, respondió que la política de privacidad de la app deja claro a los usuarios que el reconocimiento facial es parte de la misión de la compañía. Y añadió que Ever AI no comparte las fotos ni datos de identificación de sus usuarios con sus clientes del software de reconocimiento facial.
Vía | The Verge
Ver 5 comentarios