Esta herramienta detecta si nuestras fotos de Flickr se han usado para entrenar algoritmos de reconocimiento facial

Esta herramienta detecta si nuestras fotos de Flickr se han usado para entrenar algoritmos de reconocimiento facial

"Si eres usuario de Flickr y has subido fotos que contengan rostros u otra información biométrica entre 2004 y 2020, tus fotos pueden haber sido utilizadas para entrenar, probar o mejorar tecnologías de vigilancia de inteligencia artificial para su uso en aplicaciones académicas, comerciales o relacionadas con la defensa". Con esas palabras introducen Adam Harvey y Jules LaPlace "Exposing.ai", una herramienta que sirve para detectar precisamente eso: si tus fotos de Flickr forman parte de algún dataset de entrenamiento para algoritmos de inteligencia artificial.

La herramienta no es perfecta. Según explican sus creadores, Exposing.ai sirve para buscar fotos subidas a Flickr entre millones de imágenes, aunque solo funciona con datasets de acceso público que incluyeran 1) imágenes de Flickr y 2) metadatos, aunque en el futuro pretenden expandir la herramienta para analizar otros orígenes.

Así funciona Exposing.ai

Resultado

Exposing.ai se basa en megapixels.cc, que fue un proyecto similar con soporte de Mozilla. La herramienta permite buscar qué fotos de Flickr se han usado y en qué datasets usando la URL de la imagen, el NSID, el usuario o un hashtag. Desde la web aseguran que no usan ningún tipo de reconocimiento facial para detectar las imágenes y que no recogen ninguna información de las búsquedas de los usuarios.

Actualmente Exposing.ai contiene seis datasets de imágenes con 3.630.582 imágenes en total. Los datasets incluidos son DiveFace, FaceScrub, IJB, MegaFace (el más grande con diferente), PIPA y VGG. También tiene información sobre otros datases populares, como Brainwash, Duke MTMC, Microsoft Celebs, TownCentre o WildTrack, que o bien han sido descontinuados o bien están siendo investigados por posibles malas praxis.

Si introducimos una búsqueda y la herramienta detecta un positivo, nos devolverá las imágenes en cuestión y el dataset del que forman parte, así como un pequeño resumen del dataset y los proyectos en los que se ha usado. Por ejemplo, en la imagen superior podemos ver que la búsqueda de un nombre de usuario nos devuelve 19 fotos que forman parte de MegaFace.

Desde Exposing.ai explican que "lamentablemente, no es posible eliminarse de las copias existentes de los conjuntos de datos en los que hayas sido incluido. Este es uno de los principales problemas de los conjuntos de datos de imágenes, que no se pueden controlar después de la distribución inicial". Lo que sí podemos hacer es evitar que nuestras imágenes se muestren en la Exposing.ai. Para ello, simplemente hay que ir a Flickr y esconder, borrarlas o hacer privadas todas las fotos.

Más información | Exposing.ai


La noticia

Esta herramienta detecta si nuestras fotos de Flickr se han usado para entrenar algoritmos de reconocimiento facial

fue publicada originalmente en

Xataka

por
Jose García

.

Vía Xataka https://ift.tt/3cw4ZFE

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión /  Cambiar )

Google photo

Estás comentando usando tu cuenta de Google. Cerrar sesión /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión /  Cambiar )

Conectando a %s