Cubre tus fotos con esta herramienta de privacidad de la IA para engañar al reconocimiento facial

Tema en 'Noticias de Chile y el Mundo' iniciado por Aerthan, 8 Ago 2020.

Estado del Tema:
Cerrado para nuevas respuestas
  1. Aerthan

    Aerthan Usuario Habitual nvl.3 ★
    262/325

    Registrado:
    12 Oct 2014
    Mensajes:
    2.167
    Me Gusta recibidos:
    882
    La herramienta de privacidad Fawkes hace que tus selfies se parezcan menos a ti mismo

    [​IMG]

    El reconocimiento facial ubicuo es una seria amenaza a la privacidad. La idea de que las fotos que compartimos están siendo recolectadas por empresas para entrenar algoritmos que se venden comercialmente es preocupante. Cualquiera puede comprar estas herramientas, tomar una foto de un extraño y descubrir quién es en segundos. Pero los investigadores han encontrado una forma inteligente de ayudar a combatir este problema.

    La solución es una herramienta llamada Fawkes, y fue creada por científicos del Laboratorio de Arena de la Universidad de Chicago. Llamada así por las máscaras de Guy Fawkes que los revolucionarios se pusieron en el cómic y la película V de Vendetta, Fawkes utiliza la inteligencia artificial para alterar sutilmente y casi imperceptiblemente tus fotos con el fin de engañar a los sistemas de reconocimiento facial.

    La forma en que funciona el software es un poco compleja. Pasar tus fotos por Fawkes no te hace invisible al reconocimiento facial exactamente. En su lugar, el software realiza cambios sutiles en tus fotos para que cualquier algoritmo que escanee esas imágenes en el futuro lo vea como una persona totalmente diferente. Esencialmente, ejecutar Fawkes en tus fotos es como añadir una máscara invisible a tus selfies.

    Los científicos llaman a este proceso “camuflaje” y su intención es corromper el recurso que los sistemas de reconocimiento facial necesitan para funcionar: bases de datos de rostros extraídas de los medios sociales. La empresa de reconocimiento facial Clearview AI, por ejemplo, afirma haber recogido unos tres mil millones de imágenes de rostros de sitios como Facebook, YouTube y Venmo, que utiliza para identificar a extraños. Pero si las fotos que compartes en línea han sido pasadas por Fawkes, dicen los investigadores, entonces el rostro que los algoritmos conocen no será realmente el tuyo.

    Según el equipo de la Universidad de Chicago, Fawkes tiene un éxito del 100 por ciento frente a los servicios de reconocimiento facial de última generación de Microsoft (Azure Face), Amazon (Rekognition) y Face++ del gigante tecnológico chino Megvii.

    “Lo que estamos haciendo es utilizar la foto camuflada en esencia como un Caballo de Troya, para corromper modelos no autorizados a aprender lo erróneo de lo que te hace parecerte a ti y no a otra persona”, dijo a The Verge Ben Zhao, un profesor de informática de la Universidad de Chicago que ayudó a crear el software de Fawkes. “Una vez que la corrupción ocurre, estás continuamente protegido sin importar donde vayas o seas visto”.

    [​IMG]
    Apenas la reconocerías. Fotos de la Reina Isabel II antes (izquierda) y después (derecha) de ser ejecutadas a través del software de camuflaje Fawkes.
    El grupo detrás del trabajo – Shawn Shan, Emily Wenger, Jiayun Zhang, Huiying Li, Haitao Zheng, y Ben Y. Zhao – publicó un artículo sobre el algoritmo a principios de este año. Pero a finales del mes pasado también publicaron Fawkes como software gratuito que cualquiera puede descargar y utilizar. Hasta la fecha dicen que ha sido descargado más de 100.000 veces.

    En nuestras propias pruebas encontramos que Fawkes es escaso en su diseño, pero lo suficientemente fácil de aplicar. Toma un par de minutos procesar cada imagen, y los cambios que hace son en su mayoría imperceptibles. A principios de esta semana, The New York Times publicó un artículo sobre Fawkes en el que señalaba que el efecto de camuflaje era bastante obvio, a menudo haciendo cambios de género en las imágenes, como dar bigotes a las mujeres. Pero el equipo de Fawkes dice que el algoritmo actualizado es mucho más sutil, y las propias pruebas de The Verge están de acuerdo con esto.

    ¿Pero es Fawkes una bala de plata para la privacidad? Es dudoso. Para empezar, está el problema de la adopción. Si lees este artículo y decides usar Fawkes para ocultar las fotos que subas a los medios sociales en el futuro, seguramente serás una minoría. El reconocimiento facial es preocupante, porque es una tendencia de toda la sociedad y por lo tanto la solución debe ser también de toda la sociedad.

    En segundo lugar, muchas empresas que venden algoritmos de reconocimiento facial crearon sus bases de datos de rostros hace mucho tiempo, y no se puede retirar esa información retroactivamente. El CEO de Clearview, Hoan Ton-That, se lo dijo al Times. “Hay miles de millones de fotos sin modificar en Internet, todas en diferentes nombres de dominio”, dijo Ton-That. “En la práctica, es casi seguro que es demasiado tarde para perfeccionar una tecnología como la de Fawkes y desplegarla a escala”.

    [​IMG]
    Comparaciones de rostros ocultos y camuflados usando Fawkes.
    Naturalmente, sin embargo, el equipo detrás de Fawkes no está de acuerdo con esta evaluación. Señalan que aunque compañías como Clearview afirman tener miles de millones de fotos, eso no significa mucho si se considera que se supone que identifican a cientos de millones de usuarios. “Lo más probable es que para muchas personas, Clearview sólo tiene un número muy pequeño de fotos accesibles al público”, dice Zhao. Y si la gente publica más fotos de camuflaje en el futuro, dice, tarde o temprano la cantidad de imágenes de camuflaje superará la de las no camufladas.

    En el frente de la adopción, sin embargo, el equipo de Fawkes admite que para que su software haga una diferencia real tiene que ser liberado más ampliamente. No tienen planes de hacer una aplicación web o móvil debido a preocupaciones de seguridad, pero tienen la esperanza de que compañías como Facebook puedan integrar una tecnología similar en su propia plataforma en el futuro.

    La integración de esta tecnología sería en el interés de estas empresas, dice Zhao. Después de todo, las empresas como Facebook no quieren que la gente deje de compartir fotos, y estas compañías todavía podrían recoger los datos que necesitan de las imágenes (para funciones como el etiquetado de fotos) antes de ocultarlas en la web pública. Y aunque la integración de esta tecnología ahora podría tener sólo un pequeño efecto para los usuarios actuales, podría ayudar a convencer a las generaciones futuras, conscientes de la privacidad, de que se inscriban en estas plataformas.

    “La adopción por parte de plataformas más grandes, por ejemplo Facebook u otras, podría con el tiempo tener un efecto paralizante en Clearview, haciendo básicamente [su tecnología] tan ineficaz que ya no será útil o financieramente viable como servicio”, dice Zhao. “El hecho de que Clearview.ai deje de funcionar, porque ya no es relevante o preciso es algo con lo que estaríamos satisfechos como resultado de nuestro trabajo”.

    Fawkes: Protecting Personal Privacy against Unauthorized Deep Learning Models (USENIX Security 2020)

    Fuente: Cloak your photos with this AI privacy tool to fool facial recognition

    Relacionado: Un caso para prohibir el reconocimiento facial
     
  2. EL CERDO

    EL CERDO BANEADO
    262/325

    Registrado:
    9 Dic 2010
    Mensajes:
    11.641
    Me Gusta recibidos:
    7.014
    Incitando a evadir los controles de la policia y sanitarios
     
Estado del Tema:
Cerrado para nuevas respuestas