Subir y liberar fotos personales en internet puede en ocasiones generar una sensación de inseguridad, es decir subir fotos personales a Internet puede ser una sensación de abandono Cada vez hay más herramientas que permiten evitar que los sistemas de reconocimiento facial se entrenen con tus fotos personales.
¿Quién más tendrá acceso a nuestra imagen, a toda su información, qué hará con estos datos y qué algoritmos de aprendizaje automático ayudaré a entrenar?
Clearview
La empresa Clearview ya ha suministrado a las fuerzas de seguridad estadounidenses una herramienta de reconocimiento facial entrenada con fotos de millones de personas extraídas de la red pública.
Clearview AI es una empresa estadounidense de reconocimiento facial, que proporciona software a empresas, cuerpos de seguridad, universidades y particulares. El algoritmo de la empresa hace coincidir los rostros con una base de datos de más de tres mil millones de imágenes indexadas de Internet, incluidas las aplicaciones de las redes sociales].
En enero de 2020, Twitter envió una carta de cese y desistimiento y solicitó la eliminación de todos los datos recopilados. A esto le siguieron acciones similares por parte de YouTube (a través de Google) y Facebook en febrero de ese mismo año Clearview vendio el acceso a su base de datos a las agencias policiales y quienes ahora cuentan con 3100 clientes activos, incluyendo la Oficina Federal de Investigación y el Departamento de Seguridad Nacional de los Estados Unidos, según publicaciones del “The Wall Street Journal”.
En 2021, la revista Time nombró a Clearview AI como una de las 100 empresas más influyentes del año.
El presidente ejecutivo de Teneo Risk, Bill Bratton, cuestionó la preocupación por la privacidad y recomendó procedimientos estrictos para el uso de las fuerzas del orden en un artículo de opinión publicado en el New York Daily News.
Tras la publicación del artículo de The New York Times de enero de 2020, donde esto se hizo de conocimiento público, los estados de Illinois, California, Virginia y Nueva York presentaron demandas alegando violaciones de las leyes de privacidad y seguridad.
En junio de 2021, Therrien descubrió que la Real Policía Montada de Canadá había infringido la ley de privacidad canadiense mediante cientos de búsquedas ilegales utilizando la IA de Clearview.
En noviembre de 2021, Clearview recibió una notificación provisional de la Oficina del Comisionado de Información del Reino Unido para que dejara de procesar los datos de sus ciudadanos citando una serie de presuntas infracciones. También se notificó a la empresa una posible multa de aproximadamente 22,6 millones de dólares. La oficina emitió un comunicado en el que afirmaba que la determinación final sobre Clearview se produciría hasta mediados de 2022.
Pero probablemente esto será solo el principio de las batallas legales contra este tipo de uso indebido con nuestro rostro.
En nuestros días, cualquiera con conocimientos básicos de codificación puede ahora desarrollar un software de reconocimiento facial, lo que significa que hay más potencial que nunca para abusar de esta tecnología en todos los ámbitos, desde el acoso sexual y la discriminación racial hasta la opresión política y la persecución religiosa.
Varios investigadores de la IA están haciendo frente y desarrollando formas de asegurar que las inteligencias artificiales no puedan aprender de los datos personales.
"No me gusta que la gente me quite cosas que no debe tener", dice Emily Wenger, de la Universidad de Chicago, quien desarrolló una de las primeras herramientas para hacerlo, llamada Fawkes, con sus colegas el verano pasado: "Supongo que muchos de nosotros tuvimos una idea similar al mismo tiempo".
El envenenamiento de datos no es nuevo. Acciones como borrar los datos que las empresas tienen sobre ti, o contaminar deliberadamente los conjuntos de datos con ejemplos falsos, pueden dificultar que las empresas entrenen modelos de aprendizaje automático precisos. Pero estos esfuerzos suelen requerir una acción colectiva, con la participación de cientos o miles de personas, para lograr un impacto. La diferencia con estas nuevas técnicas es que funcionan con las fotos de una sola persona.
"Esta tecnología puede ser utilizada como una llave por un individuo para bloquear sus datos", dice Sarah Erfani, de la Universidad de Melbourne (Australia). "Es una nueva defensa de primera línea para proteger los derechos digitales de las personas en la era de la IA".
Ocultación a la vista
La mayoría de las herramientas, incluida Fawkes, adoptan el mismo enfoque básico.
Esta técnica se acerca mucho a un tipo de ataque adversario, en el que pequeñas alteraciones en los datos de entrada pueden forzar a los modelos de aprendizaje profundo a cometer grandes errores.
Fawkes ya se ha descargado casi medio millón de veces desde el sitio web del proyecto.
Además, un usuario ha creado una versión en línea, lo que facilita aún más su uso (aunque Wenger no responde por el uso del código por parte de terceros, y advierte: "No se sabe qué es lo que está sucediendo": "No sabes lo que ocurre con tus datos mientras esa persona los procesa").
A diferencia de Fawkes, los ejemplos desprendibles no se basan en ataques de adversarios.
Cuando se le presenta la imagen más tarde, su evaluación de lo que hay en ella no será mejor que una suposición aleatoria.
Puede que Microsoft haya cambiado su algoritmo, o puede que la IA simplemente haya visto tantas imágenes de personas que usan Fawkes que haya aprendido a reconocerlas. Sea como sea, el equipo de Wenger lanzó la semana pasada una actualización de su herramienta que vuelve a funcionar contra Azure. "Se trata de otra carrera armamentística del gato y el ratón", afirma.
Esta es la historia de Internet. "Compañías como Clearview están capitalizando lo que perciben como datos libremente disponibles y los utilizan para hacer lo que quieren" afirma Wenger.
La regulación podría ayudar a largo plazo, pero eso no impedirá que las empresas exploten las lagunas. "Siempre va a haber una desconexión entre lo que es legalmente aceptable y lo que la gente realmente quiere", dice. "Herramientas como Fawkes llenan ese vacío".
"Vamos a dar a la gente un poder que antes no tenía", declara Wenger.
Fuente 1 | Fuente 2 | Fuente 3