Skip to main content

La polémica empresa de software de reconocimiento facial, Clearview AI, ha llegado a un acuerdo con la ACLU en un tribunal del estado de Indiana. ¿Será suficiente este paso reciente, o habrá que tomar medidas adicionales para garantizar los derechos de privacidad en los Estados Unidos y en el extranjero?

Lauren Kook, 23 de junio de 2022

A principios de mayo de 2022, Clearview AI llegó a un acuerdo con la Unión Americana de Libertades Civiles en un tribunal del estado de Illinois, aceptando limitar la venta de su software de reconocimiento facial y su base de datos fotográficos a las fuerzas del orden. Esto sigue a una decisión del gobierno italiano en marzo de 2022 que ordenó a la empresa pagar 20 millones de euros en multas por el uso ilegal del software de reconocimiento facial, y borrar todos los datos de este tipo recogidos dentro de Italia.

La controvertida empresa se enfrentó por primera vez a las críticas en enero de 2020, cuando el New York Times publicó la noticia sobre la innovadora aplicación de reconocimiento facial de Clearview.  Desde entonces, ha habido una serie de demandas contra la empresa y la censura de políticos y grupos de derechos civiles en todo el mundo. Las cuestiones relativas a la violación de la privacidad de los datos y la legalidad del «photo scraping», el método que utiliza Clearview para construir su enorme base de datos, han ocupado el centro del debate mientras se investiga el verdadero alcance de Clearview AI.

Clearview AI afirma que el uso del método de «photo scraping» es completamente legal. Las fotos de su enorme base de datos, que la empresa presume de contener más de 20.000 millones de imágenes, sólo se toman de fuentes públicas, como los perfiles públicos de las redes sociales. El fundador de la empresa, Hoan Ton-That, afirma que muchas empresas realizan el scraping y que grandes firmas como Facebook son conscientes de ello. Sin embargo, a raíz del artículo del New York Times, muchas de las principales empresas tecnológicas se opusieron a las actividades de scraping de Clearview, algunas de las cuales llegaron a enviar cartas de cese y desistimiento afirmando que se trata de una violación de sus condiciones de servicio.  Una de esas empresas fue Twitter, que declaró que el scraping era una clara violación de su política de privacidad.

Más allá de la enorme base de datos que ha recopilado, el reclamo de Clearview para la fama es su software, que afirma que es más sensible y eficiente que otros. Uno de los inconvenientes, o algunos dirán que la ventaja, de la mayoría de los programas de reconocimiento facial es que están limitados en los ángulos desde los que pueden analizar una foto. Las fotos o vídeos tomados desde una posición demasiado alta, como los de la mayoría de las cámaras de seguridad, son inútiles. El algoritmo de Clearview ha sorteado este obstáculo, que ha sido uno de sus puntos de venta más importantes.

El uso de software de reconocimiento facial ha sido controvertido durante algún tiempo. La justificación más destacada de Clearview para el software es que puede ayudar, y ha ayudado, a las fuerzas del orden a resolver los delitos más atroces. La empresa afirma que las fuerzas del orden son la mayoría de los usuarios, aunque esta afirmación ha sido rebatida por varias agencias. Muchas agencias que Clearview afirma que son sus usuarios han declarado que sólo utilizan la versión de prueba gratuita proporcionada por Clearview, y que no compraron el software para su uso generalizado. A pesar de ello, hay muchos usuarios confirmados, como el FBI, el ICE (Servicio de Inmigración y Aduanas) y los departamentos de policía metropolitanos.

Pero esto es en sí mismo controvertido. Una de las preocupaciones más destacadas en relación con este software es cómo podría utilizarse para identificar a personas políticamente vulnerables, como la identificación de personas en protestas y activistas políticos. Ya se han producido casos de uso de software de reconocimiento facial en este sentido, sobre todo durante las manifestaciones de Hong Kong. Además, los estudios han demostrado que el software de reconocimiento facial es menos preciso a la hora de identificar a personas con tonos de piel más oscuros. Durante el movimiento Black Lives Matter (Las vidas negras importan), se criticó el uso de software de reconocimiento facial por conducir a falsas detenciones desproporcionadas de personas de color. Esto se intensifica por el hecho de que todos los datos relativos a la precisión del software han sido publicados por Clearview AI y no por las agencias de la ley o entidades independientes.

Clearview tampoco ha limitado la venta de su software a las agencias estadounidenses. El software también se ha utilizado en varios países europeos, entre ellos Italia, lo que en última instancia condujo a la multa de 20 millones de euros contra Clearview. Otros países europeos están evaluando la legalidad del método de raspado de Clearview y el uso del reconocimiento facial en el contexto de sus propias leyes nacionales de privacidad, mientras que la Unión Europea debate si viola su Reglamento General de Protección de Datos (GDPR). La legalidad del software no está inmediatamente clara, lo que algunos han señalado pone de manifiesto la necesidad de leyes de privacidad y protección de datos más estrictas tanto a nivel nacional como de la UE. Más allá de Europa, Clearview también ha vendido supuestamente su software a Arabia Saudí y a los Emiratos Árabes Unidos, a pesar de las afirmaciones del fundador de Clearview de que la empresa no vendería a gobiernos con antecedentes de violaciones de los derechos humanos.

En marzo de 2022, Ucrania comenzó a utilizar el software en el contexto del conflicto en curso con Rusia en territorio ucraniano. Esto se produce después de que Clearview se dirigiera al gobierno ucraniano para ofrecerle acceso gratuito no solo a su potente software de reconocimiento facial, sino también a su base de datos fotográficos, que incluye 2.000 millones de imágenes obtenidas de las redes sociales rusas. Uno de los principales usos del software es la identificación de víctimas. Sin embargo, los usos potenciales son muchos, desde identificar a los autores de crímenes de guerra hasta ayudar a la reunificación de los refugiados ucranianos. Clearview AI no ha ofrecido el software al gobierno ruso.

Este es solo un caso de empresas tecnológicas que ofrecen ayuda al esfuerzo bélico ucraniano. También en marzo, SpaceX, de Elon Musk, desplegó sus satélites Starlink sobre Ucrania, garantizando el acceso a Internet del gobierno y ayudando a disuadir los ciberataques. Aunque muchos aplaudirán la ayuda a Ucrania y se estremecerán al pensar qué pasaría si el software de Clearview estuviera en manos del Kremlin, sienta un peligroso precedente. La cuestión es si estas decisiones, que sin duda influyen en los acontecimientos mundiales, deberían estar en manos de empresas privadas, especialmente de aquellas que, como Clearview, tienen un historial de venta de software a gobiernos con trayectorias cuestionables en materia de derechos humanos.

Aunque las recientes decisiones de Illinois e Italia parecen marcar una dirección para el futuro de la IA de Clearview y para el uso del software de reconocimiento facial en general, lo que resulta más evidente es que todo esto está teniendo lugar en aguas desconocidas. A medida que la innovación tecnológica sigue superando las leyes de privacidad y protección de datos, la necesidad de dichas leyes aumenta exponencialmente.

Foto: 29 de marzo de 2019, Los Ángeles, California, Estados Unidos, los agentes de la puerta de embarque ayudan a los pasajeros utilizando la tecnología de la cámara de reconocimiento facial para abordar un vuelo de American Airlines Group Inc. a China en el Aeropuerto Internacional de Los Ángeles. © IMAGO / ZUMA Wire
Aviso sobre Cookies en WordPress por Real Cookie Banner