Skip to main content

La société Clearview AI, éditrice d’un logiciel controversé de reconnaissance faciale, a conclu un accord avec l’ACLU devant un tribunal de l’État de l’Indiana. Cette récente mesure sera-t-elle suffisante ou d’autres mesures devront-elles être prises pour garantir le droit à la vie privée aux États-Unis et à l’étranger ?

Début mai 2022, Clearview AI a conclu un accord avec l’Union américaine pour les libertés civiles devant un tribunal de l’État de l’Illinois, acceptant de limiter la vente de son logiciel de reconnaissance faciale et de sa base de données photographiques aux forces de l’ordre. Cette décision fait suite à une décision du gouvernement italien en mars 2022 qui a condamné l’entreprise à payer 20 millions d’euros d’amende pour utilisation illégale du logiciel de reconnaissance faciale et à effacer toutes les données collectées en Italie.

Cette entreprise controversée a fait l’objet de premières critiques en janvier 2020, lorsque le New York Times a révélé l’existence de l’application révolutionnaire de reconnaissance faciale de Clearview.  Depuis lors, l’entreprise a fait l’objet de nombreuses poursuites judiciaires et a été critiquée par des responsables politiques et des groupes de défense des droits civiques à travers le monde. Les questions relatives aux violations de la confidentialité des données et à la légalité du « photo scraping », la méthode utilisée par Clearview pour constituer son immense base de données, ont occupé le devant de la scène dans le débat alors que la portée réelle de Clearview AI fait l’objet d’une enquête.

Clearview AI affirme que son utilisation de la méthode de scraping de photos est tout à fait légale. Les photos contenues dans son immense base de données, qui, selon la société, contient plus de 20 milliards d’images, proviennent uniquement de sources publiques telles que les profils publics sur les réseaux sociaux. Le fondateur de la société, Hoan Ton-That, affirme que de nombreuses entreprises pratiquent le scraping et que de grandes sociétés telles que Facebook en sont conscientes. Cependant, à la suite de la publication de l’article du New York Times, de nombreuses grandes entreprises technologiques se sont opposées aux activités de scraping de Clearview, certaines allant jusqu’à envoyer des lettres de mise en demeure affirmant qu’il s’agissait d’une violation de leurs conditions d’utilisation.  L’une de ces entreprises était Twitter, qui a déclaré que le scraping constituait une violation flagrante de sa politique de confidentialité.

Au-delà de l’énorme base de données qu’elle a compilée, Clearview doit sa renommée à son logiciel, qu’elle présente comme plus sensible et plus efficace que les autres. L’un des inconvénients, ou certains diront avantages, de la plupart des logiciels de reconnaissance faciale est qu’ils sont limités dans les angles sous lesquels ils peuvent analyser une photo. Les photos ou vidéos prises depuis une position trop élevée, comme c’est le cas pour la plupart des caméras de sécurité, sont inutilisables. L’algorithme de Clearview a contourné cet obstacle, ce qui constitue l’un de ses principaux arguments de vente.

L’utilisation des logiciels de reconnaissance faciale fait l’objet d’une controverse depuis un certain temps. La justification la plus importante avancée par Clearview pour son logiciel est qu’il aide et a aidé les forces de l’ordre à résoudre les crimes les plus graves. La société affirme que les forces de l’ordre constituent la majorité de ses utilisateurs, bien que cette affirmation ait été contestée par plusieurs agences. De nombreuses agences que Clearview prétend compter parmi ses utilisateurs ont déclaré qu’elles n’utilisaient que la version d’essai gratuite fournie par Clearview et n’avaient pas acheté le logiciel pour une utilisation à grande échelle. Malgré cela, il existe de nombreux utilisateurs confirmés, notamment le FBI, l’ICE (Immigration and Customs Enforcement) et les services de police métropolitains.

Mais cela est en soi controversé. L’une des principales préoccupations concernant ce logiciel est la manière dont il pourrait être utilisé pour identifier des personnes politiquement vulnérables, par exemple lors de manifestations ou parmi les militants politiques. Des cas d’utilisation du logiciel de reconnaissance faciale à cette fin ont déjà été observés, notamment lors des manifestations à Hong Kong. De plus, des études ont montré que les logiciels de reconnaissance faciale sont moins précis lorsqu’il s’agit d’identifier des personnes au teint plus foncé. Lors du mouvement Black Lives Matter, l’utilisation de logiciels de reconnaissance faciale a été critiquée car elle conduisait à un nombre disproportionné d’arrestations injustifiées de personnes de couleur. Ce problème est exacerbé par le fait que toutes les données concernant la précision du logiciel ont été publiées par Clearview AI et non par les forces de l’ordre ou des entités indépendantes.

Clearview n’a pas non plus limité la vente de son logiciel aux agences américaines. Le logiciel a également été utilisé dans plusieurs pays européens, dont l’Italie, ce qui a finalement conduit à une amende de 20 millions d’euros infligée à Clearview. D’autres pays européens évaluent actuellement la légalité de la méthode de scraping et de l’utilisation de la reconnaissance faciale par Clearview au regard de leurs propres lois nationales sur la protection de la vie privée, tandis que l’Union européenne débat pour savoir si cela enfreint son règlement général sur la protection des données (RGPD). La légalité du logiciel n’est pas immédiatement claire, ce qui, selon certains, souligne la nécessité de renforcer les lois sur la protection de la vie privée et des données tant au niveau national qu’au niveau de l’UE. Au-delà de l’Europe, Clearview aurait également vendu son logiciel à l’Arabie saoudite et aux Émirats arabes unis, malgré les affirmations du fondateur de Clearview selon lesquelles l’entreprise ne vendrait pas ses produits à des gouvernements ayant des antécédents de violations des droits humains.

En mars 2022, l’Ukraine a commencé à utiliser ce logiciel dans le contexte du conflit en cours avec la Russie sur le territoire ukrainien. Cette décision fait suite à la proposition faite par Clearview au gouvernement ukrainien d’accéder gratuitement non seulement à son puissant logiciel de reconnaissance faciale, mais aussi à sa base de données photographiques qui comprend 2 milliards d’images provenant des réseaux sociaux russes. L’une des principales utilisations du logiciel est l’identification des victimes. Cependant, ses utilisations potentielles sont nombreuses, allant de l’identification des auteurs de crimes de guerre à l’aide à la réunification des réfugiés ukrainiens. Clearview AI n’a pas proposé ce logiciel au gouvernement russe.

Ce n’est qu’un exemple parmi d’autres de l’aide apportée par les entreprises technologiques à l’effort de guerre ukrainien. En mars également, SpaceX, l’entreprise d’Elon Musk, a déployé ses satellites Starlink au-dessus de l’Ukraine, garantissant ainsi l’accès à Internet au gouvernement et contribuant à dissuader les cyberattaques. Si beaucoup applaudissent l’aide apportée à l’Ukraine et frémissent à l’idée de ce qui se passerait si le logiciel de Clearview tombait entre les mains du Kremlin, cela crée un dangereux précédent. La question est de savoir si ces décisions, qui influencent indéniablement les événements mondiaux, doivent être laissées entre les mains d’entreprises privées, en particulier celles comme Clearview qui ont déjà vendu des logiciels à des gouvernements dont le bilan en matière de droits humains est discutable.

Si les récentes décisions prises dans l’Illinois et en Italie semblent tracer la voie pour l’avenir de Clearview AI et pour l’utilisation des logiciels de reconnaissance faciale en général, il est évident que tout cela se déroule en terrain inconnu. Alors que l’innovation technologique continue de devancer les lois sur la protection de la vie privée et des données, le besoin de telles lois augmente de manière exponentielle.

Photo : 29 mars 2019, Los Angeles, Californie, États-Unis. Des agents d’embarquement aident les passagers à monter à bord d’un vol American Airlines Group Inc. à destination de la Chine à l’aéroport international de Los Angeles à l’aide d’une technologie de caméra de reconnaissance faciale. © IMAGO / ZUMA Wire

Other Articles Which Might Interest You
Will ChatGPT Make You Low-Skilled?

Mentions de Cookies WordPress par Real Cookie Banner