Le Pentagone a-t-il utilisé une photo de pèlerins en Arabie Saoudite afin de démontrer ses capacités de surveillance et d’intelligence artificielle ?
La photo a bien été
utilisée lors d’une présentation sur la façon dont le « cloud computing »
assiste les services de renseignements américains à « conserver une longueur
d’avance sur l’ennemi ».
C’est ce que révèle le média Middle
East Eye dont les journalistes sont en mesure de révéler que la CIA a bien utilisé
une photo de plusieurs dizaines de personnes assistant au pèlerinage annuel à
la Mecque afin d’illustrer le potentiel des nouvelles technologies de
surveillance et d’intelligence artificielle (IA).
Plusieurs organisations militantes pour les droits de la société civile musulmane estiment que l’utilisation de cette photo justifie de vives inquiétudes, et notamment le développement rapide des outils tels que les logiciels de reconnaissance faciale dans un schéma islamophobe au sein des agences de renseignement et de maintien de l’ordre, où les musulmans sont dépeints comme des menaces.
Cette image semble avoir été utilisée lors de la présentation par un cadre de la direction de l’innovation numérique de la CIA, sur la façon dont l’adoption des technologies basées sur le cloud par l’agence d’espionnage transforme ses capacités de collecte de renseignements.
S’exprimant lors d’une conférence organisée par Amazon Web Services (AWS) en 2018, Sean Roche avait déclaré : « L’âge du renseignement expéditionnaire signifie aller dans des endroits très hostiles très rapidement pour résoudre des problèmes très complexes ».
Déjà en son temps, ce spécialiste au service du renseignement américain annonçait qu’une petite équipe de programmeurs, de data scientists et d’analystes « qui codent dans ce domaine », avait fourni des « capacités époustouflantes pour trouver des individus auxquels nous nous intéressons ». « Savoir qui ils sont, ce qu’ils font, leurs intentions, où ils sont », développait Roche, alors vice-directeur de la CIA pour l’innovation numérique.
Durant cette présentation donc, une photo de pèlerins assemblés aux alentours de la Grande Mosquée de La Mecque, lieu le plus saint de l’islam sur le site de la Kaaba, était présentée. Bien que semblant être une image d’archives provenant d’un site de photographie, prise lors du hadj en janvier 2017, un cercle jaune a été ajouté à l’image visant à mettre en avant le visage d’un homme dans la foule.
Cibles de facto ?
Toutefois rien n’identifie cet
homme et rien ne suggère qu’il intéresse d’une manière ou d’une autre la CIA. Quoi
qu’il en soit, l’utilisation de cette photo suscite des inquiétudes parmi les
organisations de plaidoyer musulmanes et les juristes spécialistes des
technologies de surveillance.
Edward Mitchell, directeur adjoint national du Conseil des relations américano-islamiques (CAIR), indique que les musulmans sont depuis longtemps dépeints comme une menace dans les présentations et supports de formation du gouvernement américain. « Les musulmans ne devraient pas être l’exemple de facto de la façon dont les technologies du gouvernement peuvent être déployées. Cela vaut en particulier pour les musulmans s’adonnant à leur culte lors du pèlerinage du hadj », estime-t-il.
Sur le versant juridique Ashley Gorski, avocate du projet sécurité nationale de l’Union américaine pour les libertés civiles, affirme : « La technologie de reconnaissance faciale présente de graves risques pour la vie privée et les libertés publiques. Les gens ont le droit de prier et de vivre leur culte librement, sans crainte d’être suivis par le gouvernement. C’est un nouvel exemple de la façon dont les agences de renseignement américaines promeuvent les outils de surveillance comme moyen de surveiller et de contrôler les communautés religieuses, même à l’étranger ».
Apprentissage automatique
ou charabia d’expert
Spécialiste au service du
renseignement américain, Sean Roche poursuivait sa description sur la façon
dont l’agence déploie l’IA pour collecter et traiter les données lors de cette même
conférence organisée par Amazon Web Services (AWS) : « Nous utilisons
l’apprentissage automatique pour quoi ? Notre travail concerne les humains », déclarait
Roche. « Donc nous prenons les bases de données existantes à votre sujet.
Les données qui sont déjà là. Les données qui sont structurées et
déstructurées, certaines données qui sont créées, et on agrège ces données très
rapidement dans l’environnement cloud pour bâtir une signature numérique, pour
comprendre notre soi numérique ».
La présentation de Sean Roche au AWS Public Sector Summit intervenait après la signature par la CIA d’un contrat de 600 millions de dollars pour des services cloud avec le géant de la tech en 2014.
Sean Roche a quitté la CIA en 2019 et est désormais directeur national de la sécurité à AWS.
Pour Jumana Musa, directrice du Fourth Amendment Center au sein de la National Association of Criminal Defense Lawyers (NACDL) qui conseille les avocats dans des affaires impliquant les nouveaux outils de surveillance, cette présentation pose sur la table les nombreuses questions concernant la façon dont la technologie est utilisée au-delà des frontières américaines, là où les protections constitutionnelles ne s’appliquent pas. « Historiquement, le gouvernement américain a des normes totalement différentes lorsqu’il se considère hors des États-Unis pour collecter des informations plutôt que des preuves pour des poursuites judiciaires. Et les règles sont bien moins strictes », observe Jumana Musa.
Entre captation d’images et
reconnaissance faciale
Clare Garvi, avocate en droit
de la vie privée travaillant pour la NACDL et spécialiste de la technologie de
reconnaissance faciale, l’assure : « Ce n’est pas rien de pouvoir scanner
une foule de centaines de milliers de personnes ou plus et de prétendre être
capable de les identifier. Il n’est pas surprenant que la CIA voie
naturellement un attrait dans ce mécanisme de surveillance extrêmement puissant
».
Analysant les dangers potentiels de la technologie de l’IA, Sean Roche commentait non sans une certaine ironie : « Certaines personnes sont inquiètes à propos de l’IA. Ne le soyez pas ». Puis citant le futurologue allemand Gerd Leonhard, il assurait : « La prospérité humaine doit rester l’objectif central de tout projet technologique. Le futurisme humaniste. Les machines ne prendront pas le pouvoir ».
Le mois dernier, des dizaines de spécialistes travaillant sur l’intelligence artificielle signaient un manifeste mettant en garde contre la menace existentielle pour l’humanité que constitue le développement rapide de cette technologie. Parmi les risques soulignés par le Center for AI Safety, qui a publié cette déclaration, figuraient le fait de se servir de l’IA comme d’une arme et l’utilisation de cette technologie pour « imposer des valeurs étroites via une surveillance envahissante et une censure oppressive ».
Quand d’autres spécialistes de l’IA jugent ces inquiétudes exagérées.
Maître de conférences en Géopolitique & Sciences de l'information
Enseignant-chercheur en Histoire contemporaine & des médias
Commentaires
Enregistrer un commentaire