Aux frontières de l’Europe, le dangereux pari du techno-contrôle
Équipe plaidoyer de France terre d'asile - Publié le 16 février 2026© iborderctrl.eu.
Présentée comme une solution efficace et bon marché pour surveiller et contrôler les mouvements migratoires, l’intelligence artificielle (IA) s’installe progressivement aux frontières de l’Union européenne. Mais derrière cette promesse d’objectivité technologique se dessinent des risques majeurs pour les droits fondamentaux des personnes migrantes, dans un contexte de durcissement sécuritaire.
« Nous sommes noirs et les gardes-frontières nous détestent. Leurs ordinateurs nous détestent aussi » confie Adissu, jeune Érythréen vivant à Bruxelles sans carte de séjour.
Ce témoignage traduit une expérience de discrimination humaine, mais pointe aussi une autre réalité, invisible : les technologies utilisées dans le contrôle des frontières de l’Union européenne (UE) sont elles aussi discriminantes.
La politique migratoire européenne s’inscrit de plus en plus dans une logique sécuritaire, où migrations, criminalité et terrorisme sont régulièrement associés, au détriment d’une approche fondée sur les droits humains.
Dans ce cadre, l’innovation technologique est massivement mobilisée pour renforcer le contrôle des frontières. Les agents de police sont désormais appuyés par des systèmes automatisés par intelligence artificielle, chargés de trier, d’évaluer et de classer les personnes en fonction de critères préalablement définis.
Présentés comme rationnels et impartiaux, ces algorithmes reposent sur des données et des catégories arbitraires, qui sont la traduction technologique de pratiques et de comportements discriminatoires. Ils reproduisent donc, voire aggravent, des biais déjà bien ancrés. Ainsi, dès 2023, une action en justice a été lancée contre le ministère de l’Intérieur britannique pour son utilisation, dès 2019, d’un algorithme destiné à détecter les fraudes dans les demandes de mariage impliquant des personnes non britanniques sans statut légal ou de visa valide, dans le but de rendre les enquêtes plus efficaces et de réduire les coûts. Malgré les affirmations du ministère selon lesquelles la nationalité ne faisait pas partie des critères pris en compte par l’algorithme, une analyse transmise à l’association Public Law Project, a montré que les personnes de nationalités bulgare, grecque, roumaine et albanaise étaient disproportionnellement ciblées par les contrôles de l’algorithme.
Un article publié par l’Université de technologie du Queensland (Australie) a mis en évidence une tendance chez les « chercheurs blancs d’âge moyen à rechercher des ensembles de données composés d’images de visages correspondant au profil blanc et d’âge moyen de ce qu’ils considéraient comme « Monsieur Moyen » ». Cette sélection des données d’entraînement engendre une représentation biaisée de la « norme », qui affecte la précision des algorithmes. Ainsi, si les technologies de reconnaissance faciale affichent un taux de précision élevé pour reconnaitre les visages à la peau claire, elles présentent en revanche des taux d’erreur nettement plus élevés pour les visages à la peau foncée. Les chercheuses Joy Buolamwini et Timnit Gebru ont mis en lumière ce problème en étudiant les algorithmes commerciaux d’analyse faciale : leurs travaux révèlent un biais marqué à l’encontre des femmes à la peau foncée, avec des taux d’erreur d’identification atteignant 34,7 %, contre seulement 0,8 % pour les hommes à la peau claire.
Cet angle mort ne concerne pas uniquement les applications commerciales : il touche également les dispositifs de contrôle aux frontières.
iBorderCtrl comme pierre angulaire
Depuis 2016, l’Union européenne finance le projet iBorderCtrl (Intelligent Portable Border Control System), un programme expérimental de développement de technologies visant à faciliter le travail de la police aux frontières « pour repérer les immigrants clandestins et contribuer ainsi à la prévention du crime et du terrorisme ».
Parmi ses modules, Silent Talker, un logiciel de détection automatique des mensonges reposant sur la reconnaissance faciale. Testé notamment en Hongrie, en Grèce et en Lettonie dès 2018, il vise à « pré-évaluer » les voyageurs avant même leur arrivée au poste-frontière. Les personnes non-européennes doivent participer à un entretien en ligne avec un agent virtuel. À travers une webcam, l’intelligence artificielle analyse leurs micro-expressions faciales pendant qu’elles répondent à des questions, afin d’identifier d’éventuels signes de mensonge. Sur cette base, l’algorithme attribue un score de risque : les profils jugés suspects sont soumis à des contrôles renforcés et à des vérifications biométriques supplémentaires, tandis que les autres bénéficient d’un passage simplifié.
Selon une étude réalisée par des chercheurs de l’université métropolitaine de Manchester, le dispositif affiche un taux de fiabilité de seulement 76 %, ce qui signifie qu’une personne sur quatre est considérée à tort comme ayant menti. Cette marge d’erreur est d’autant plus préoccupante que la reconnaissance automatisée des émotions ne repose sur aucun consensus scientifique solide : nervosité et fatigue peuvent être interprétées comme des signes de tromperie.
De plus, les universitaires ont souligné que le groupe de participants n’était pas équilibré en termes d’origine ethnique et de genre, puisqu’il comprenait moins d’individus d’origine asiatique ou arabe que d’Européens blancs, et moins de femmes que d’hommes.
En 2019, Giovanni Buttarelli, alors ancien Contrôleur européen de la protection des données, déclarait craindre que le système iBorderCtrl ne discrimine les personnes en fonction de leur origine ethnique : « Évaluons-nous seulement d’éventuels mensonges concernant l’identité ou essayons-nous aussi d’analyser certains traits somatiques de la personne, les contours du visage, la couleur de la peau, la forme des yeux ? ». Ces limites techniques et éthiques risquent d’entraîner des conséquences concrètes pour les personnes
Malgré ces enjeux, l’accès aux informations détaillées sur le fonctionnement de iBorderCtrl demeure aujourd’hui limité. En 2023, la Cour de justice de l’Union européenne a rejeté une demande d’accès public aux documents relatifs au projet, invoquant la protection des intérêts commerciaux des entreprises impliquées (European Dynamics, Stremble Ventures LTD, Online Casinos Deutschland) alors même que le projet est financé par le budget européen à hauteur de 4,5 millions d’euros. Des organisations comme Corporate Europe Observatory dénoncent un manque de transparence préoccupant et l’influence du lobbying des acteurs privés dans l’orientation des politiques de régulation du numérique.
L’AI Act, un garde-fou juridique défaillant
Pour répondre aux risques liés à l’intelligence artificielle, l’Union européenne a adopté en 2024 l’AI Act, un règlement visant à encadrer le développement et l’usage de cette technologie. Néanmoins les garanties restent limitées en ce qui concerne l’immigration et l’asile. Si la reconnaissance des émotions est interdite dans certains domaines comme le travail ou l’éducation, ces restrictions ne s’appliquent pas à la gestion des frontières, où ces outils sont déjà déployés. Pourtant, le texte reconnaît que certains systèmes destinés à l’examen des demandes d’asile, de visa ou de titre de séjour, ainsi que ceux utilisés pour la détection, la reconnaissance ou l’identification des personnes, relèvent des IA « à haut risque ». Mais le règlement prévoit que des technologies dites « préparatoires », limitées à des tâches procédurales, ne puissent pas être considérées comme « à haut risque », alors même que leur influence sur la décision humaine peut être déterminante, en raison du biais d’automatisation (la tendance à accorder une confiance excessive aux systèmes automatisés d’aide à la décision). Le système de détection de mensonges d’iBorderCtrl, présenté comme un «Il échappe ainsi aux exigences strictes prévues initialement par le règlement pour les IA « à haut risque ».
Alors que l’AI Act paraissait initialement contredire l’orientation du contrôle aux frontières de l’Union européenne, il apparaît en réalité qu’il a été calibré pour laisser la place à ces usages sécuritaires de l’intelligence artificielle.
L’Union européenne se prépare déjà à passer un nouveau cap dans l’expérimentation de l’IA au service du contrôle des frontières, avec le projet . Le projet prévoit le développement d’un véritable constitué de stations mobiles intégrant des tours de surveillance avec des capteurs, des fonctions satellites, drones et anti-drones permettant une surveillance en temps réel des frontières terrestres et maritimes afin de détecter toutes les entrées en dehors des points de passage officiels. Cela inclut les passages irréguliers de personnes souhaitant déposer une demande d’asile, qui, selon l’article 33 de la Convention de Genève, ne peuvent donner lieu à des refoulements.
Même si la Commission soutient que ce dispositif « accorde la priorité aux considérations éthiques et aux droits fondamentaux », on peut légitimement craindre pour le respect des droits fondamentaux des personnes migrantes, au regard de son caractère hautement intrusif et des biais déjà observés dans des projets bien moins ambitieux.
Sur un autre sujet :
Belgique : le choix du non-accueil
