Listen to the article
En février, le Sommet pour l’action sur l’intelligence artificielle (IA), à Paris, a réuni plus d’une centaine de pays autour d’une déclaration pour une « intelligence artificielle inclusive et durable ». Neuf mois plus tard, une question demeure : lorsque l’IA s’implante dans les contextes les plus fragiles (camps de réfugiés, territoires autochtones, zones de catastrophe), qui décide de sa conception, de ses usages, de ses limites ?
La réponse révèle un fossé entre la rhétorique de l’inclusion et la réalité du pouvoir. L’IA, qui touche les populations les plus vulnérables, est souvent conçue ailleurs, par d’autres, pour des objectifs éloignés de leurs besoins.
L’exemple du camp de Bidi Bidi, en Ouganda, illustre cette asymétrie. En 2018, le Programme alimentaire mondial y a déployé Primes, un système biométrique pour la distribution de l’aide. Pour 270 000 réfugiés sud-soudanais, le choix était simple : livrer leurs données biométriques ou renoncer à manger. Certains ont vu leur aide suspendue à cause d’erreurs d’enregistrement, d’autres ont fourni leurs empreintes sans savoir comment leurs données seraient utilisées ni comment contester une décision. Le dispositif fonctionnait en boîte noire : opaque pour ceux qu’il servait, transparent pour ceux qui le contrôlaient.
Aucune consultation locale
Ce n’est pas l’échec technique qui frappe, mais l’absence structurelle de participation. Conçu par des experts du Nord, le système n’a jamais fait l’objet d’une consultation locale. Quand des problèmes sont apparus, ce sont les réfugiés qui en ont subi les conséquences sans avoir eu voix au chapitre.
Cette logique se reproduit ailleurs. Aux Philippines, plus de 15 millions d’autochtones voient se multiplier les usages de l’IA sur leur territoire : surveillance destinée à identifier les « groupes terroristes », exploitation minière automatisée, biométrie pour l’accès aux services publics. Pourtant, la loi de 1997 sur les droits des peuples autochtones impose le consentement libre, préalable et éclairé avant tout projet sur les terres ancestrales. Les systèmes d’IA se déploient comme si ce droit n’existait pas.
Il vous reste 65.95% de cet article à lire. La suite est réservée aux abonnés.









12 commentaires
Je me demande quelles solutions concrètes pourraient être mises en place pour éviter ce genre de situation.
Des audits indépendants et une meilleure transparence des algorithmes seraient un bon début.
Il faudrait aussi des cadres législatives plus stricts pour protéger ces populations.
Intéressant de voir comment l’IA peut parfois aggraver les inégalités plutôt que les réduire, surtout dans des contextes fragiles.
Les populations locales devraient avoir plus de voix dans la conception de ces technologies.
Exactement, il manque souvent une approche centrée sur l’humain dans ces projets.
Ce décalage entre la rhétorique de l’inclusion et la réalité du pouvoir est inquiétant
C’est malheureusement trop fréquent dans les projets technologiques grand public.
Ce reportage souligne l’importance cruciale de l’éthique dans le développement des technologies comme l’IA.
Tout à fait d’accord, la tech ne peut pas être neutre.
Les exemples comme celui de Bidi Bidi montrent à quel point les données biométriques peuvent être dangereuses sans régulation.
C’est surtout un problème de consentement éclairé et de contrôle sur ses propres données.