Listen to the article

0:00
0:00

En février, le Sommet pour l’action sur l’intelligence artificielle (IA), à Paris, a réuni plus d’une centaine de pays autour d’une déclaration pour une « intelligence artificielle inclusive et durable ». Neuf mois plus tard, une question demeure : lorsque l’IA s’implante dans les contextes les plus fragiles (camps de réfugiés, territoires autochtones, zones de catastrophe), qui décide de sa conception, de ses usages, de ses limites ?

La réponse révèle un fossé entre la rhétorique de l’inclusion et la réalité du pouvoir. L’IA, qui touche les populations les plus vulnérables, est souvent conçue ailleurs, par d’autres, pour des objectifs éloignés de leurs besoins.

L’exemple du camp de Bidi Bidi, en Ouganda, illustre cette asymétrie. En 2018, le Programme alimentaire mondial y a déployé Primes, un système biométrique pour la distribution de l’aide. Pour 270 000 réfugiés sud-soudanais, le choix était simple : livrer leurs données biométriques ou renoncer à manger. Certains ont vu leur aide suspendue à cause d’erreurs d’enregistrement, d’autres ont fourni leurs empreintes sans savoir comment leurs données seraient utilisées ni comment contester une décision. Le dispositif fonctionnait en boîte noire : opaque pour ceux qu’il servait, transparent pour ceux qui le contrôlaient.

Aucune consultation locale

Ce n’est pas l’échec technique qui frappe, mais l’absence structurelle de participation. Conçu par des experts du Nord, le système n’a jamais fait l’objet d’une consultation locale. Quand des problèmes sont apparus, ce sont les réfugiés qui en ont subi les conséquences sans avoir eu voix au chapitre.

Cette logique se reproduit ailleurs. Aux Philippines, plus de 15 millions d’autochtones voient se multiplier les usages de l’IA sur leur territoire : surveillance destinée à identifier les « groupes terroristes », exploitation minière automatisée, biométrie pour l’accès aux services publics. Pourtant, la loi de 1997 sur les droits des peuples autochtones impose le consentement libre, préalable et éclairé avant tout projet sur les terres ancestrales. Les systèmes d’IA se déploient comme si ce droit n’existait pas.

Il vous reste 65.95% de cet article à lire. La suite est réservée aux abonnés.

Partager.

Salle de presse de TheNews.re. Nous couvrons l'actualité réunionnaise et internationale avec rigueur et objectivité. Notre mission : informer les citoyens avec des analyses approfondies sur la politique, la société, l'économie et la culture.

12 commentaires

  1. Intéressant de voir comment l’IA peut parfois aggraver les inégalités plutôt que les réduire, surtout dans des contextes fragiles.

  2. Camille Thomas le

    Les exemples comme celui de Bidi Bidi montrent à quel point les données biométriques peuvent être dangereuses sans régulation.

Laisser une réponse