Listen to the article
Les entreprises du numérique se sont mises ces deux dernières années à intégrer un nombre toujours plus grand de fonctionnalités d’intelligences artificielles (IA) génératives dans leurs produits existants, poussées par un besoin d’agrandir leur base d’utilisateurs et de façonner les comportements pour se rendre indispensable.
Si l’ajout d’une nouvelle fonctionnalité dans des applications ou des logiciels n’est pas nouveau, la manière particulièrement agressive dont les entreprises poussent à l’adoption de l’IA doit nous inquiéter. En plus des immenses moyens marketings et publicitaires déployés, les acteurs de la tech cherchent à manipuler les comportements des utilisateurs en modifiant les interfaces de leurs applications. Notre équipe de recherche a étudié les multiples stratagèmes utilisés par les entreprises du numérique pour forcer les usagers à utiliser l’IA, de manière consentie ou non.
Dès 2024, deux grandes stratégies d’adoption forcée de l’IA étaient observables dans les interfaces de plus d’une cinquantaine de services numériques. La première consiste à rendre l’IA omniprésente. Sur WhatsApp, par exemple, on nous propose d’interagir avec l’IA générative de trois manières différentes, rien que sur l’écran d’accueil. Les fonctions d’IA se voient aussi souvent présentées comme les fonctionnalités les plus importantes, prenant la place d’autres services auxquels les utilisateurs étaient pourtant habitués. C’est ainsi le cas dans Google Docs, où la première option du menu d’ajout d’image a été remplacée par un outil de génération d’image.
Pratiques déloyales
Les entreprises du numérique font également en sorte qu’il soit impossible de passer à côté de ces fonctionnalités, en les mettant très en avant visuellement ou par le biais de pop-ups de rappel. Elles sont aussi régulièrement activées par défaut et il n’est souvent possible de les désactiver que temporairement, ce qui indique à l’utilisateur qu’il ou elle finira forcément par les utiliser.
Il vous reste 62.92% de cet article à lire. La suite est réservée aux abonnés.









9 commentaires
Les applications modifient subtilement leurs interfaces pour nous pousser vers l’IA. Cela ressemble plus à du forçage qu’à de l’innovation.
Exactement. La transparence est manquante dans ces pratiques.
Cette multiplication d’IA dans les applications ressemble à une stratégie commerciale agressive plutôt qu’à une réelle amélioration utilisateur.
Les entreprises cherchent avant tout à fidéliser pour augmenter leur valeur actionnariale.
On dirait que l’IA est devenue un outil de manipulation comportementale. Comment éviter cette dépendance technologique à long terme ?
Les réglementations devraient être renforcées pour protéger les utilisateurs.
Cette course effrénée à l’adoption de l’IA soulève des questions éthiques majeures. À quel point sommes-nous prêts à sacrifier notre autonomie pour des fonctionnalités prétendument utiles ?
Les entreprises mineures n’ont pas le choix de suivre, même si cela pose problème.
C’est une excellente question. Les utilisateurs devraient avoir plus de contrôle sur leur expérience numérique.