Partie II

Les sujets de l'autorité

Quel type de sujet le pouvoir requiert-il pour atteindre son efficacité maximale

Seleneart, Michel Foucault : le problème de l’acceptabilité du pouvoir, 2016.

autorité des machines

et entreprise de soi

Anna Constantinidis

Temps de lecture estimé : 13 min

Introduction

Il y a quelques années, ces citations auraient pu être prises pour des extraits d’un nouveau livre de science-fiction. Il n’en est rien ; elles proviennent d’articles de presse ou de sites consacrés aux technologies et datent de… 2024. Elles sont simplement le reflet d’une réalité nouvelle : l’omniprésence – voire l’omniscience – des objets numériques dans – et sur – nos vies.

Cette réalité fait émerger de nouvelles formes d’interaction entre ce que nous appellerons les ‘machines’ et nous. L’une de celles-ci est étroitement liée au sujet de cette revue. Notre hypothèse est que les outils numériques semblent en effet commencer à exercer sur nous, ou plutôt, nous sommes en train de leur conférer, une certaine autorité sur nos vies.

L’autorité revêtant une dimension morale et politique, il peut être surprenant, comme l’indique Thierry Ménissier, philosophe à Grenoble et auteur d’un article scientifique sur la « confiance en l’intelligence artificielle et l’autorité des machines » (Ménissier, 2021, p. 3), de parler de l’autorité d’une machine ou d’un outil (on parle généralement de l’autorité d’un parent, de l’autorité politique, etc.) ; pourtant, indique le philosophe, « l’observation de la réalité » pousse à prendre au sérieux cette idée (Ibid.). L’autorité est liée à la confiance, or « il existe de la confiance envers l’action efficace des machines », qui donne donc naissance, de facto, à « l’essor d’un nouveau genre d’autorité lié à l’efficience technologique » (Ibid.).

Cet article se veut un rapide tour d’horizon de ce nouveau type d’interaction, voué à ouvrir et susciter le questionnement et la réflexion.

Nos nouveaux maîtres, les algorithmes

Commençons par les algorithmes, qu’on pourrait qualifier de nouveaux maîtres du jeu dans nos vies personnelles et professionnelles, comme les quelques exemples suivants l’illustrent. Ceux-ci vont du plus individuel (le premier, écrit en « je »), au plus collectif :

a) Par les résultats qu’il me fournit, mon moteur de recherche exerce déjà une autorité sur moi, en ce qu’il oriente ma pensée, mon travail si j’effectue une recherche bibliographique, ma vision du monde aussi. Que la recherche soit effectuée sur un moteur de recherche qui garantit la protection des données personnelles, comme DuckDuckGo, ou sur Google, les résultats affichés ne seront pas les mêmes. Et bien que DuckDuckGo soit mon moteur de recherche de référence pour un maximum d’usages, lorsque je suis prise par le temps, et que j’entre dans un état d’esprit de recherche d’ « efficience et d’efficacité », la version performante de moi bascule généralement sur Google, le mastodonte qui peut m’offrir un maximum de résultats correspondant exactement à ce que je recherche. Bien que je sois consciente de vouloir « offrir » le moins de données personnelles aux GAFAM (voir à ce propos Fronteddu, 2023 ; Courteille, 2024), pour contrer leur utilisation commerciale par ces firmes monopolistiques ainsi que le pouvoir grandissant de ces dernières, la version de moi qui doit rapidement clôturer son article pour pouvoir s’atteler à d’autres tâches, en a besoin. Et ainsi, l’algorithme de Google fait autorité… Plus largement, nos besoins, nos façons d’être et de penser, à commencer par notre rapport au temps, semblent être fondamentalement transformés par l’outil digital et sa logique algorithmique, cette transformation rendant à son tour ces derniers incontournables dans notre quotidien.

b) Dans le monde professionnel, les algorithmes sont déjà à la manœuvre dans de nombreux domaines, notamment le management, le travail de l’économie de plateforme constituant un exemple paradigmatique. La problématique générale dans le management algorithmique est l’incapacité totale des travailleurs à déterminer les modalités de leur travail et leur mise en concurrence permanente, l’algorithme définissant unilatéralement et catégoriquement l’allocation du travail, en tout cas pour les plateformes de type Uber et Deliveroo (voir Raucent, 2022a). Par ailleurs, de nombreux biais discriminatoires y ont été observés : par exemple, en France, des livreuses payées moins que des livreurs, car elles « roulent moins vite » (« Quand l’algorithme contrôle tout », 2021), mais aussi, en 2020, des livreurs Uber bloqués du jour au lendemain sur l’application en raison de prétendues activités frauduleuses identifiées par l’algorithme (Ibid.). Faute de médiation humaine, aucun moyen de réclamation : c’est par le biais de l’algorithme que s’exerce le rapport d’autorité à l’encontre du coursier. Même si une directive européenne a mis en place un certain nombre de protections (« Travailleurs des plateformes », 2022), comme l’instauration d’un contrôle humain du système de décision automatisée ainsi que le recours possible contre les décisions de ce type, il est à regretter que nombre d’autres « travailleurs, hors plateformes », soient « soumis à des systèmes non réglementés de prise de décision automatisée (Raucent, 2022b, pp. 12-13) : ainsi Ford, qui a obligé son personnel à porter des bracelets avec traqueurs pour vérifier le respect des règles de distanciation pendant la crise du covid, ou encore Amazon qui trace ses conducteurs (voir Ibid., pp. 11-12 ; Cater l., Heikkilä M., 2021 ; Todolí-Signes A., 2021).

c) Au niveau de nos pouvoirs publics, la « gouvernance algorithmique* » est en marche : il s’agit d’utiliser des algorithmes pour faciliter certaines tâches, comme le rappellent Elise Degrave, Clément Maertens et Laurent Roy dans un article sur les droits fondamentaux face aux algorithmes du secteur public (Degrave, Maertens et Roy, 2023) : par exemple, l’utilisation d’algorithmes pour répartir les élèves dans les écoles secondaires, ou la détection des domiciliations fictives sur la base des données de consommation des assurés sociaux (Ibid., p. 15). La promesse de l’utilisation de ces technologies ? Comme précédemment, celle de l’efficacité et de l’efficience. Mais le grand problème de leur utilisation par les autorités publiques est qu’elle est contraignante pour les citoyens (Ibid.). Et que par ailleurs, les algorithmes à l’œuvre, programmés hors UE par des firmes privées, sont souvent méconnus par les agents de l’administration eux-mêmes (Ibid.), qui doivent pourtant être en mesure de motiver leurs décisions. Or, les algorithmes (tout comme l’IA) ne sont pas infaillibles : ils reproduisent les biais de leurs concepteurs et des données dont ils se nourrissent, ce qui peut se traduire par une discrimination de certaines catégories de personnes. Ainsi, par exemple, le scandale du contrôle algorithmique des fraudes sociales aux Pays-Bas, qui a fait plonger des milliers de personnes dans d’impressionnantes dettes : dans cette affaire, l’administration fiscale néerlandaise avait attribué aux citoyens un score de risque de fraude à l’aide sociale, sur la base des recommandations d’un algorithme reproduisant des préjugés institutionnels tels que le lien entre risque de fraude et personnes d’origine étrangère ou à faibles revenus (voir à ce sujet Ibid. ; « Pays-Bas, scandale […], 2021). Par ailleurs, on n’est pas non plus à l’abri d’erreurs ou d’approximations dans l’interprétation des données algorithmiques (Ibid., p. 32). Dominique Grégoire, Data Protection Officer au Forem, dans une communication sur les « Risques de l’intelligence artificielle dans la prise de décision des administrations publiques » (Grégoire, 2024), pointe deux éléments essentiels : « La personne devant prendre la décision est-elle réellement entièrement libre de sa décision ? Ensuite, le rôle de cette personne sera-t-il noble : c’est-à-dire d’opérer un travail de réflexion important ou d’« augmenter » l’IA en réalisant des tâches répétitives dénuées de sens ? ». D’autres questions se posent aussi, notamment sur la responsabilité. « La question des risques de l’intelligence artificielle dans la prise de décision des administrations publiques dépasse très largement les considérations techniques », et nécessite donc une prise en compte globale, une « stratégie systémique incluant les dimensions culturelles, sociales, politiques et économiques » (Grégoire, 2025).

d) Ajoutons à ce tableau les programmes de vidéosurveillance algorithmique avec reconnaissance faciale qui, s’ils venaient un jour à être autorisés, entraîneraient de nombreuses conséquences en termes d’exercice de l’autorité, encore plus directement liées aux libertés individuelles et collectives. Aujourd’hui, la loi ne permet pas l’utilisation de la reconnaissance faciale par ces programmes, mais la technologie, elle, existe et est prête à l’usage. Félix Treguer, chercheur français au CNRS et membre de la Quadrature du Net, alerte, dans un récent ouvrage, sur les nombreux risques pour la société si ces technologies venaient un jour à être autorisées (Tréguer, 2024 ; « Avec la technopolice […] », 2025).

Dans cette nouvelle relation entre les humains et les machines, il faut, de manière collective et démocratique, nous poser un certain nombre de questions :

° Quelle confiance plaçons-nous dans les machines ? Et quelle utilisation est utile, nécessaire, et représente une réelle plus-value ? Se poser ces questions est aujourd’hui presque un impensé, alors que cela devrait être l’étape indispensable avant le développement à grande échelle de toute nouvelle technologie, en particulier en ce qui concerne l’intelligence artificielle (voir Constantinidis, 2024).

° N’est-ce pas la manière dont les algorithmes sont conçus et commercialisés, sans aucune transparence, par des multinationales poursuivant un but lucratif évident ainsi que, parfois, des combats idéologiques (pensons à X dont l’algorithme sert désormais clairement les idées nauséabondes de son propriétaire Elon Musk), qui pose davantage problème que l’outil en lui-même ? Imaginons que l’on puisse compter sur des algorithmes citoyens, open source et donc contrôlables à tout moment : la situation serait sans doute différente.

° Les logiques algorithmiques étant en train de modifier nos façons de vivre et de penser, quelle limite allons-nous poser à leur autorité ? Et celle-ci pourra-t-elle être fixée tant que nous serons pris au piège du culte de la performance ? Poser la question est, au fond, déjà y répondre.

Performance et entreprise de soi

La performance, indique Olivier Hamant, c’est « la somme de l’efficacité et de l’efficience. L’efficacité, c’est atteindre son objectif. L’efficience, c’est l’atteindre avec le moins de moyens possible, c’est une forme d’optimisation » (« Nous sommes dans une secte de la performance », 2024). Les outils numériques commencent à s’imposer dans de nombreux pans, très privés, de nos vies : ces montres connectées qui nous dictent comment mieux courir ou mieux dormir, ces applications qui nous dictent avec qui nous pourrions passer une agréable soirée ou construire une vie à deux, ces bagues connectées qui bientôt nous indiqueront les premiers symptômes d’une maladie, etc. Si le processus d’inondation du marché par de nouveaux objets numériques semble malheureusement inéluctable au vu du modèle à la base de l’économie du numérique (voir à ce sujet Constantinidis, 2024, p. 165), nous, en tant que citoyens et citoyennes, gardons tout de même une certaine marge de manœuvre (bien que limitée, voir à ce sujet Lejeune, 2024). Alors, pourquoi adhérons-nous aux objets connectés en tous genres ? Comme ce fut le cas pour les smartphones il y a quelques années, on commence en effet à observer l’achat d’une montre connectée ou l’installation d’une application de suivi des pas chez celles et ceux qui y étaient encore fortement opposés il y a quelques années : « ça me permet de faire des séances de sport plus efficaces », « d’atteindre mes objectifs », « de ne pas oublier de boire », « de suivre mon cycle », « de faire mes 10.000 pas par jour ». Et que dire de l’IA, qui est de plus en plus utilisée, notamment par les élèves, nous indiquent nos collègues professeurs, pour effectuer des tâches simples comme écrire un mail ou rédiger une synthèse ? On nous rétorquera que si des outils existent nous permettant de nous améliorer, il n’y a aucune raison de s’en priver. La question est donc plutôt celle-ci : pourquoi chercher sans cesse le « mieux », le « plus », l’ « efficace », le « performant » ? Même si la réponse est complexe et multifactorielle, nous donnerons ici quelques pistes de réflexion, à notre avis intimement liées 

À l’heure du capitalisme numérique, nous baignons dans un flux continu d’incitations :

« La collecte des données permet d’inciter les individus à améliorer leurs ressources, leur apparence ou leur corps par toutes sortes de technologies, de tutoriels, de stages et de kits, de devancer leurs désirs ou de leur offrir tous les biens et services que leurs « préférences » politiques, artistiques, sexuelles rendent probables. L’intelligence artificielle et les algorithmes prennent ici le relais automatisé et infiniment plus performant des anciennes techniques comportementales qui font d’Homo numericus une créature soumise à un flux constant d’incitations. Le néolibéralisme numérique est le règne accompli de l’économie de l’incitation ».

(Monod, 2019, p. 23)

Notre société est aujourd’hui une « secte de la performance » (Hamant, 2022). La recherche de la performance légitime les outils numériques comme adjuvants de nos vies et, ce faisant, leur donne autorité sur nos vies et sur nos corps. Et nous devenons des êtres quantifiables : ces technologies entraînent l’apparition de ce qu’on appelle le « quantified self », un idéal de transparence de soi, pour soi et les autres, grâce à l’accumulation de données personnelles. C’est en quelque sorte l’apparition d’un moi « dataïfié » qui offre

« à chaque individu la possibilité de calculer les choix les plus optimaux et d’améliorer ainsi la performance de chacune de ses actions »

(Raucent, 2022a, p. 34 ; Ruckenstein-Pantzar, 2019, p. 60).

Pour Alain Damasio, auteur d’un livre sur la Silicon Valley, la tech peut être une façon parmi d’autres d’appréhender notre corps (et qu’elle en soit une est indiscutable aujourd’hui, nous dit-il), mais

« qu’elle s’impose pour unique voie vers nos corps semble par contre aliénant, asséchant et dangereux »

(Damasio, 2024, p. 1587).

À l’heure du capitalisme numérique, nous baignons dans un flux continu d’incitations :Nous ne pouvons taire un autre aspect, tout aussi essentiel : le capitalisme, écrit l’économiste Christian Arnsperger dans son ouvrage « Éthique de l’existence postcapitaliste » (Arnsperger, 2019),

« nous fait exister d’une façon particulière. Il représente une mise en pratique provisoire et historique de notre condition éternelle et anhistorique de vivants voués à la mort » (p. 12) ; « là réside l’un des plus puissants mécanismes d’autoprotection que l’on puisse imaginer […] ce à quoi la compulsion de consommation a partie liée, c’est précisément l’inquiétude existentielle, voire l’angoisse de la mort (p. 17) ; et un peu plus loin : « La technologie, prothèse d’un humain fragile face à une nature qui l’inquiète hors de lui et en lui, est vue comme porteuse d’une pensée libre, enfin débarrassée des obscurantismes d’antan. Le capitalisme, vecteur de la diffusion de la technologie sous toutes ses formes et de ses avatars que sont la consommation et l’accumulation, en vient alors à être perçu comme le lieu même de la libération : ouverture des possibles de l’invention et de la création, circulation des émotions et des envies d’objets. […] Cette anthropologie de la croissance, comme d’aucuns l’ont appelée, a son ancrage dans une couche profonde de notre intentionnalité. Elle s’est inscrite en nous existentiellement, et donc culturellement, dès notre naissance » (p. 23).

Dans cette logique, les outils numériques et objets connectés viennent renforcer collectivement cette réponse face à l’angoisse existentielle. En effet, il ne s’agit plus de « simplement » consommer, mais de rentrer dans la logique de l’humain « augmenté ». Le transhumanisme, ce n’est pas uniquement vouloir échapper à la mort, c’est aussi vouloir optimiser sa vie dans une logique de performance.

Ces différents éléments, même s’ils ne prétendent évidemment pas tout expliquer, nous semblent malgré tout constituer le socle de ce qu’on appelle un « schéma de docilité » à travers lequel les sujets sont construits pour accepter l’autorité. À savoir, comme l’explique Emma Raucent en introduction,

que « dans leurs rapports à eux-mêmes et aux autres, ils sont amenés à se définir d’une telle manière que l’autorité leur apparait comme logique, naturelle ou raisonnable ».

L’autorité, ici des ‘machines’, apparaissant comme naturelle ou logique, elle est sans doute d’autant plus difficile à conscientiser d’une part, à remettre en question d’autre part.

Conclusion : le numérique, bon serviteur, mais mauvais maître

Passons en revue quelques-uns des dangers que nous identifions (liste non exhaustive, que chacun et chacune pourra compléter d’autres points tout aussi importants) :

Pendant que la collecte monumentale de données faite sur notre dos enrichit les grands patrons de la Silicon Valley, nous devenons de plus en plus dépendants de ces technologies qui risquent d’atomiser encore un peu plus les individus : alors qu’un rendez-vous chez le médecin semblait l’étape obligée en cas de fièvre débutante, qu’en sera-t-il au temps des bagues connectées qui nous feront un diagnostic et nous renverront, qui sait, vers des compléments alimentaires et médicaments sponsorisés qu’on commandera en ligne ? Alors qu’un jogging entre amis pouvait être une réponse à la motivation manquante à pratiquer du sport, il suffira donc désormais de suivre les indications de notre smartphone ou de notre montre connectée pour se mettre en mouvement et augmenter notre endurance et nos performances sportives ? Ces exemples sont certes excessifs, mais ils posent de vraies questions sur notre manière d’être au monde. Pour Asma Mhalla, spécialiste des enjeux géopolitiques de la tech et de l’IA,

« on est entrés dans une ère de l’hyperpersonnalisation de masse – le micro-ciblage publicitaire des réseaux sociaux atomise en même temps le lien social et le réel »

(Mallah, 2024).

Or, l’atomisation des individus est un risque colossal pour les démocraties et pour le vivre-ensemble :

« comme Arendt le voyait déjà, une masse atomisée est le chemin vers le totalitarisme. Elle est rendue incapable de faire société »

(Ibid.)

Pendant que les machines, ou de manière plus large, l’intelligence artificielle, apprennent sur la base de nos connaissances, de nos données, de nos requêtes, de nos informations, qu’en est-il de nous ? Ne sommes-nous pas en train de désapprendre, augmentant de facto et volontairement notre dépendance à ces machines et au privé ? Comme le souligne Marcello Vitali-Rosati dans l’introduction de son ouvrage Éloge du bug. Être libre à l’époque du numérique, « les GAFAM nous font rêver d’un monde qui fonctionne tout seul, d’un monde où nous sommes pris·es en charge jusqu’à nos identités privées par un petit nombre de compagnies privées. Mais cette délivrance se fait au prix d’une perte totale d’autonomie, avec une dépendance complète à ces technologies et à ces entreprises (Vitali-Rosati, 2025, p. 11). Dans le même ordre d’idées, Alain Damasio, dans l’essai précité, évoque une perte de puissance : en exerçant notre pouvoir sur les machines, nous perdons notre puissance (Damasio, 2024, pp. 43-44 et pp. 199 et svv.), même si cette relation à la technologie peut nous donner l’impression du contraire : l’humain augmenté n’a-t-il pas la sensation d’être puissant, invincible, voire immortel ?

On observe, parallèlement à ces évolutions technologiques, une société en mal de sens, dans laquelle la charge mentale explose, où les burnouts et les dépressions sont légion et où la consommation d’antidépresseurs n’a jamais été aussi élevée. Les facteurs sont sans aucun doute multiples et il ne s’agit évidemment pas de les réduire à cette donnée, mais admettons que ces outils censés nous aider génèrent, paradoxalement, beaucoup de stress. Ne prenons que l’exemple des applis de mesure du sommeil : à force d’être dans l’autosurveillance de soi et de recevoir des rapports détaillés sur notre sommeil, on aboutit à l’effet inverse de celui recherché (« Insomniaques et fatigués », 2022). De manière plus générale, dans la logique de sur-responsabilisation des individus, pourtant vendue comme libératrice, nous sommes également devenus les gestionnaires de nos comptes en banque, de nos compteurs connectés, de notre robotique, de nos documents administratifs en tous genres. Bien sûr, on ne peut omettre tout ce que le numérique amène également de bon et de pratique, mais il est difficile de nier qu’il entraîne aussi une importante charge mentale, et de l’isolement. Par ailleurs, en raison de leur non-fiabilité, certains objets ou applications peuvent entraîner des effets néfastes sur la santé : à titre d’exemple, les montres disant mesurer le taux de glycémie dans le sang sont à éviter absolument, d’après la Fédération des diabétiques en France (« Des montres pour mesurer […] », 2024). Et n’oublions pas non plus, enfin, les effets directs de l’hyperconnexion sur la santé. En l’absence de suffisamment de données scientifiques sur ces effets, le principe de précaution ne devrait-il pas s’appliquer, au moins pour les objets si proches de notre corps comme montres ou bagues connectées ?

Ces technologies charrient avec elles des impacts environnementaux colossaux (voir à ce sujet Alternumeris, 2024 ; Fronteddu, 2024 ; Constantinidis, 2024), tant en termes de matières premières que d’énergie, mais aussi leur lot d’inégalités sociales. Alors que les inégalités numériques sont déjà une réalité pour de nombreux Belges à l’heure actuelle, celles-ci risquent d’augmenter de plus en plus avec la démultiplication d’objets connectés et le passage presque obligé par les technologies pour une série d’usages. Et que dire au niveau mondial ? Ne sommes-nous pas en train de créer, encore plus qu’avant, un monde à deux vitesses, où le fossé entre les êtres hyperconnectés et les autres risques de se creuser de plus en plus et d’empêcher toute forme de communication ? Sans compter les inégalités résultant de la protection des données, les objets connectés bas de gamme étant sans doute plus facilement piratables (« Nouveau monde », 2020).

Enfin, n’oublions pas que ces ‘machines’ qui orientent nos choix et nos décisions sont aujourd’hui savamment programmées à l’aide d’algorithmes dont la conception répond à des critères très subjectifs. Nous attribuons ainsi une forme d’autorité à des outils développés par des multinationales avides de profit dont les objectifs sont très éloignés d’un quelconque bien commun. Jusqu’il y a peu, la tendance à une certaine régulation semblait s’imposer, notamment grâce à la pression exercée par l’Union européenne, mais depuis l’élection de Donald Trump à la présidence américaine, les propriétaires de certains réseaux sociaux (nous pensons notamment à Mark Zuckerberg pour Meta) ont retourné leur veste en matière de modération des contenus au profit d’un plus grand laisser-faire/laisser-dire, cher à Elon Musk et à Donald Trump (voir Winkel, 2025). À l’investiture 2025 du président des USA, les géants de la technologie étaient d’ailleurs aux premières loges : tout un symbole… Si actuellement l’Europe continue à essayer de réguler les GAFAM, on peut légitimement se demander si elle en aura encore l’ambition si le rapport de force au sein de l’Union passe un jour à l’avantage de l’extrême droite. Notons d’ailleurs qu’à l’heure où nous écrivons ces lignes, plusieurs leaders européens d’extrême droite entendent renforcer leur alliance et clament leur admiration pour Trump et sa politique (« Extrême droite : à Madrid […] », 2025).

Même si nous sommes souvent (et sans doute de plus en plus), en tant que citoyens et citoyennes, dépassés par l’ampleur des défis, nous avons un rôle à jouer. Nous gardons un pouvoir : un pouvoir de décision, sur l’utilisation que nous faisons de tous ces outils, sur le type d’outils que nous choisissons d’utiliser, un pouvoir de contestation aussi, de ce qui nous imposé comme le nouvel ordre « naturel » des choses, comme la numérisation tous azimuts des services publics. Christian Arnsperger, dans l’ouvrage précité (2009, p. 25), indique : « le saut personnel demeure, à nos yeux, le ressort principal de toute restructuration culturelle et sociale. Il n’est certainement pas suffisant, mais il reste nécessaire ». Alors, si cette brève analyse peut amener sa pierre à l’édifice du questionnement, de la réflexion voire de la remise en question, sa rédaction n’aura pas été vaine.

Lancez le débat autour de vous !
Fera-t-on porter le prix de l’austérité aux générations futures ?

© 2025 Citoyenneté & Participation

Citoyenneté & Participation (CPCP asbl)
Avenue des arts, 50 bte6
1000 Bruxelles
02/318 44 33 - info@cpcp.be

© CPCP asbl 2025 - Vie privée | Politique de confidentialité -
Statut RPM Bruxelles - BCE : 0409.117.690 -
IBAN : BE67 3101 6586 0487