Les IA peuvent-elles déclencher une guerre en pensant bien faire ?

18 avril 2029, Antoine, débordé par la gestion quotidienne de son équipe, décide de prendre un abonnement à LightManager, une IA managériale pour l'aider à suivre les projets de son équipe. Ses fonctionnalités : automatiser l'analyse des livrables et obtenir des recommandations précises sur les points à corriger, les collaborateurs à soutenir, et ceux à recadrer. Une pratique devenue banale depuis deux ans.
Je m'abonneAu bout de quelques semaines, LightManager signale de manière récurrente un problème : Léo, n'atteint pas les standards attendus. Manque de rigueur, délais non tenus, erreurs récurrentes. Recommandation de l'IA "Recadrer Léo, prendre des mesures plus fermes. Réduction de la marge de tolérance, voire envisager le remplacement de la ressource."
Il n'en est pas là, mais, la graine est plantée dans l'esprit d'Antoine.
Antoine, manager apprécié et plutôt empathique, commence donc à se durcir. Il échange moins avec Léo, lui transmet simplement les feedbacks quasi copiés collés de l'IA, souvent un peu froids et directs.
Ce qu'il ignore, c'est que Léo, de son côté, a lui aussi déployé une IA pour l'aider dans ses missions. Trop de tâches, trop de réunions, trop de reportings. Son assistant IA, ChatGPT 8, génère les livrables, répond aux emails simples, et optimise ses réponses aux directives du manager tout en lui donnant des conseils pour "réussir sa carrière".
En quelques semaines, la relation entre Antoine et Léo se dégrade chacun piloté à son insu par une logique algorithmique plus offensive à chaque interaction. Les feedbacks sont secs, les accusations de plus en plus précises, les justifications ciselées au mot près.
Léo de plus en plus tendu et fatigué demande conseil à ChatGPT 8 qui lui donne des recommandations : "J'évalue effectivement un risque de conflit hiérarchique". Alors que faire ? "Pour défendre ta réputation tu peux contre argumenter de manière factuelle pour faire évoluer la position d'Antoine. Tu peux mettre en copie la direction en soulignant les approximations de pilotage. Veux-tu que je te rédige un mail type sur la base des exemples que j'ai en mémoire ?". Oui. Le mail apparaît en 5 secondes et Léo l'envoie.
Recevant ce message, Antoine demande un diagnostic de son subalterne à LightManager :
"Ce que tu me montres ressemble à un comportement passif-agressif persistant. Il existe un risque d'impact négatif sur l'équipe. Préconisation : Si tu veux sauver ton projet et ta position de manager il faut sérieusement penser à déclencher une procédure de licenciement avant contamination aux autres membres."
À ce stade, ni Antoine ni Léo ne perçoivent qu'ils ont cédé leur libre arbitre. Ils pensent "choisir" d'envoyer tel message, de répondre ainsi, d'escalader. En réalité, ils valident passivement les suggestions d'outils qu'ils ont eux-mêmes autorisés avec tous ses biais. La pression du quotidien, la peur de mal faire les enferme jour après jour dans une relation conflictuelle en tête à tête avec leurs IA.
Dans les couloirs de Digitech, le climat devient électrique. L'équipe est divisée. Certains soutiennent Léo, d'autres défendent Antoine. Les RH tentent une médiation, mais tombent dans le piège : elles utilisent elles-mêmes un module d'analyse comportementale pour détecter les zones de tensions dans les équipes. Le système identifie Antoine et Léo comme les deux "noeuds critiques" sur la base de leurs échanges des derniers mois, plutôt que sur leur passé de coéquipiers exemplaires.
L'humain a une fâcheuse tendance à utiliser des outils, pensant rester maître de ses décisions. En réalité les algorithmes, quels qu'ils soient, nous influencent chaque jour. Mais jusqu'où ? Si cela est valable en entreprise, il en va de même dans le monde.
Lire aussi : Quand l'IA stratégique prend le pouvoir !
Lire aussi : La fin des managers ?