Les États-Unis utilisent l’intelligence artificielle dans leur conflit avec l’Iran. L’armée affirme que la « diversité » des systèmes d’IA utilisés sert à trier les données, et qu’ils sont déployés comme des outils et non comme des agents. Le chef du Commandement central américain, Brad Cooper, explique que les systèmes d’IA assistent les forces armées, leur permettant de « passer au crible d’énormes quantités de données en quelques secondes afin que nos dirigeants puissent faire le tri et prendre des décisions plus judicieuses avant même que l’ennemi n’ait le temps de réagir ».
Un accélérateur de la mort
L’IA va accélérer le rythme de l’acquisition des cibles et des tirs, et donc le rythme de la guerre, de la mort, de la destruction et de tout ce qui s’ensuivra. Cooper insiste sur le fait que ce sont les humains qui prennent la décision finale. C’est moins rassurant que cela ne devrait l’être. Un rapport récent relève que « les cibles de l’opération “Epic Fury” ont été identifiées à l’aide du système Maven Smart de l’Agence nationale de renseignement géospatial, qui intègre des données issues de la surveillance et du renseignement, entre autres, et peut présenter ces informations sur un tableau de bord afin d’aider les responsables dans leur prise de décision ».
Néanmoins, on nous dit que les outils d’IA ne « créent pas explicitement » de cibles ; ils se contentent d’« identifier des sites d’intérêt potentiels pour le renseignement militaire ». C’est un peu comme dire que l’information n’influence pas les décisions — comme si les renseignements présentés à un commandant n’avaient rien à voir avec l’endroit où une frappe est ordonnée.
Si le bombardement du 28 février de l’école primaire Shajarah Tayyebeh en Iran résulte d’un outil d’IA « intégrant » d’anciens renseignements militaires au tableau de bord de Maven, cela signifie que l’IA a effectivement influencé la « décision finale » prétendument humaine.

Bien sûr, l’assurance rassurante de Cooper selon laquelle le personnel militaire humain serait toujours aux commandes est peut-être tout à fait vraie. Néanmoins, intégrer l’IA dans la matrice des systèmes de ciblage et agir selon ses recommandations revient à une prise de décision militaire par l’IA, même si ce sont encore des humains qui appuient sur la gâchette.
Quand la guerre envahissait le petit écran
Le déploiement de systèmes d’IA dans la dernière guerre américaine peut rappeler à certains la guerre du Golfe de 1990–1991. Ce conflit ne sera peut-être pas considéré dans les livres d’histoire comme un événement majeur en soi, mais c’était une guerre que nous avons regardée à la télévision en temps réel, sur des écrans illuminés de vert et ponctués de soudains éclairs de lumière. Elle occupait une place prépondérante dans la couverture 24 heures sur 24 de CNN. Au début des années 1990, les nouvelles technologies et les nouvelles façons de faire, tant dans le domaine de la guerre que des télécommunications, signifiaient que quelque chose avait changé.
La guerre était devenue un événement plus distant et déshumanisé, tant dans son exécution — avec des missiles de croisière tirés à des centaines de kilomètres de distance — que dans sa consommation, l’ensemble étant montré au public presque comme s’il s’agissait d’images tirées d’un jeu vidéo. On avait le sentiment qu’il n’y avait pas de retour en arrière possible et que, quoi qu’il en soit, c’était un voyage sur une route qui n’offrait aucune possibilité de faire demi-tour.
Dans L’âge des extrêmes, l’historien Eric Hobsbawm avait averti qu’au XXe siècle, les technologies de guerre modernes et les systèmes bureaucratiques qui sous-tendaient les conflits à grande échelle avaient fondamentalement transformé l’art de la guerre, rendant possible une guerre totale effroyable qui n’aurait pu exister auparavant sans le pouvoir de la distance. Si le but de la distance en temps de guerre est de tirer parti d’une valeur stratégique et tactique qui revient en fait à offrir une couverture — ou un meilleur positionnement — et à surprendre, l’effet ultime est la séparation.
Si la violence, même de masse, peut être une action à distance où l’acteur est soustrait aux conséquences immédiates, viscérales et corporelles de ses actes, alors la violence devient impersonnelle et irréelle, voire virtuelle — comme jouer à un jeu vidéo. Appuyez sur la gâchette, inclinez le joystick vers le haut, et passez à autre chose, tandis que les pixels s’évanouissent à l’écran. De retour à la maison pour le dîner, à temps pour quelques parties de Call of Duty.
Terminator
Aujourd’hui, l’IA est utilisée dans la guerre pour trier rapidement les informations et aider les humains à repérer des cibles. Demain, elle pourrait être utilisée autrement, d’une manière que nous ne pouvons pas imaginer aujourd’hui ou que nous avons tendance à écarter comme une menace secondaire ou tertiaire — davantage un fantasme paranoïaque tiré de Terminator qu’un danger réel et présent. La menace immédiate revient au même dans les deux cas : les humains se déshumanisent eux-mêmes.
Les outils du métier sont des machines que nous utilisons pour mieux tuer, du genre de celles qui nous soulagent des tracas qui ont tourmenté ceux qui ont commis des actes de violence tout au long de l’histoire humaine : il fallait être tout près pour le faire, assez près pour voir la lumière s’éteindre. L’IA n’est donc pas seulement un outil de tri, mais aussi un outil permettant de mettre une distance littérale et figurative entre l’opérateur et les damnés.
Si le siècle dernier nous a donné la capacité d’appuyer sur un bouton pour larguer une bombe, celui-ci nous permettra d’appuyer sur un bouton pour qu’un ordinateur nous dise où la larguer. On ne peut guère être plus éloigné de la destruction que cela.
Ce changement est tout aussi horrifiant que terrifiant, mais il s’agit moins d’une nouvelle façon de faire que de la prochaine étape logique vers une destruction entièrement numérisée et déshumanisée, du genre de celle que les plus perspicaces avaient vue venir il y a des décennies. Hobsbawm considérait la transformation de la guerre au XXe siècle comme une « nouvelle impersonnalité » qui « a transformé le fait de tuer et de mutiler en une conséquence lointaine du simple fait d’appuyer sur un bouton ou d’actionner un levier » et « a rendu ses victimes invisibles, contrairement à ce que pouvaient être des personnes éventrées par des baïonnettes ou vues à travers le viseur d’une arme à feu ». L’IA ne change pas la logique ni l’effet de la guerre impersonnelle, mais renforce plutôt la première et amplifie le second.
Dr AI Folamour
Les conséquences d’un niveau supplémentaire de distanciation vont être d’une gravité inimaginable. Ou peut-être pouvons-nous trop bien les imaginer. Évoquant la Seconde Guerre mondiale, Hobsbawm souligne qu’avec les bombardiers volant au-dessus, ceux d’en bas « n’étaient pas des personnes sur le point d’être brûlées et éventrées, mais des cibles ». La nature impersonnelle de la distance signifiait que « de jeunes hommes au cœur tendre, qui n’auraient certainement pas souhaité enfoncer une baïonnette dans le ventre d’une jeune villageoise enceinte, pouvaient bien plus facilement larguer des bombes explosives sur Londres ou Berlin, ou des bombes nucléaires sur Nagasaki ».

Le fait que des chatbots commerciaux dotés d’IA aient été observés en train de choisir la guerre nucléaire près de dix fois sur dix dans des « situations de crise » fait la une des journaux parce que nous imaginons ce qu’un robot tout-puissant pourrait nous faire — ou faire pour nous in extremis, en l’absence du héros de Wargames pour dissuader la machine. Plus près de chez nous, la menace immédiate et croissante ne vient pas des machines, mais, comme toujours, de nous — et de ce que nous utilisons les machines pour faire ou pour nous dispenser de faire.

La distance que l’IA met entre l’esprit humain et la décision de détruire devrait être ce qui nous terrifie par-dessus tout. Il n’y a peut-être aucune limite aux horreurs qui s’ensuivront. Quoi qu’il en soit, l’histoire humaine est aussi l’histoire de l’utilisation de la technologie pour nous détruire les uns les autres. Aujourd’hui, nous sommes passés maîtres dans cet art — non seulement dans l’efficacité impitoyable de l’effacement physique, mais aussi dans les moyens que nous mettons en œuvre pour rendre cette destruction plus facile à diriger, plus facile à justifier et plus facile à accepter avant, pendant et après les faits.
Comme Hobsbawm l’a souligné à propos du « court » siècle qui s’est étendu de 1914 à 1991 : « Les plus grandes cruautés de notre siècle ont été les cruautés impersonnelles des décisions prises à distance, du système et de la routine, surtout lorsqu’elles pouvaient être justifiées comme des nécessités opérationnelles regrettables. » Hobsbawm avait raison d’identifier la cruauté du massacre industriel de ce court siècle. La question qui se pose pour nous est de savoir à quoi ressemblera ce massacre lorsque cette cruauté sera encore intensifiée par la nouvelle distance résultant de la prise de décision médiatisée par l’IA.
* Cet article est paru dans Jacobin, le 16 mars 2026. Notre traduction de l’anglais et nos illustrations.
David Moscrop est un écrivain et un commentateur politique. Il anime le podcast Open to Debate et il est l’auteur de Too Dumb For Democracy ? Why We Make Bad Political Decisions and How We Can Make Better Ones.


