Armes nucléaires, chimiques et biologiques… Comment l’intelligence artificielle est devenue un trésor pour les terroristes ?

Jan 28, 2026 | Les rapports

À une époque où l’intelligence artificielle (IA) est devenue un élément incontournable de notre quotidien, des applications médicales qui sauvent des vies aux systèmes industriels sophistiqués, un danger effrayant, autrefois inimaginable, se profile à l’horizon.

Imaginez un instant que les armes les plus dévastatrices de l’histoire de l’humanité – nucléaires, chimiques et biologiques – deviennent accessibles à des groupes terroristes grâce à un « maître numérique » qui ne fait aucune distinction entre les intentions.

Ce n’est pas un scénario de science-fiction, mais un avertissement sérieux émis par des experts chinois et américains. Ils mettent en garde contre le fait que l’intelligence artificielle pourrait ouvrir les portes de l’enfer aux terroristes. Alors, comment une technologie conçue pour améliorer l’humanité pourrait-elle se transformer en un outil pour sa destruction ?

Une simple panique exagérée ?

Selon le journal Le Figaro, l’IA est déjà présente dans nos vies, suscitant à la fois des espoirs et des craintes. Tandis que certains spécialistes saluent ses effets positifs dans des domaines comme la surveillance industrielle et la santé, d’autres – ou parfois les mêmes experts – éprouvent des inquiétudes profondes. Leur principale inquiétude concerne l’utilisation possible par les terroristes d’armes nucléaires, radiologiques, biologiques et chimiques.

La menace associée à ces armes, que certains considèrent comme une fiction, pourrait être accentuée par l’IA. C’est du moins ce qu’ont conclu deux comités d’experts venus de deux mondes totalement différents en 2025.

L’avertissement chinois… contrôle ou chaos

Le premier avertissement provient de la Chine, leader mondial dans le domaine de l’intelligence artificielle, mais également une superpuissance gouvernée par le Parti communiste avec une main de fer. Un document appelé “Cadre de gouvernance de la sécurité de l’intelligence artificielle 2.0” a été publié. Malgré son langage bureaucratique, sa lecture est préoccupante.

Certaines sections font état des “risques dans le monde réel”, exprimant une inquiétude particulière sur la “perte de contrôle des connaissances et des performances liées aux armes nucléaires, biologiques, chimiques et aux missiles”. Dans le cadre de leur “formation”, l’IA utilise aujourd’hui une “large gamme de données”, y compris des “connaissances théoriques de base” relatives à ces domaines sensibles. Si le contrôle de ces données venait à échouer, “les groupes extrémistes et terroristes” pourraient acquérir la capacité de “concevoir, fabriquer, assembler et utiliser” ces armes.

L’IA, un outil au service du crime

Plus généralement, le document chinois met en lumière “l’utilisation de l’intelligence artificielle pour des activités criminelles et illégales traditionnelles” (terrorisme, mais aussi criminalité ordinaire comme le jeu illégal et le trafic de drogue). Notamment, l’IA pourrait faciliter “l’apprentissage” des techniques criminelles, dissimuler les actes criminels ou encore créer des outils “d’IA criminelle”.

Enfin, le document chinois évoque clairement le spectre de la perte de contrôle humain sur les systèmes d’IA avancés. “Il est essentiel de mettre en place un système de contrôle humain dans les phases critiques des systèmes d’IA pour garantir que l’homme conserve la décision finale.” En réponse à ce danger, Pékin appelle à une “réponse coordonnée” pour faire face à ce risque de perte de contrôle.

Scénario apocalyptique… 60 millions de morts

Le monde entier change, mais la même inquiétude est partagée dans les déclarations faites lors de la dernière conférence de sécurité de Munich, qui s’est tenue l’année dernière, juste après le sommet de Paris sur “l’action pour l’intelligence artificielle”. Des experts se sont réunis sous l’initiative de la Nuclear Threat Initiative (NTI) pour discuter des dangers associés à la convergence de l’IA et des sciences de la vie.

Au cours d’un exercice de simulation, des experts en lutte contre le terrorisme et des technologues ont imaginé un scénario apocalyptique : une pandémie mondiale déclenchée par des terroristes utilisant une nouvelle souche du virus intestinal, générée de toutes pièces grâce à l’IA (850 millions de cas, 60 millions de décès). Lors de la conférence, un sénateur américain a souligné que le domaine de la sécurité biologique était celui où le risque d’utilisation de l’IA est le plus élevé. Le titre d’une des tables rondes était on ne peut plus clair : “Protéger le monde des agents pathogènes : la sécurité biologique à l’ère des technologies transformatrices.”

Baisse des barrières d’accès aux connaissances meurtrières

Le problème reste toujours le même : l’intelligence artificielle abaisse le seuil d’accès à la connaissance, permettant ainsi à davantage de personnes d’accéder aux informations nécessaires pour créer des agents pathogènes, les stocker et les rendre “plus transmissibles, plus mortels, et résistants aux vaccins et aux médicaments”. Mais ce n’est pas seulement une baisse du seuil d’accès, c’est aussi une augmentation des possibilités : des outils de conception biologique peuvent aider à imaginer de nouveaux types d’agents pathogènes. Mais même les vieux virus qui ont causé des pandémies dans le passé pourraient être “réanimés”.

Un exemple concret illustre cette problématique : un chercheur ordinaire peut aujourd’hui commander un fragment d’ADN en ligne et le recevoir pour ses recherches. Bien qu’il existe des dispositifs pour empêcher l’envoi d’éléments dangereux à toute personne, l’IA pourrait aider à contourner ces barrières.

L’IA, un danger existentiel

Tandis que l’intelligence artificielle promet de révolutionner tous les aspects de la vie, elle porte en elle un danger existentiel qui pourrait redéfinir à jamais le visage du terrorisme. La question n’est plus “est-ce que cela pourrait arriver ?” mais plutôt “quand cela arrivera-t-il ?” Et plus important encore, serons-nous prêts ?

Share This