Le plan pour l’IA des États-Unis : focus sur la diplomatie et la sécurité internationale


Le plan pour l’IA des États-Unis : focus sur la diplomatie et la sécurité internationale
Le Plan d’action pour l’IA américain, publié en juillet 2025, établit une stratégie ambitieuse pour consolider le leadership mondial de l’Amérique dans le développement et l’application de l’intelligence artificielle (ci-après dénommée IA). Le plan est structuré autour de trois piliers fondamentaux : l’innovation, l’infrastructure et la diplomatie internationale.

Lors d’un premier article l’auteur avait analysé l’introduction et les principes directeurs. Le second article, quant-à-lui, traite de l’intelligence artificielle. Ce troisième article va finaliser cette trilogie en traitant de la diplomatie et de la sécurité internationale.

Diplomatie et sécurité internationale

L’intelligence artificielle ne connaît pas de frontières ; c’est pourquoi toute stratégie nationale qui se veut complète doit comporter une dimension internationale ambitieuse. Ce pilier transforme la concurrence technologique en un jeu géopolitique d’influence et d’alliances. La stratégie est double : exporter et diriger, tout en contenant et en se protégeant. L’exportation de technologie américaine vers les alliés est le côté positif de cette diplomatie. Il ne s’agit pas seulement de gagner des parts de marché ; c’est une manœuvre visant à créer une dépendance stratégique bénéfique.

Si les alliés des États-Unis saturent leurs économies et leurs systèmes de défense hardware avec les normes américaines en matière de matériel, de logiciels et d’intelligence artificielle, un écosystème technologique mondial aligné est créé. Le ministère du Commerce et la Banque d’exportation et d’importation ont des rôles clés ici, facilitant les ententes qui sont commercialement viables et acceptables. C’est une forme de « soft power » technologique : faire de l’option américaine la plus attrayante, de sorte que personne ne cherche des alternatives dans des endroits comme la Chine.

Contrer précisément cette influence chinoise dans les forums multilatéraux est le revers de la médaille. Le plan est très critique à l’égard des efforts déployés dans des organismes tels que l’ONU ou le G7 pour mettre en place des cadres de gouvernance de l’intelligence artificielle qu’il considère comme excessivement restrictifs ou imprégnés de valeurs culturelles étrangères. L’instruction pour le département d’État et d’autres plaident agressivement pour des approches qui favorisent l’innovation ouverte et reflètent les « valeurs américaines ». Il s’agit d’un choc narratif mondial : une vision qui priorise la gestion prudente du risque par rapport à une vision qui priorise l’accélération concurrentielle. Le plan ne cherche pas un consensus doux ; il cherche à imposer son cadre.

Cette expansion internationale comporte des risques considérables, d’où l’importance accordée à la protection des technologies sensibles. Les contrôles à l’exportation deviennent des outils de sécurité nationale. Des idées telles que l’intégration de fonctions de vérification de localisation dans les puces d’intelligence artificielle ou le renforcement de la surveillance dans les pays à haut risque visent à créer des barrières techniques et juridiques afin d’empêcher que des avancées critiques ne tombent entre les mains d’adversaires. C’est une course contre la montre : développer la technologie plus rapidement que les adversaires ne peuvent la voler ou la reproduire. L’évaluation des risques pour la sécurité nationale s’étend même aux modèles logiciels. La proposition visant à ce que l’Institut national des normes et des technologies, en collaboration avec les agences de renseignement, évalue les modèles de pointe quant à leur utilisation potentielle dans des cyberattaques ou le développement d’armes est une reconnaissance de la double nature de cette technologie. Il ne suffit plus de surveiller les missiles et les avions ; il faut désormais évaluer le potentiel destructeur d’un algorithme.

La biosécurité est un domaine où cette dualité est particulièrement préoccupante. L’intelligence artificielle révolutionne la biologie, en aidant à concevoir des protéines ou à comprendre les agents pathogènes. Mais cela signifie également qu’elle pourrait réduire les obstacles à la création d’armes biologiques. Les mesures proposées — telles que l’exigence de vérifications rigoureuses pour ceux qui utilisent des outils de synthèse d’ADN financés par des fonds fédéraux — constituent des tentatives pour ériger des digues de protection dans un domaine que l’intelligence artificielle rend de plus en plus accessible. Il me semble que cette partie du plan est l’une des plus visionnaires, car elle anticipe des risques qui ne sont pas encore au centre du débat public. En résumé, ce pilier de la diplomatie et de la sécurité dépeint un monde où l’intelligence artificielle est le nouveau champ de bataille de l’influence internationale, un champ où les États-Unis tentent d’écrire les règles, de former le camp le plus fort et de protéger jalousement leurs armes les plus avancées.

Conclusion

A l’issue de cette analyse, ce qui émerge n’est pas seulement le plan d’une politique technologique, mais le reflet d’une philosophie de gouvernement appliquée à un défi existentiel du XXIe siècle. Le plan d’action américain pour l’IA est, en substance, un engagement déterminé pour un modèle spécifique : l’innovation axée sur le marché, modérée par des valeurs conservatrices et projetée au monde avec une mentalité de compétence stratégique. Sa grandeur réside dans son ambition intégrale, reconnaissant que diriger l’intelligence artificielle nécessite d’agir simultanément en laboratoire, dans le réseau électrique et dans les forums diplomatiques. Leur vulnérabilité, à mon avis, réside dans les tensions internes qui doivent être gérées : entre la déréglementation et la protection, entre l’ouverture de modèles et la sauvegarde des secrets, entre la promotion d’une révolution économique et la garantie qu’elle ne laisse personne de côté.

D’un point de vue éthique et juridique, le plan est une expérience audacieuse. Il tente de codifier des principes tels que la liberté d’expression et la recherche de la vérité dans le développement technologique, un terrain où l’efficacité et le profit ont traditionnellement prévalu. Il propose des mécanismes, tels que la révision des cadres de l’Institut national des normes et de la technologie ou les évaluations de l’objectivité, qui sont nouveaux et dont le succès pratique est à démontrer. Stratégiquement, c’est un document de réalisme clair : accepter que nous sommes dans une course et que la deuxième place comporte des risques inacceptables pour la sécurité nationale et l’influence mondiale. Par conséquent, des mesures telles que la modernisation de l’énergie, le rapatriement des semi-conducteurs et la diplomatie technologique agressive ne sont pas des options, mais des impératifs dans cette vision.

Cette feuille de route sera-t-elle suffisante ? Cela dépendra de sa mise en œuvre et de l’évolution imprévisible de la technologie elle-même. Le plan aborde des menaces connues telles que les deepfakes, mais l’intelligence artificielle posera probablement des défis que nous ne pouvons même pas imaginer aujourd’hui.

Cela me suggère que le véritable test ne sera pas de savoir si les États-Unis produisent les plus grands modèles, mais si l’écosystème que ce plan favorise – plus axé sur la valeur, plus axé sur la sécurité – se révèle plus résilient, plus innovant à long terme et plus attrayant pour le monde. En fin de compte, le document ne vend pas seulement un leadership technologique ; il vend une vision de l’avenir. Son héritage sera mesuré par la question de savoir s’il fait de cette vision une réalité, en bénéficiant non seulement aux États-Unis, mais en démontrant que ses principes peuvent, en effet, guider en toute sécurité et de manière prospère la prochaine frontière de l’intelligence humaine et artificielle.

Diego Fierro Rodríguez
Greffier - Doctorant en droit