Total Pageviews

Monday, March 30, 2026

Concepts, théories: the Cyber Gap

Le "cyber gap" (ou fossé numérique) désigne l'écart (asymétrie structurelle) constaté entre le niveau d'adoption des technologies numériques par les Etats, et leurs capacités de cybersécurité. Cet écart est le fait d'une différence entre la rapidité d'adoption des technologies et la vitesse de l'évolution de la prise en compte des enjeux de cybersécurité et la mise en œuvre des protections (création de la loi, des politiques, stratégies, normes, capacités...) Deux mesures du phénomène peuvent être réalisées: l'écart de niveau et l'écart de rythme, qui permettent de réaliser un diagnostic de la situation dans les Etats, et de les comparer.  

A lire: Belkhamza, Zakariya. « Bridging the Cyber Gap: Mapping Misalignment Between Digital Adoption and Cybersecurity Capacity ». International Conference on Cyber Warfare and Security 21, no 1 (2026): 36‑44. https://doi.org/10.34190/iccws.21.1.4503.

Concepts, théories: Riskification

Le concept de "riskification" n'est pas traduisible en français en un seul mot. On évoquera par exemple la "riskification of cybersecurity" qui désigne une manière d'appréhender la cybersécurité, consistant à considérer les problèmes cybernétiques comme des risques de sécurité, et donc à privilégier une approche de type gestion des risques, plutôt que la prévention des menaces. Elle serait une tendance actuelle de la cybersécurité, davantage orientée vers la prise en considération des cyber-risques, et s'écartent de la gestion des cyber-menaces. Cette approche a de multiples conséquences : elle n'impose pas d'état d'urgence; elle suppose anticipation, prévention, détection, prédiction, détection d'anomalies, profilage préventif, élargissement de l'attention au-delà des risques imminents. La "riskification" est "un processus d'organisation des pratiques de sécurité selon des méthodes de précaution et de prévention". La "riskification "décrit comment le concept de risque devient un principe organisateur central de la société, influençant tous les aspects, des comportements individuels aux politiques institutionnelles en passant par les stratégies de gouvernance nationale". Elle est également considérée comme une forme subtile de la "securitization": la "riskification" "appréhende les problèmes de manière plus globale, en les orientant vers diverses sources de préjudices à prendre en compte. Plus concrètement, la riskification attribue des probabilités aux dangers afin de « maîtriser » les risques (souvent par des processus technocratiques)". 

Un processus ou approche centré sur la menace sera dit de "threatification". Un très utile tableau est proposé dans l'article de Mathilda Englund et Karina Barquet (voir références ci-dessous), qui distingue les caractéristiques des deux approches que sont la riskification et la threatification

A lire: 

- Aanonsen, Claudia E., et Rita Augestad Knudsen. « Riskification and the production of threat: a comparison of risk assessments in cybersecurity and counter-terrorism ». Critical Studies on Security, may 2025: 1‑26. https://doi.org/10.1080/21624887.2025.2509343.

Ph.D, Arthur Stuart Firkins. « Riskification : Unravelling the Discourse of Danger and Safety” ». Risk in MindTM — Rethinking Risk., 11 mai 2025. https://medium.com/risk-in-mind-rethinking-risk/riskification-unravelling-the-discourse-of-danger-and-safety-7297a55883ea.

Englund, Mathilda, et Karina Barquet. « Threatification, riskification, or normal politics? A review of Swedish climate adaptation policy 2005–2022 ». Climate Risk Management 40 (janvier 2023). https://doi.org/10.1016/j.crm.2023.100492.

A lire: Contemporary Security Policy, Volume 47, Issue 2 (2026)

A lire, le nouveau numéro de la revue Contemporary Security Policy, Volume 47, Issue 2 (2026). Numéro dédié aux "Imaginaires de la technologie, de la guerre et de la sécurité internationale", dont plusieurs articles tournent autour des enjeux de l'IA. L'introduction interroge le concept même d'imaginaire (quelle est la valeur ajoutée du recours à l'imaginaire dans les études de sécurité, sur la technologie, dans les études critiques en RI). L'article de Daniel R. McCarthy analyse l'impact de l'adoption de l'IA sur la conception des relations civilo-militaires aux Etats-Unis (l'établissement d'une confiance envers des experts non-humains, tels que les IA, pourrait fragiliser l'autorité des militaires dans la production du savoir militaire). Dans l'article "War economy vs European Silicon Valley?", les auteurs posent les termes d'un débat sur l'avenir sociotechnique de la défense européenne et discutent de l'utilité analytique des imaginaires sociotechniques en temps de crise.  Dans "Apocalyptic imaginaries: Risk and regulation in discourses of military AI and nuclear weapons" analysent les relations entre les discours apocalyptiques actuels sur l'IA militaire et les armes nucléaires d'un côté, et la gouvernance internationale de la sécurité de ces technologies. Les imaginaires apocalyptiques partagés déterminent en grande partir les approches réglementaires qui privilégieraient la gestion des risques aux discussions systémiques sur le désarmement ou les interdictions préventives. L'article de Justinas Lingevicius s'intéresse à la manière dont l'UE définit la sécurité liée à l'IA. Il mobilise des concepts tels que "riskification", "agentic security" ou encore "human agency". Tom F.A. Watts débat examine quant à lui les processuspar lesquels le développement de l'IA a été socialement construit par les planificateurs de la défense aux Etats-Unis, comme un domaine technologique clé de la compétition internationale (la Third Offset Strategy a façonné cette vision de la finalité géopolitique des technologies). Les imaginaires de sécurité influencent la planification de la défense américaine. Berenike Prem fait une lecture critique du concept de "control-by-design" dans le développement des systèmes d'armes autonomes. Le contrôl-by-design s'avère partiel, fragile, remis en question de manière constante par la dynamique de l'innovation militaire. Enfin, le pouvoir et la persistance des idées civilisationnelles dans l'espace techno-militaire occidental, est le sujet du dernier article proposé par Neil Renic

Friday, March 27, 2026

Concepts, théories: le réalisme flexible (américain)

Le gouvernement de D. Trump se revendique, en matière de politique étrangère, d'un "réalisme flexible" (formule inscrite dans la Stratégie nationale de défense 2026), mettant en avant la centralité de la puissance et de la coercition. Il s'agit là d'une version simplifiée du réalisme. La force prime sur le droit. "Flexible" signifie que les USA se réservent la possibilité d'user de la force dans des contextes varés, sans cadre stratégique rigide. Le gouvernement définit donc ici lui-même ce qu'il est, alors que tant d'observateurs, spécialistes des RI, peinent à déterminer de manière précise l'étiquette qui correspond le mieux à la politique internationale de D. Trump, même si le réalisme semble adapté (défense des intérêts nationaux, lois du plus fort...). Rebecca Lissner et Mira Rapp-Hooper écartent toutefois cette catégorie. La notion de réalisme flexible est trompeuse. La guerre contre l'Iran montrerait clairement que la politique internationale de D. Trump ne relève pas du réalisme. En effet cette guerre a été initiée sans justifications claires en termes d'intérêt national et de menace imminente. D'autre part elle détourne les ressources américaines de priorités plus stratégiques (compétition avec la Chine) et affaiblit la préparation militaire et la capacité de dissuasion américaine. Le conflit avec l'Iran s'inscrit dans une dynamique de risque d'escalade insuffisamment anticipé. Enfin ce conflit porte avec lui l'objectif d'un changement de régime en Iran, que les réalistes considèrent généralement comme coûteux et inefficace. La politique de Trump s'éloigne des principes du réalisme, et tend plutôt à un usage extensif de la puissance, dispersant les forces, et susceptible d'affaiblir la position internationale des Etats-Unis plutôt que la renforcer. La guerre en Iran contredit les termes mêmes de la Stratégie de défense nationale de 2026 qui déclarait que le Département de la défense américain "ne se laisserait plus « distraire par l'interventionnisme, les guerres sans fin, les changements de régime et la construction nationale »."  Cet article, comme la politique étrangère de Trump, sont l'occasion de repenser ce qu'est ou doit être véritablement le réalisme au 21° siècle.   

A lire: 

- Lissner, Rebecca, et Mira Rapp-Hooper. « The False Promise of “Flexible Realism” ». Foreign Affairs, 26 mars 2026. https://www.foreignaffairs.com/iran/false-promise-flexible-realism.

Kinstler, Linda. « The Theory That Gives Trump a Blank Check for Aggression ». Magazine. The New York Times, 9 janvier 2026. https://www.nytimes.com/2026/01/09/magazine/trump-venezuela-foreign-policy-realism-greenland.html.

Thursday, March 26, 2026

Concepts, théories : L'erreur humaine source des cyber-incidents

L'article que propose Swapnali N Tambe-Jagtap (chercheur au K. K.Wagh Institute of Engineering Education & Research, Nashik, MH, India) développe l'hypothèse suivante: l'erreur humaine est la cause principale des cyber incidents. Les organisations se concentrent sur les aspects techniques, mais négligent le facteur humain, souvent maillon faible de la chaine de cybersécurité. L'article énumère ces actions humaines qui contribuent aux cyber vulnérabilités et identifie quelques méthodes permettant de réduire ces risques, toujours centrées sur l'humain. Chiffres à l'appui, l'article s'efforce de démontrer l'efficacité des mesures : grâce à la formation des individus, sensibilisation, des outils de gestion adaptés, combinées à l'utilisation d'outils de détection assistée par IA...) le taux de phishing est réduit sensiblement, les erreurs de gestion des mots de passe sont divisées de moitié, les temps de réponse aux incidents sont considérablement réduits... Cependant ces résultats ne peuvent être obtenus si l'on maintient une approche traditionnelle où l'utilisateur est passif. L'auteur plaide pour un modèle coopératif de cybersécurité, dans lequel doivent interagir de manière continue utilisateurs, développeurs, analystes de cybersécurité. Bien sûr, ces efforts ne font pas totalement disparaître toutes les failles humaines. Mais ils contribueraient de manière très significative à une amélioration de la cybersécurité dans les organisations. L'étude évalue des améliorations à court et moyen terme, mais ne peut donc rien dire des évolutions à long terme. Or ce point est essentiel, car les comportements et pratiques sécuritaires sont susceptibles de se transformer au fil du temps (dégradation, usure?). D'autre part, il est nécessaire de s'interroger sur la fiabilité des systèmes d'IA utilisés pour détecter des erreurs comportementales humaines, ces systèmes étant susceptibles de générer des alertes erronées. 

A lire: Tambe-Jagtap, Swapnali. « Human-Centric Cybersecurity: Understanding and Mitigating the Role of Human Error in Cyber Incidents ». SHIFRA 2023 (juillet 2023): 1‑7. https://doi.org/10.70470/SHIFRA/2023/007.