A lire: National Cyber Security Strategy Czechia 2026. 12 March 2026, 22 pages.
eConflicts
eConflicts is a blog written by Daniel Ventre, about cyberconflicts, cyberwar, cybersecurity / cyberdefense, information warfare, cybercrime, political science and international relations
Total Pageviews
Tuesday, March 31, 2026
A lire: New Zealand's Cyber Security Strategy 2026-2030
New Zealand's Cyber Security Strategy 2026-2030. Mars 2026, 15 pages
Monday, March 30, 2026
Concepts, théories: the Cyber Gap
Le "cyber gap" (ou fossé numérique) désigne l'écart (asymétrie structurelle) constaté entre le niveau d'adoption des technologies numériques par les Etats, et leurs capacités de cybersécurité. Cet écart est le fait d'une différence entre la rapidité d'adoption des technologies et la vitesse de l'évolution de la prise en compte des enjeux de cybersécurité et la mise en œuvre des protections (création de la loi, des politiques, stratégies, normes, capacités...) Deux mesures du phénomène peuvent être réalisées: l'écart de niveau et l'écart de rythme, qui permettent de réaliser un diagnostic de la situation dans les Etats, et de les comparer.
A lire: Belkhamza, Zakariya. « Bridging the Cyber Gap: Mapping Misalignment Between Digital Adoption and Cybersecurity Capacity ». International Conference on Cyber Warfare and Security 21, no 1 (2026): 36‑44. https://doi.org/10.34190/iccws.21.1.4503.
Concepts, théories: Riskification
Un processus ou approche centré sur la menace sera dit de "threatification". Un très utile tableau est proposé dans l'article de Mathilda Englund et Karina Barquet (voir références ci-dessous), qui distingue les caractéristiques des deux approches que sont la riskification et la threatification.
A lire:
- Aanonsen, Claudia E., et Rita Augestad Knudsen. « Riskification and the production of threat: a comparison of risk assessments in cybersecurity and counter-terrorism ». Critical Studies on Security, may 2025: 1‑26. https://doi.org/10.1080/21624887.2025.2509343.
- Ph.D, Arthur Stuart Firkins. « Riskification : Unravelling the Discourse of Danger and Safety” ». Risk in MindTM — Rethinking Risk., 11 mai 2025. https://medium.com/risk-in-mind-rethinking-risk/riskification-unravelling-the-discourse-of-danger-and-safety-7297a55883ea.
- Englund, Mathilda, et Karina Barquet. « Threatification, riskification, or normal politics? A review of Swedish climate adaptation policy 2005–2022 ». Climate Risk Management 40 (janvier 2023). https://doi.org/10.1016/j.crm.2023.100492.
A lire: Contemporary Security Policy, Volume 47, Issue 2 (2026)
A lire, le nouveau numéro de la revue Contemporary Security Policy, Volume 47, Issue 2 (2026). Numéro dédié aux "Imaginaires de la technologie, de la guerre et de la sécurité internationale", dont plusieurs articles tournent autour des enjeux de l'IA. L'introduction interroge le concept même d'imaginaire (quelle est la valeur ajoutée du recours à l'imaginaire dans les études de sécurité, sur la technologie, dans les études critiques en RI). L'article de Daniel R. McCarthy analyse l'impact de l'adoption de l'IA sur la conception des relations civilo-militaires aux Etats-Unis (l'établissement d'une confiance envers des experts non-humains, tels que les IA, pourrait fragiliser l'autorité des militaires dans la production du savoir militaire). Dans l'article "War economy vs European Silicon Valley?", les auteurs posent les termes d'un débat sur l'avenir sociotechnique de la défense européenne et discutent de l'utilité analytique des imaginaires sociotechniques en temps de crise. Dans "Apocalyptic imaginaries: Risk and regulation in discourses of military AI and nuclear weapons" analysent les relations entre les discours apocalyptiques actuels sur l'IA militaire et les armes nucléaires d'un côté, et la gouvernance internationale de la sécurité de ces technologies. Les imaginaires apocalyptiques partagés déterminent en grande partir les approches réglementaires qui privilégieraient la gestion des risques aux discussions systémiques sur le désarmement ou les interdictions préventives. L'article de Justinas Lingevicius s'intéresse à la manière dont l'UE définit la sécurité liée à l'IA. Il mobilise des concepts tels que "riskification", "agentic security" ou encore "human agency". Tom F.A. Watts débat examine quant à lui les processuspar lesquels le développement de l'IA a été socialement construit par les planificateurs de la défense aux Etats-Unis, comme un domaine technologique clé de la compétition internationale (la Third Offset Strategy a façonné cette vision de la finalité géopolitique des technologies). Les imaginaires de sécurité influencent la planification de la défense américaine. Berenike Prem fait une lecture critique du concept de "control-by-design" dans le développement des systèmes d'armes autonomes. Le contrôl-by-design s'avère partiel, fragile, remis en question de manière constante par la dynamique de l'innovation militaire. Enfin, le pouvoir et la persistance des idées civilisationnelles dans l'espace techno-militaire occidental, est le sujet du dernier article proposé par Neil Renic.
Friday, March 27, 2026
Concepts, théories: le réalisme flexible (américain)
A lire:
- Lissner, Rebecca, et Mira Rapp-Hooper. « The False Promise of “Flexible Realism” ». Foreign Affairs, 26 mars 2026. https://www.foreignaffairs.com/iran/false-promise-flexible-realism.
- Kinstler, Linda. « The Theory That Gives Trump a Blank Check for Aggression ». Magazine. The New York Times, 9 janvier 2026. https://www.nytimes.com/2026/01/09/magazine/trump-venezuela-foreign-policy-realism-greenland.html.
Thursday, March 26, 2026
Concepts, théories : L'erreur humaine source des cyber-incidents
L'article que propose Swapnali N Tambe-Jagtap (chercheur au K. K.Wagh Institute of Engineering Education & Research, Nashik, MH, India) développe l'hypothèse suivante: l'erreur humaine est la cause principale des cyber incidents. Les organisations se concentrent sur les aspects techniques, mais négligent le facteur humain, souvent maillon faible de la chaine de cybersécurité. L'article énumère ces actions humaines qui contribuent aux cyber vulnérabilités et identifie quelques méthodes permettant de réduire ces risques, toujours centrées sur l'humain. Chiffres à l'appui, l'article s'efforce de démontrer l'efficacité des mesures : grâce à la formation des individus, sensibilisation, des outils de gestion adaptés, combinées à l'utilisation d'outils de détection assistée par IA...) le taux de phishing est réduit sensiblement, les erreurs de gestion des mots de passe sont divisées de moitié, les temps de réponse aux incidents sont considérablement réduits... Cependant ces résultats ne peuvent être obtenus si l'on maintient une approche traditionnelle où l'utilisateur est passif. L'auteur plaide pour un modèle coopératif de cybersécurité, dans lequel doivent interagir de manière continue utilisateurs, développeurs, analystes de cybersécurité. Bien sûr, ces efforts ne font pas totalement disparaître toutes les failles humaines. Mais ils contribueraient de manière très significative à une amélioration de la cybersécurité dans les organisations. L'étude évalue des améliorations à court et moyen terme, mais ne peut donc rien dire des évolutions à long terme. Or ce point est essentiel, car les comportements et pratiques sécuritaires sont susceptibles de se transformer au fil du temps (dégradation, usure?). D'autre part, il est nécessaire de s'interroger sur la fiabilité des systèmes d'IA utilisés pour détecter des erreurs comportementales humaines, ces systèmes étant susceptibles de générer des alertes erronées.
A lire: Tambe-Jagtap, Swapnali. « Human-Centric Cybersecurity: Understanding and Mitigating the Role of Human Error in Cyber Incidents ». SHIFRA 2023 (juillet 2023): 1‑7. https://doi.org/10.70470/SHIFRA/2023/007.
