Dans cette formation, nous allons adopter une approche complète : comprendre, construire, attaquer et défendre ; à travers l'écosystème de l'intelligence artificielle générative appliquée à la cybersécurité.
Nous verrons comment les modèles deep learning fonctionnent, en particulier les LLMs, comment les agents autonomes basées sur les LLM sont développés, comment les compromettre, comment détecter les menaces qui les ciblent, et comment les sécuriser en production et bien plus encore...
Des use cases passionnants vous attendent : développement d'agents CTI, Pentest et analyse d'événements de sécurité (SOC), analyse de malware en passant par le test d'intrusion des applications LLM et leurs sécurisation.
Durée : 4 Jours
Jours : Chaque Samedi du 02 au 23 Mai
Horaire : 09H à 12h & 14h à 17h (Toute la journée)
Format : Session live avec accès au replay
Labs : + de 30 Labs & Quizz
L'objectif principal est de vous rendre opérationnel sur la sécurité des systèmes d'intelligence artificielle générative, à travers les axes suivants :
Comprendre le fonctionnement des LLMs, des agents autonomes et des protocoles autours tel que MCP ou Agent2Agent (A2A).
Développer vos propres applications LLM, agents de sécurité et serveurs MCP avec une approche engineering orientée sécurité.
Manipuler les IA Agentic Pattern (Incluant les Agent Skills).
Exécuter des attaques réelles contre des systèmes GenAI : prompt injection, jailbreaks, exploitation MCP, manipulation d'agents et supply chain attacks.
Identifier et classifier les menaces IA.
Conduire un pentest IA complet avec méthodologie, outillage et restitution client en s'appuyant sur l'OWASP LLM Top 10 et MITRE ATLAS.
Automatiser vos workflows SOC et CTI.
Dévelopez des agents capables d'analyser un event/alerte de sécurité et faire de l'enrichissement de façon autonome.
Détecter les attaques contre les systèmes IA en temps réel grâce à des règles de détection opérationnelles.
Construire le cadre de gouvernance IA de votre organisation en conformité avec NIST AI RMF, EU AI Act et ISO 42001.
Toutes nos formations "Bootcamps" sont certifiantes
Toutes nos formations "bootcamps" sont certifiantes. Vous pourrez obtenir une certification suite à une évaluation à la fin de la formation.
Ces certifications seront vérifiables sur notre plateforme ou sur la plateforme Badgr.
Pour bien suivre cette formation
Pour suivre cette formation dans les meilleures conditions, vous devez avoir les bases suivantes :
Avoir des notions fondamentales en cybersécurité : comprendre ce qu'est une vulnérabilité, un vecteur d'attaque, un pentest ou un SOC.
Être à l'aise avec Python au niveau intermédiaire : savoir écrire un script, appeler une API et manipuler des données JSON.
Avoir utilisé au moins une fois un LLM (ChatGPT, Claude, Copilot).
Disposer d'un laptop capable de faire tourner un environnement Python local et d'accéder à GitHub Codespaces.
Avoir une curiosité réelle pour l'IA : ce programme avance vite, l'envie d'expérimenter est aussi importante que le niveau technique.
Comprendre la différence entre Machine Learning classique, Deep Learning et IA générative, et ce que chaque paradigme change en termes de surface d'attaque
Maîtriser la classification linéaire, la modélisation de distributions et la modélisation générative pour comprendre comment les modèles apprennent et peuvent être trompés
Appréhender le Reinforcement Learning et son rôle dans le fine-tuning des LLMs (RLHF)
Comprendre le Language Modeling et l'architecture Transformer : tokenisation, attention, prédiction du prochain token, Embeddings contextualisés
Identifier les différences fondamentales entre l'entraînement et l'inférence d'un LLM et ce que ça implique pour la sécurité en production
Développer une application LLM fonctionnelle
Comprendre quand utiliser un framework (Ex. LangChain ou LlamaIndex)
Maîtriser l'API OpenAI / Anthropic / Ollama : structure des requêtes, gestion des tokens, paramétrage
Identifier les premières surfaces d'attaque d'une application LLM simple
Poser les bases du lab personnel
Introduction à l'in-context learning : zero-shot, one-shot, few-shot
Construire des chaînes de raisonnement (chain-of-thought) pour des tâches de sécurité complexes
Sensibilité et et design de prompts robustes
Créer une bibliothèque de prompt templates réutilisables pour les workflows SOC : triage d'alertes, enrichissement IOC, génération de rapport
Distinguer les embeddings statiques des embeddings contextuels
Construire un pipeline RAG complet : chunking, indexation, stockage vectoriel, retrieval, augmentation du prompt
Identifier les risques sécurité et confidentialité spécifiques au RAG
Comprendre comment une injection dans les données indexées (RAG poisoning) peut corrompre toutes les réponses du modèle
Projet pratique : chatbot CTI interne basé sur RAG, indexant un corpus de rapports de menaces pour répondre en langage naturel
Comprendre la différence architecturale entre un chatbot simple et un agent conversationnel moderne.
Implémenter la gestion du contexte de conversation
Développer un agent conversationnel CTI
Identifier les risques de sécurité liés à la mémoire persistante : injection via l'historique, exfiltration d'informations stockées en contexte
Tester la robustesse de l'agent
Comprendre la boucle agentique
Développer votre premier agent de sécurité autonome : scanner, analyseur de logs, ou agent de triage d'incidents
Maîtriser l'orchestration des agents, des chaînes et des outils
Observer, déboguer et auditer les décisions de l'agent en temps réel
Appliquer les principes de sécurité by design
Concevoir l'architecture d'un système multi-agents : orchestrateur, agents spécialisés, protocoles de communication inter-agents
Construire un Web Scanner Agent coordonnant plusieurs outils
Développer un Threat Model Agent capable de générer automatiquement des threat models pour des architectures décrites en langage naturel
Créer un système d'analyse de malwares multi-agents
Identifier les risques spécifiques aux systèmes multi-agents
Comprendre l'architecture MCP : client , serveur et écosystème.
Construire votre propre serveur MCP et le sécuriser
Identifier les inconvénients architecturales du protocole MCP
Exécuter les principales attaques MCP : tool poisoning, rug pull attack, cross-MCP attack, exfiltration via tool calls
Déployer des contre-mesures
Maîtriser les 10 vulnérabilités OWASP LLM 2025 (LLM01 à LLM10) : mécanisme d'exploitation, conditions d'apparition, impact réel
Analyser et Exploiter des cas réels pour chaque catégorie.
Cartographier la surface d'attaque d'une application LLM selon l'OWASP et identifier les composants à risque
Comprendre la correspondance entre OWASP LLM Top 10 et MITRE ATLAS pour enrichir les rapports d'audit
Construire une checklist d'évaluation sécurité LLM actionnable basée sur le Top 10
Architécturer un framework de pentest multi-agents
Déployer des agents offensifs capables d'automatiser les tests de prompt injection, de jailbreak et de discovery
Utiliser l'IA comme assistant d'attaque : LLM-assisted vulnerability analysis, génération automatique de payloads, adaptation aux défenses détectées
Définir le scope, les rules of engagement et produire un rapport de pentest IA structuré prêt à livrer à un client
Cartographier la surface d'attaque de la supply chain IA
Comprendre une attaque de model backdoor
Mettre en place un pipeline MLOps sécurisé : tracking, model registry, access control et audit des artifacts
Signer et vérifier l'intégrité d'un modèle, construire un AIBOM (AI Bill of Materials) pour l'inventaire et la traçabilité
Définir le scope d'une évaluation IA : identification des composants (model, app, infra, agent layer), objectifs d'attaque, rules of engagement
Construire un threat model pour une application GenAI
Utiliser les outils de red teaming IA : Garak (NVIDIA), PyRIT (Microsoft), Promptfoo et savoir quand automatiser avec des agents
Produire un rapport de pentest IA structuré avec preuves, corrélation OWASP LLM / MITRE ATLAS, CVSS adapté et roadmap de remédiation
Appliquer le NIST AI Risk Management Framework (AI RMF 1.0) : les quatre fonctions GOVERN, MAP, MEASURE, MANAGE à votre contexte
Comprendre les obligations de l'EU AI Act : classification par niveau de risque, calendrier de conformité, responsabilités des déployeurs
Utiliser ISO/IEC 42001 comme base pour un système de management de l'IA auditable et certifiable
Construire une AI Security Policy complète : acceptable use, processus de validation des nouveaux composants IA, AI Incident Response
Réaliser un audit de maturité sécurité IA de votre organisation et restituer les résultats aux décideurs en termes de risque business
Une passion comune
Hamza Kondah, fondateur de Hexadream Academy, partage sa passion pour la cybersécurité depuis plus de douze ans à travers des webinars, des sessions de formation et des interventions diverses.
Après avoir dispensé des centaines de formations, développé une quarantaine de modules e-learning et acquis une solide expertise en tant qu’ingénieur en cybersécurité sur divers projets, il fonde Hexadream.
L’objectif principal ? Rendre une formation de qualité accessible au plus grand nombre.