Hexadream | Learn, Hack, Secure./IA & Cybersécurité : Comprendre, Construire, Attaquer, Défendre

  • 799 € ou 2 paiements mensuels de 400 €

IA & Cybersécurité : Comprendre, Construire, Attaquer, Défendre

Dans cette formation, nous allons adopter une approche complète : comprendre, construire, attaquer et défendre ; à travers l'écosystème de l'intelligence artificielle générative appliquée à la cybersécurité.

Nous verrons comment les modèles deep learning fonctionnent, en particulier les LLMs, comment les agents autonomes basées sur les LLM sont développés, comment les compromettre, comment détecter les menaces qui les ciblent, et comment les sécuriser en production et bien plus encore...

Des use cases passionnants vous attendent : développement d'agents CTI, Pentest et analyse d'événements de sécurité (SOC), analyse de malware en passant par le test d'intrusion des applications LLM et leurs sécurisation.

  • Durée : 4 Jours

  • Jours : Chaque Samedi du 02 au 23 Mai

  • Horaire : 09H à 12h & 14h à 17h (Toute la journée)

  • Format : Session live avec accès au replay

  • Labs : + de 30 Labs & Quizz

Objectifs de la formation

L'objectif principal est de vous rendre opérationnel sur la sécurité des systèmes d'intelligence artificielle générative, à travers les axes suivants :

  • Comprendre le fonctionnement des LLMs, des agents autonomes et des protocoles autours tel que MCP ou Agent2Agent (A2A).

  • Développer vos propres applications LLM, agents de sécurité et serveurs MCP avec une approche engineering orientée sécurité.

  • Manipuler les IA Agentic Pattern (Incluant les Agent Skills).

  • Exécuter des attaques réelles contre des systèmes GenAI : prompt injection, jailbreaks, exploitation MCP, manipulation d'agents et supply chain attacks.

  • Identifier et classifier les menaces IA.

  • Conduire un pentest IA complet avec méthodologie, outillage et restitution client en s'appuyant sur l'OWASP LLM Top 10 et MITRE ATLAS.

  • Automatiser vos workflows SOC et CTI.

  • Dévelopez des agents capables d'analyser un event/alerte de sécurité et faire de l'enrichissement de façon autonome.

  • Détecter les attaques contre les systèmes IA en temps réel grâce à des règles de détection opérationnelles.

  • Construire le cadre de gouvernance IA de votre organisation en conformité avec NIST AI RMF, EU AI Act et ISO 42001.

Formations Certifiantes

Toutes nos formations "Bootcamps" sont certifiantes

Toutes nos formations "bootcamps" sont certifiantes. Vous pourrez obtenir une certification suite à une évaluation à la fin de la formation.

Ces certifications seront vérifiables sur notre plateforme ou sur la plateforme Badgr.

Prérequis

Pour bien suivre cette formation

Pour suivre cette formation dans les meilleures conditions, vous devez avoir les bases suivantes :

  • Avoir des notions fondamentales en cybersécurité : comprendre ce qu'est une vulnérabilité, un vecteur d'attaque, un pentest ou un SOC.

  • Être à l'aise avec Python au niveau intermédiaire : savoir écrire un script, appeler une API et manipuler des données JSON.

  • Avoir utilisé au moins une fois un LLM (ChatGPT, Claude, Copilot).

  • Disposer d'un laptop capable de faire tourner un environnement Python local et d'accéder à GitHub Codespaces.

  • Avoir une curiosité réelle pour l'IA : ce programme avance vite, l'envie d'expérimenter est aussi importante que le niveau technique.

Plan de la formation

Fondamentaux du Machine Learning et du Deep Learning

  • Comprendre la différence entre Machine Learning classique, Deep Learning et IA générative, et ce que chaque paradigme change en termes de surface d'attaque

  • Maîtriser la classification linéaire, la modélisation de distributions et la modélisation générative pour comprendre comment les modèles apprennent et peuvent être trompés

  • Appréhender le Reinforcement Learning et son rôle dans le fine-tuning des LLMs (RLHF)

  • Comprendre le Language Modeling et l'architecture Transformer : tokenisation, attention, prédiction du prochain token, Embeddings contextualisés

  • Identifier les différences fondamentales entre l'entraînement et l'inférence d'un LLM et ce que ça implique pour la sécurité en production

Développer sa première application LLM

  • Développer une application LLM fonctionnelle

  • Comprendre quand utiliser un framework (Ex. LangChain ou LlamaIndex)

  • Maîtriser l'API OpenAI / Anthropic / Ollama : structure des requêtes, gestion des tokens, paramétrage

  • Identifier les premières surfaces d'attaque d'une application LLM simple

  • Poser les bases du lab personnel

Prompt Engineering : Maîtriser le langage des LLMs

  • Introduction à l'in-context learning : zero-shot, one-shot, few-shot

  • Construire des chaînes de raisonnement (chain-of-thought) pour des tâches de sécurité complexes

  • Sensibilité et et design de prompts robustes

  • Créer une bibliothèque de prompt templates réutilisables pour les workflows SOC : triage d'alertes, enrichissement IOC, génération de rapport

RAG : Retrieval Augmented Generation

  • Distinguer les embeddings statiques des embeddings contextuels

  • Construire un pipeline RAG complet : chunking, indexation, stockage vectoriel, retrieval, augmentation du prompt

  • Identifier les risques sécurité et confidentialité spécifiques au RAG

  • Comprendre comment une injection dans les données indexées (RAG poisoning) peut corrompre toutes les réponses du modèle

  • Projet pratique : chatbot CTI interne basé sur RAG, indexant un corpus de rapports de menaces pour répondre en langage naturel

IA Conversationnelle : Votre premier agent CTI

  •   Comprendre la différence architecturale entre un chatbot simple et un agent conversationnel moderne.

  • Implémenter la gestion du contexte de conversation

  • Développer un agent conversationnel CTI

  • Identifier les risques de sécurité liés à la mémoire persistante : injection via l'historique, exfiltration d'informations stockées en contexte

  • Tester la robustesse de l'agent

Agents IA Autonomes pour la Cybersécurité

  • Comprendre la boucle agentique

  • Développer votre premier agent de sécurité autonome : scanner, analyseur de logs, ou agent de triage d'incidents

  • Maîtriser l'orchestration des agents, des chaînes et des outils

  • Observer, déboguer et auditer les décisions de l'agent en temps réel

  • Appliquer les principes de sécurité by design

Systèmes Multi-Agents pour la Cybersécurité

  • Concevoir l'architecture d'un système multi-agents : orchestrateur, agents spécialisés, protocoles de communication inter-agents

  • Construire un Web Scanner Agent coordonnant plusieurs outils

  • Développer un Threat Model Agent capable de générer automatiquement des threat models pour des architectures décrites en langage naturel

  • Créer un système d'analyse de malwares multi-agents

  • Identifier les risques spécifiques aux systèmes multi-agents

Model Context Protocol (MCP) : Architecture, Sécurité et Attaques

  • Comprendre l'architecture MCP : client , serveur et écosystème.

  • Construire votre propre serveur MCP et le sécuriser

  • Identifier les inconvénients architecturales du protocole MCP

  • Exécuter les principales attaques MCP : tool poisoning, rug pull attack, cross-MCP attack, exfiltration via tool calls

  • Déployer des contre-mesures

OWASP LLM Top 10 : Cartographie complète des risques IA

  • Maîtriser les 10 vulnérabilités OWASP LLM 2025 (LLM01 à LLM10) : mécanisme d'exploitation, conditions d'apparition, impact réel

  • Analyser et Exploiter des cas réels pour chaque catégorie.

  • Cartographier la surface d'attaque d'une application LLM selon l'OWASP et identifier les composants à risque

  • Comprendre la correspondance entre OWASP LLM Top 10 et MITRE ATLAS pour enrichir les rapports d'audit

  • Construire une checklist d'évaluation sécurité LLM actionnable basée sur le Top 10

Framework Multi-Agents pour le Pentest IA

  • Architécturer un framework de pentest multi-agents

  • Déployer des agents offensifs capables d'automatiser les tests de prompt injection, de jailbreak et de discovery

  • Utiliser l'IA comme assistant d'attaque : LLM-assisted vulnerability analysis, génération automatique de payloads, adaptation aux défenses détectées

  • Définir le scope, les rules of engagement et produire un rapport de pentest IA structuré prêt à livrer à un client

Sécurité des Supply Chain IA

  • Cartographier la surface d'attaque de la supply chain IA

  • Comprendre une attaque de model backdoor

  • Mettre en place un pipeline MLOps sécurisé : tracking, model registry, access control et audit des artifacts

  • Signer et vérifier l'intégrité d'un modèle, construire un AIBOM (AI Bill of Materials) pour l'inventaire et la traçabilité

Threat Modeling et Méthodologie de Pentest IA

  • Définir le scope d'une évaluation IA : identification des composants (model, app, infra, agent layer), objectifs d'attaque, rules of engagement

  • Construire un threat model pour une application GenAI

  • Utiliser les outils de red teaming IA : Garak (NVIDIA), PyRIT (Microsoft), Promptfoo et savoir quand automatiser avec des agents

  • Produire un rapport de pentest IA structuré avec preuves, corrélation OWASP LLM / MITRE ATLAS, CVSS adapté et roadmap de remédiation

Gouvernance IA et Conformité Réglementaire

  • Appliquer le NIST AI Risk Management Framework (AI RMF 1.0) : les quatre fonctions GOVERN, MAP, MEASURE, MANAGE à votre contexte

  • Comprendre les obligations de l'EU AI Act : classification par niveau de risque, calendrier de conformité, responsabilités des déployeurs

  • Utiliser ISO/IEC 42001 comme base pour un système de management de l'IA auditable et certifiable

  • Construire une AI Security Policy complète : acceptable use, processus de validation des nouveaux composants IA, AI Incident Response

  • Réaliser un audit de maturité sécurité IA de votre organisation et restituer les résultats aux décideurs en termes de risque business

Une passion comune

Hamza KONDAH

Hamza Kondah, fondateur de Hexadream Academy, partage sa passion pour la cybersécurité depuis plus de douze ans à travers des webinars, des sessions de formation et des interventions diverses.

Après avoir dispensé des centaines de formations, développé une quarantaine de modules e-learning et acquis une solide expertise en tant qu’ingénieur en cybersécurité sur divers projets, il fonde Hexadream.

L’objectif principal ? Rendre une formation de qualité accessible au plus grand nombre.