Mitigation volumétriquePublié le 18 avril 20269 min de lecture
Comment mitiger une attaque DDoS de plus de 100Gbps ?
Une mitigation ddos 100gbps crédible ne se résume pas à un chiffre de capacité. Il faut penser saturation de lien, saturation PPS, CPU, pré-filtrage amont, serveur de filtrage et retour propre du trafic.
Blueprint réseau Peeryx
Du trafic exposé au trafic propre
Un modèle lisible : ingress protégé, mitigation, décision de handoff puis relivraison adaptée à votre topologie.
Le mot-clé mitigation ddos 100gbps attire de gros leads parce qu’il touche un vrai point de rupture. Au-dessus de 100Gbps, beaucoup de designs théoriques cessent d’être crédibles. La capacité affichée ne suffit plus : il faut comprendre comment le trafic entre, où il est dégrossi, ce qui est filtré plus finement, et comment le trafic légitime est renvoyé vers la production.
À ce niveau, la vraie question n’est pas seulement “combien de Gbps pouvez-vous absorber ?”. La vraie question est “comment gardez-vous un service exploitable quand le bruit devient massif ?”. C’est précisément là que l’architecture fait toute la différence.
Pourquoi 100Gbps est une frontière psychologique
100Gbps est une frontière psychologique parce que tout le monde comprend immédiatement ce qu’un tel chiffre veut dire : un port 100G peut être mis en danger, un transit peut être saturé, et un exploitant technique n’a plus le droit de raisonner uniquement en mode “serveur + firewall”.
Même si le résultat réel dépend du burst, du mix de paquets et de la topologie, ce seuil force à parler de ports, de handoff, de mitigation amont et de retour propre du trafic. C’est là qu’un acheteur sérieux commence à distinguer le marketing d’une vraie architecture.
Impact réseau
La discussion passe du simple filtrage à la tenue de l’infrastructure.
Impact opérationnel
Il faut un plan clair avant attaque, pas un improvisé le jour J.
Impact commercial
Le prospect veut comprendre comment son service restera réellement joignable.
Volumétrique vs applicatif : ce n’est pas le même combat
Une attaque volumétrique cherche d’abord à casser le chemin réseau : bande passante, buffers, tables de flux, PPS. Une attaque applicative cherche plutôt à épuiser une logique de service, un proxy ou une ressource métier. Les deux peuvent coexister, mais elles ne se filtrent pas au même endroit.
Quand on parle de plus de 100Gbps, la priorité est presque toujours de survivre au volume et au PPS. Si le lien tombe avant, votre meilleure logique applicative n’a plus aucune utilité.
Le volumétrique se traite d’abord au niveau absorption et tri de masse.
L’applicatif exige ensuite un filtrage plus fin, plus contextuel et plus prudent.
Mélanger trop tôt ces deux niveaux crée soit des faux positifs, soit des coûts CPU inutiles.
Saturation lien, saturation PPS, saturation CPU : trois pannes différentes
Un DDoS ne casse pas un service d’une seule manière. Il peut saturer un lien, remplir un plan de commutation par le nombre de paquets, ou pousser trop loin le coût CPU d’une logique de mitigation trop lourde. C’est pour cela qu’un simple chiffre de capacité n’a pas beaucoup de sens sans architecture.
Saturation lien
Le port ou le transit prend trop de volume avant analyse détaillée.
Saturation PPS
Le nombre de paquets devient le vrai tueur, même si le Gbps semble “supportable”.
Saturation CPU
La pile de filtrage voit le trafic, mais dépense trop de cycles pour rester stable.
Le rôle du pré-filtrage en amont
Le pré-filtrage amont sert à dégrossir. Son rôle n’est pas de prendre seul toute la décision de légitimité, mais de retirer les patterns suffisamment évidents pour que le bruit massif n’atteigne pas les étages les plus chers.
C’est souvent le meilleur rapport coût / efficacité : faire moins passer vers le serveur de filtrage, conserver des liens respirables et garder de la marge pour les cas qui demandent plus d’intelligence.
Le rôle d’un serveur de filtrage
Le serveur de filtrage est l’étage plus précis. Il reçoit un trafic déjà allégé, applique des signatures plus ciblées, garde de la visibilité utile et prépare un retour propre vers la production.
C’est aussi là que l’on peut brancher des logiques plus spécifiques : pré-filtrage custom, moteur XDP, pipeline DPDK, ou filtrage avant proxy applicatif. Bien utilisé, ce serveur n’est pas un simple relais : c’est la charnière entre mitigation réseau et continuité réelle du service.
Le rôle des tunnels et du retour propre du trafic
Mitiger ne suffit jamais. Il faut encore réinjecter un trafic propre là où le client en a besoin, sans casser l’existant. C’est là que GRE, IPIP, VXLAN, BGP over GRE ou cross-connect prennent du sens.
Le bon modèle dépend du contexte : serveur dédié existant, backbone, cluster, proxy ou besoin de conserver les IPs publiques. Le plus important n’est pas le nom du tunnel, mais la cohérence du handoff avec la topologie réelle.
Un bon handoff évite une migration complète imposée par l’anti-DDoS.
Le tunnel fait partie du modèle d’exploitation, pas seulement du transport.
Le retour propre doit être pensé avant l’attaque, pas après la saturation.
Scénario type chez Peeryx : réaliste, propre et viable
Prenons un service de jeu déjà en production sur un dédié existant, avec 2x10G côté client. Lors d’une attaque au-delà de 100Gbps, l’objectif n’est pas de “tout comprendre tout de suite”, mais d’éviter que le bruit atteigne directement la prod.
Le scénario viable consiste à faire entrer les préfixes ou IPs protégées chez Peeryx, à soulager en amont sur les motifs les plus évidents, puis à faire passer le flux résiduel dans un serveur de filtrage dédié. Ce dernier applique des règles plus précises, puis renvoie le trafic propre via GRE ou BGP over GRE vers le serveur du client. La couche finale, proxy ou moteur custom, traite ensuite ce qui demande encore du contexte.
1. Entrée protégée
Les préfixes ou IPs du client arrivent sur l’infrastructure protégée.
2. Dégrossissement amont
Le bruit le plus évident est réduit avant les étages coûteux.
3. Filtrage dédié
Le serveur de filtrage affine la décision et prépare la relivraison.
4. Retour propre
Le trafic légitime repart vers la prod via le handoff adapté.
Erreurs fréquentes
Croire que 100Gbps est uniquement un sujet de bande passante.
Mettre toute la logique dans une seule couche et découvrir trop tard qu’elle ne peut pas tout absorber.
Négliger le retour propre du trafic jusqu’au jour où la prod ne sait plus reprendre le flux légitime.
Sur-filtrer en amont sans baseline fiable du trafic normal.
Acheter une promesse de mitigation sans comprendre le mode de handoff.
FAQ
Une attaque de plus de 100Gbps signifie-t-elle forcément la chute du service ?
Non, mais elle impose une architecture préparée. Sans absorption, dégrossissement et relivraison propre, le risque monte très vite.
Un simple serveur de filtrage peut-il suffire ?
Pas toujours. Il peut être très utile, mais sans soulagement amont il peut lui aussi devenir le point de rupture.
Pourquoi insister autant sur le retour propre du trafic ?
Parce qu’une mitigation n’a de valeur que si le client récupère un trafic réellement exploitable.
Peut-on garder une infrastructure existante ?
Oui, très souvent. C’est justement l’intérêt d’un bon modèle de delivery.
Conclusion
Une mitigation ddos 100gbps sérieuse ne repose pas sur une seule boîte magique. Elle repose sur une chaîne cohérente : absorption, dégrossissement amont, filtrage dédié, puis retour propre vers la bonne cible.
Le bon indicateur n’est donc pas seulement la capacité affichée, mais la capacité à garder le service utilisable quand le bruit devient massif. C’est là que les architectures sérieuses se distinguent.
Ressources
Lectures liées
Pour approfondir le sujet, voici d’autres pages et articles utiles.
Vous voulez cadrer un scénario crédible au-delà de 100Gbps ?
Peeryx peut aider à définir un design lisible : protection amont, serveur de filtrage, modèle de handoff et retour propre du trafic vers une production existante ou une couche custom.