« Lors d’un trajet entre Paris et Versailles, le tableau de bord de votre automobile n’est pas indispensable. Mais pour traverser la France, il devient précieux avec sa jauge d’essence, la température de l’eau, la vitesse actuelle, le kilométrage parcouru… Piloter l’infrastructure à partir des flux réseaux donne un tableau de bord comparable à la production. En surveillant l’ensemble des interconnexions serveurs et réseaux, on sait alerter en cas de dégradation de performances et vérifier tout ce qui a été fait pour en arriver là », vulgarise Daniel Crowe, le Directeur Régional France et Europe du Sud de Netscout Systems.
Les exploitants et experts DevOps seraient encore trop souvent myopes ; ils ont du mal à visualiser l’ensemble des ressources impliquées dans les applications virtualisées ou déployées sur le cloud. Cela est dû à la complexité actuelle des interconnexions de serveurs et de réseaux (LAN, SAN, WAN). Du coup, lorsqu’une dégradation de performances est constatée, il devient complexe d’en trouver la cause réelle.
Dépannage à très haut débit
La migration des applications vers le cloud et l’évolution des infrastructures de datacenters vers les très hauts débits (25, 40, 100 Gbps) sont menées en parallèle. C’est plutôt une bonne nouvelle mais cela complique la tâche des dépanneurs et des administrateurs chargés d’en optimiser les performances.
En posant des sondes passives de dernière génération sur les réseaux, ces garants de la qualité de services recueillent les données circulant entre chaque serveur. Ils peuvent mesurer les entrées-sorties de chaque machine virtuelle, grâce aux sondes virtuelles placées au niveau de l’hyperviseur. Cette traçabilité continue des flux permet d’expliquer ce qui se passe réellement sur le réseau.
« De nombreux flux se croisent, avec les entrées-sorties des VM. Nous offrons aux informaticiens une visibilité au plus près du réseau, afin d’interpréter sans interférer avec les données. Nos tableaux de bord précisent l’état des ressources de la production. Ils aident à distinguer d’où vient le problème, du code d’une application ou d’une cyber-attaque », précise le manager de Netscout Systems.
Son entreprise a quasiment triplé sa taille après quatre rachats menés durant l’été 2015 : Arbor Networks, une partie de Fluke Networks, Tektronix Communications et VSS Monitoring ont fait l’objet d’une transaction globale d’environ 2,3 milliards de dollars. Netscout intervient désormais sur la garantie de service, sur la sécurité IT (anti-DDoS) et le big data pour interpréter les flux des données captées, et offrir une visibilité aux administrateurs. Sa nouvelle plateforme InfiniStreamNG combine ces trois axes autour de sondes connectées en permanence (1U, 2U ou 3U).
Exploration fine et conformité des SLA
Les services d’infrastructure (DNS, LDAP, etc.) sont principalement concernés par cet examen. Les applications et les gestionnaires de données requièrent une exploration plus approfondie, une compréhension plus intimes des classes et des instances exécutées.
« Le prix d’entrée d’une sonde de nouvelle génération varie de 70 000 à 300 000 dollars, en fonction des volumes de flux. Nous en installons une par datacenter en général avec la plateforme de gestion NGeniousOne. Les clients sont des groupes d’assurance, des banques françaises, mais aussi des industriels, des équipementiers aéronautiques et quelques organisations publiques« , précise-t-il.
Avec son récent service nGeniusPULSE, Netscout réalise des tests synthétiques pour surveiller les applications sur site, hébergées et en mode SaaS, les flux voix-données étant pris en compte. Des interactions sont simulées avec l’application afin de produire des rapports sur la disponibilité et la qualité des services externalisés, et par conséquent sur la conformité des engagements de services.