Vos clients et partenaires en ligne sont-ils insatisfaits ? Surveillez vos infrastructures de bout-en-bout. Et ne manquez pas ce débat sur Solutions Datacenter Management, à Paris Porte de Versailles, le 23 mars prochain : Superviser ses réseaux pour réduire l’impact sur les clients.
La disponibilité des services en ligne et leurs performances deviennent le cheval de bataille des DSI. Elles conditionnent la satisfaction et la fidélité des clients-internautes.
« L’entité sécurité monte en puissance dans la DSI. Elle détient davantage de pouvoir et de dotations financières. Et elle tient à avoir une visibilité continue des flux de données », perçoit Laurent Theaudin, Responsable des solutions réseaux de Wavetel.
Le responsable de la sécurité n’est plus le seul à vouloir garder un œil sur l’état du réseau et sur les déplacements de fichiers : l’équipe e-marketing/e-commerce, la direction financière, ainsi que le responsable des données numériques (ex-CIL, correspondant informatique et libertés) jugent tout aussi essentielle cette visibilité permanente.
Mais, pour mesurer leurs performances respectives, chacun a ses propres critères et exige son propre tableau de bord à présent.
Pas de maîtrise sans visibilité en profondeur
« On se contentait d’analyser le trafic Nord-Sud autrefois. Maintenant, on doit descendre plus bas, examiner le trafic inter-VM avec des outils adaptés quel que soit l’environnement (VMware, MS-Hyper-V, OpenStack, etc…). Ce trafic inter-VM reste trop souvent une inconnue ; or, il a un impact sur les performances et sur la sécurité. Il convient de vérifier si les flux entre machines virtuelles, sont légitimes ou pas. Sans cette visibilité, on ne maîtrise rien », affirme-t’il.
Face à l’évolution des charges applicatives, virtualisées, déplacées sous forme de conteneurs ou externalisées chez un prestataire cloud, une nouvelle surveillance s’impose.
La solution de supervision à mettre en musique mélange plusieurs technologies. Certaines sont taillées pour l’oeil humain, d’autres pour l’analyse en temps réel, par logiciels.
Mais quelle visibilité des flux de données peut-on réellement obtenir en cas d’outsourcing partiel ou complet vers le cloud public ?
« Tout bouge au niveau d’un cloud. Un problème de performances peut survenir à cause d’une VM que l’exploitation a déplacé d’un datacenter vers un autre », explique Philippe Marsot, fondateur d’ICT Advisor.
La migration vers le cloud est souvent progressive, un architecte réseau devrait être impliqué lors de chaque étape, recommande-t’il :
« Il faut examiner toute la chaîne de bout-en-bout. Et tester tous les scénarios de reprise d’activités. La réplication peut être à l’origine de certains problèmes de performances car, en cas de panne, les flux ne vont pas traverser les mêmes équipements. »
Cloud hybride et suivi des performances
Selon lui, on a parfois l’impression d’avoir la même configuration sur deux sites redondants, mais un simple écart de version de firmware entre deux équipements réseaux peut dégrader la qualité de services perçue par les clients.
« En cloud hybride, le suivi des performances est encore plus complexe. Obtenir le même niveau de performances et la même disponibilité qu’en interne exige de s’abonner à plusieurs services optionnels, souvent coûteux. Le système de monitoring applicatif doit pouvoir suivre toutes les transactions, les décomposer soigneusement, pour examiner chaque partie de l’application, y compris l’authentification des utilisateurs. Car les prestataires ne s’engageront pas sur des niveaux de services applicatifs si la performance globale dépend de services d’annuaires encore hébergés par l’entreprise et interrogés trop fréquemment. »
Pour partager davantage de bonnes pratiques, rendez-vous le 23 mars, Porte de Versailles, à l’occasion du débat : Superviser ses réseaux pour réduire l’impact sur les clients