Comment la plateforme SDS (Software-Defined Storage) accélère-t’elle les temps de réponse au point de surpasser les baies de stockage Flash les plus récentes ? L’architecture SDS est un fourre-tout encore opaque pour de nombreux informaticiens. Pour y voir plus clair, nous avons interrogé Ziya Aral, le Chairman et Technologue de DataCore Software. Il dévoile l’organisation des traitements confiés au DPS, le DataCore Parallel Server ; c’est l’une des premières plateformes SDS indépendantes des constructeurs de matériels informatiques, prévue pour la fin 2016.
DCloudNews : Où réside l’innovation principale du Parallel Server de DataCore ?
Ziya Aral : Le DataCore Parallel Server (DPS) apporte un premier changement majeur d’architecture logiciel aux entrées/sorties du stockage de masse, depuis l’ère du mainframe. Le DPS assume la présence en abondance d’unités centrales dans les serveurs multi-cœurs actuels ; ce n’est plus une ressource rare à présent. Le logiciel DataCore Parallel retire leurs chaînes aux cœurs pour leur permettre de travailler en parallèle et de résorber les goulets d’étranglement des Entrées/Sorties. Finies les files d’attente. Les Entrées/Sorties ne sont plus confiées à un serveur dorsal qui agit, en différé, comme une sorte d’ordinateur de stockage. Au lieu de çà, elles sont prises en compte immédiatement, selon leur type, sans re-planification
C’est la raison pour laquelle le débit est si élevé et les délais de latence sont si réduits. En faisant davantage de travail en parallèle, nous délivrons les temps de réponse les plus élevés possibles.
L’architecte des applications peut-il régler les performances de chaque application s’exécutant sur une plateforme SDS ?
Ziya Aral : Certainement, la plateforme permet de régler très précisément les applications. En ce qui concerne le DataCore Parallel Server, c’est une faculté plus transparente, générale et plus naturelle qu’avec d’autres solutions.
Le logiciel SANsymphony de DataCore retient le traitement simultané d’Entrées/Sorties avec un jeu de systèmes parallèles très fin pour créer un nombre arbitraire de moteurs d’Entrées/Sorties adapté aux charges applicatives. Pour sa part, le DataCore Parallel Server consomme autant de ressources CPU disponibles qu’il en faut pour servir toutes les requêtes d’Entrées/Sorties formulées. Il équilibre la capacité globale de la plateforme en fonction de l’ensemble des charges applicatives. C’est une philosophie différente qui requiert peu de réglage pour obtenir des gains de performances significatifs, bien que des paramètres soient disponibles.
Faut-il dorénavant multiplier les cœurs pour optimiser à la fois les entrées/sorties et les calculs ?
Ziya Aral : Pour ce qui concerne le nombre total d’unités centrales à configurer actuellement, avec les générations Intel v3/v4, le prix par cœur est si raisonnable (en comparaison au prix de la mémoire DRAM, des dispositifs de stockage, etc.) qu’il n’y a pas de raison de ne pas maximiser le nombre de cœurs, en particulier sur les serveurs double socket. En général, on note peu de différence entre les processeurs Intel v3 à 12, 14, 16 et 18 cœurs mais une nette différence intervient avec les serveurs double socket à 48, 72 et bientôt 96 CPU logiques. Ces nombreux cœurs à bas prix sont presque toujours utiles, surtout lorsque plusieurs applications sont exécutées sur une même plateforme.
La console d’administration aide-t’elle à implémenter de bonnes pratiques en fonction des applications ?
Ziya Aral : Notre console est toujours en cours de développement. Nous couvrons les fonctions d’administration de base et délivrons des métriques pour les traitements parallèles. Demain, notre intention est d’évoluer précisément dans ce sens.
Le SDS rejoindra-t’il les clouds privés d’entreprise ou bien les infrastructures des prestataires de services cloud ?
Ziya Aral : Clouds public, privé, hybride… Tous ces nuages doivent gérer des entrées/sorties. Personnellement, je ne vois pas de raison pour que le DataCore Parallel Server, ou quelque chose d’approchant, ne fasse pas partie de tout serveur dans un futur proche.