fbpx

RÉSEAU ET VIRTUALISATION

RÉSEAU ET VIRTUALISATION

Dans ce nouveau monde, la virtualisation permet l’intelligence des infrastructures de centre de données pour passer du matériel au logiciel.

Tous les éléments de l’infrastructure informatique – y compris le calcul, la mise en réseau et le stockage – sont virtualisés et regroupés en pools de ressources. Ces ressources peuvent ensuite être automatiquement déployés, avec peu ou pas d’implication humaine. Tout est
flexible, automatisé et contrôlé par logiciel.

Dans un centre de données défini par logiciel, vous pouvez oublier de passer des jours ou des semaines à provisionner l’infrastructure pour prendre en charge une nouvelle application. Vous pouvez désormais obtenir une application opérationnelle en quelques minutes, pour un temps de rentabilisation rapide.
L’approche définie par logiciel est vraiment un cadre indispensable pour une plus grande agilité informatique et une prestation de services informatiques plus réactive, le tout à moindre coût. C’est la clé du centre de données du futur.

Dans un centre de données défini par logiciel, vous pouvez oublier de passer des jours ou des semaines à provisionner l’infrastructure pour prendre en charge une nouvelle application. Vous pouvez maintenant obtenir une application opérationnelle en quelques minutes, pour un temps rapide
évaluer. L’approche définie par logiciel est vraiment un cadre indispensable pour une plus grande agilité informatique et un service informatique plus réactif livraison, le tout à moindre coût. C’est la clé du dataCenter de l’avenir

L'entreprise a besoin de rapidite

Pour les grandes entreprises, le rythme des affaires est assez fou, et le rythme du changement ne fait qu’augmenter.Tout tourne désormais autour de la capacité de l’informatique à soutenir l’entreprise. Cette nouvelle réalité a de grandes implications pour le réseau.
Lorsqu’une entreprise souhaite épater ses clients avec une nouvelle application, déployer une promotion très compétitive ou emprunter une nouvelle route
sur le marché, il a besoin des services informatiques de support immédiatement

Pour les grandes entreprises, le rythme des affaires est assez fou, et le rythme du changement ne fait qu’augmenter. Tout doit avoir ete fait le jour d’avant. Et tout tourne désormais autour de la capacite de l’informatique à soutenir l’entreprise. Cette nouvelle réalité a de grandes implications pour le réseau. Lorsqu’une entreprise souhaite épater ses clients avec une nouvelle application, déployer une promotion très compétitive ou emprunter une nouvelle route sur le marché, il a besoin des services informatiques de support immédiatement

Les exigences de sécurité augmentent

Les exigences de sécurité augmentent

Tout le monde sait que nous devons faire plus pour éviter des coûts lies aux violations qui mettent des informations sensibles entre les mains des cybercriminels. Et aucune entreprise n’est à l’abri de la menace. Juste prendre en compte certaines des failles de sécurité ces dernières années – des violations qui ont amené géants à genoux. De la banque de soins de santé et d’investissement au commerce de détail et au divertissement, toutes les entreprises sont désormais prises dans la même bataille coûteuse pour défendre le réseau.

C’est comme un grand jeu de guerre. Une entreprise fortifie son data center avec un nouveau pare-feu robuste et les cybercriminels se glissent à travers une porte arrière inconnue comme une simple vulnérabilité dans un système client – et s’exécuter de manière sauvage dans les données centre. La stratégie traditionnelle de défense du périmètre doit être mis à jour pour inclure beaucoup plus de protection à l’intérieur le centre de données ainsi.

Les applications doivent se déplacer

L’essor de la virtualisation des serveurs a fait beaucoup de belles choses possible. Dans un grand pas en avant, les candidatures ne sont plus liéesà un seul serveur physique dans un seul emplacement. On peux maintenant répliquer des applications vers un centre de données distant pour la reprise après sinistre, les déplacer d’un centre de données d’entreprise à un autre, ou les faire glisser dans un environnement cloud hybride.

Mais il y a un hic: la configuration du réseau est liée au matériel, donc même si les applications peuvent se déplacer avec une relative facilité, les connexions réseau câblées les retiennent

Software Defined Datacenter

Architectures réseau enracinées dans le matériel ne peut pas suivre avec le SDDC (Software Defined Datacenter)
Le SDDC est l’architecture la plus agile et la plus réactive pour le centre de données moderne, réalisé en déplaçant l’intelligence dans le logiciel pour tous les éléments d’infrastructure. Alors, faisons le point sur où les choses sont aujourd’hui:
✓ La plupart des centres de données exploitent désormais la virtualisation des serveurs pour
la meilleure efficacité de calcul. 
✓ De nombreux centres de données optimisent désormais leurs environnements de stockage grâce à la virtualisation.
✓ Peu de centres de données ont virtualisé leurs environnements réseau. 
Bien que les entreprises capitalisent sur le serveur et le stockage de virtualisation, ils sont confrontés à une infrastructure réseau héritée qui tourne autour du matériel, avec des approches manuelles provisionnées qui existent depuis les premières génération de centres de données.

L'approvisionnement du réseau est lent

Bien que certains processus d’approvisionnement du réseau puissent être cryptes, la mise en réseau définie par logiciel promet
en faire une réalité permanente avec les systèmes basés sur le matériel, il y a aucun lien automatique pour calculer ou virtualiser le stockage. Comme
par conséquent, il n’y a aucun moyen de provisionner automatiquement la mise en réseau lorsque le calcul et le stockage associés sont créés,
déplacés, supprimés ou clonés. Ainsi, le provisionnement du réseau reste lent, malgré l’utilisation d’outils automatisés.
Pendant tout ce temps, la chose qui compte le plus pour l’entreprise – préparer de nouvelles applications pour l’action – est soumis à de fréquentes
retards causés par les processus manuels lents et sujets aux erreurs utilisés pour fournir des services réseau.

Tout cela est assez ironique lorsque vous prenez du recul et que vous envisagez la situation dans son ensemble: les limites des réseaux hérités
relier le monde virtuel dynamique d’aujourd’hui à un Matériel. Le Serveur et l’infrastructure de stockage qui devraient être rapidement réaffectés doivent attendre que le réseau se rattrape. Le pro-visionnement devient alors un grand jeu pressé.

Placement et mobilité de la charge de travail sont limités

Dans les environnements commerciaux en évolution rapide d’aujourd’hui, les applications doivent avoir des jambes. Ils doivent se déplacer librement d’un endroit à un autre. Cela peut signifier la réplication vers une sauvegarde et une restauration hors site centre de données, mouvement d’une partie des données du centre de l’entreprise vers un autre, ou migration vers et depuis un environnement cloud .
La virtualisation des serveurs et du stockage rend ce type de mobilité possible. Mais vous devez être conscient d’un autre problème: le réseau. En ce qui concerne la mobilité des applications, la connexion câblée d’aujourd’hui les silos de réseaux privent les applications de leurs chaussures de course. Charges de travail, même ceux des machines virtuelles, sont liés au matériel et aux topologies du réseau physique. Pour compliquer les choses, les différents centres de données ont différentes approches de mise en réseau services, il peut donc falloir beaucoup de travail pour configurer une application exécutée dans le centre de données A pour des performances optimales dans les données centre B. Tout cela limite le placement de la charge de travail et la mobilité des applications et rend le changement non seulement difficile mais risqué. C’est toujours plus simple – et le plus sûr – laisser simplement les choses telles qu’elles sont.

Les processus de configuration sont manuels, lents et sujets aux erreurs

Au quotidien, les réseaux physiques forcent votre équipe réseau+- a effectuer un grand nombre de tâches manuelles répétitives. Si une ligne de
une entreprise ou un service demande une nouvelle application ou un nouveau service, vous devez créer des VLAN, mapper des VLAN sur des commutateurs et liaisons montantes, créer des groupes de ports, mettre à jour les profils de service et encore et encore. En plus de cela, ce travail de configuration est souvent fait via des CLI maladroites.
La montée en puissance des réseaux définis par logiciel (SDN) est destiné à aider ici en autorisant le matériel contrôlé par programme, mais cela vous laisse toujours avec beaucoup de levage lourd. Par exemple, vous devez toujours construire plusieurs réseaux identiques pour accompagner votre développement, tester, et avoir les équipes de production, et vous n’avez toujours pas la capacité de déployez votre réseau (matériel) en étape de verrouillage avec votre calcul et stockage virtualisés.
Et puis il y a l’autre problème: toute cette configuration manuelle le travail est sujet aux erreurs. En fait, les erreurs manuelles sont la principale cause
des pannes. Les études montrent systématiquement que le plus grand pourcentage d’incidents de réseau – de l’ordre de 32% à 33,3% – est dû à des erreurs de configuration d’origine humaine

Limitations matérielles et verrouillages qui multiplient la complexité et la rigidité

L’approche actuelle de la boîte noire fermée à la mise en réseau – avec systèmes d’exploitation personnalisés, ASIC, CLI et gestion –
complique les opérations et limite l’agilité. Cette vieille approche vous enferme non seulement dans votre matériel actuel, mais aussi dans toutes les
complexités de votre architecture réseau actuelle, ce qui limite la capacité de votre équipe informatique à s’adapter et à innover – ce qui à son tour impose les mêmes limites à l’entreprise elle-même, car l’entreprise ne peut pas évoluer plus vite que l’informatique.
Selon Une étude, «Network Agility Research 2014», par Dynamic Les marchés ont constaté que 90% des entreprises sont désavantagées par la complexité de leurs réseaux – quand, où et quelles applications et quels services peuvent être déployés. Voici quelques conclusions plutôt révélatrices de la
même étude:
✓ Le service informatique apporte, en moyenne, dix modifications au réseau de l’entreprise en 12 mois qui nécessitent une maintenance fenêtre. L’attente moyenne pour les fenêtres de maintenance est 27 jours chacun.
✓ Les entreprises passent un total de 270 jours par an – soit 9,6 mois – en attendant que le service informatique fournisse une nouvelle ou un service amélioré.
✓ Les grandes entreprises ont besoin de beaucoup plus de ces changements et attendre encore plus longtemps pour les fenêtres de maintenance.

Vous ne pouvez pas tirer parti des ressources du cloud hybride

Dans cette optique, les dirigeants prospectifs envisagent d’utiliser des clouds hybrides pour toutes sortes de cas d’utilisation, à partir des données
stockage et reprise après sinistre au développement de logiciels et
essai.

Mais, encore une fois, il y a un problème lié au réseau. Dans leur quête pour passer au cloud, les entreprises sont gênées par le matériel réseau spécifique au fournisseur et la topologie physique. Ces contraintes qui accompagnent les architectures de datacenter existantes peuvent rendre difficile l’implémentation de clouds hybrides. Les clouds hybrides dépendent d’une extension transparente du centre de données local vers une ressource de cloud public, et comment y parvenir lorsque vous ne pouvez pas contrôler le réseau de cloud public pour refléter vos systèmes de mise en réseau matérielle?

Les réseaux ont des défenses inadéquates

De nombreuses cyberattaques largement diffusées ces dernières années partagent une caractéristique commune: une fois à l’intérieur du périmètre du centre de données, un code malveillant s’est déplacé de serveur en serveur, où des données sensibles ont été collectées et envoyées aux cybercriminels.
Ces cas mettent en évidence une faiblesse des centres de données d’aujourd’hui: ils ont des contrôles de sécurité réseau limités pour empêcher les attaques de se propager à l’intérieur du centre de données. Les pare-feu de périmètre sont assez bons pour arrêter de nombreuses attaques, mais pas toutes. Comme l’ont montré les récentes attaques, les menaces continuent de pénétrer dans le centre de données via des points d’accès légitimes.
Une fois à l’intérieur, ils se propagent comme une maladie virale mortelle. Ce problème a été difficile à résoudre en raison des réalités des architectures de réseaux physiques. En termes simples, avec les systèmes de mise en réseau hérités, il est trop coûteux de fournir un pare-feu pour le trafic entre toutes les charges de travail à l’intérieur du centre de données. Avec les réseaux d’aujourd’hui, il est difficile d’empêcher une attaque de se propager latéralement de serveur à serveur en utilisant le trafic est-ouest.
Résumons. À ce stade, j’ai noté que:
✓ Pour rester compétitives, les entreprises ont besoin de l’agilité des centre de données défini par logiciel.

✓ Des architectures de réseaux anciennes bloquent la route au SDDC (Software‐Defined Data Center ).

✓ Les architectures de réseau héritées limitent l’agilité de l’entreprise, laissent les menaces de sécurité incontrôlées et augmentent les coûts. Ces thèmes pointent vers un seul besoin primordial: il est temps de sortir du passé câblé et d’entrer dans l’ère du réseau virtualisé.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

RSS
Follow by Email
Facebook
Twitter
LinkedIn