Aufbau einer Grundlage für ein Cloud Native-Rechenzentrum
Published on 12 Apr 2022

Die Grundlagen für das, was heute als Legacy-Infrastrukturen bezeichnet wird, wurden in den 1990er Jahren gelegt, lange bevor die Informatik zu dem wurde, was sie heute ist. In einem Legacy-Design sind die Speicher-, Rechen- und Netzwerkfunktionen in einzelne Silos unterteilt, deren Verwaltung ein hohes Maß an technischem Fachwissen erfordert. Aufgrund des enormen Verwaltungsaufwands kann der Einfluss dieser Legacy-Systeme auf die IT-Innovation erstickend sein. Im Laufe der Jahre sind die Kosten für die Wartung dieser Legacy-Systeme kontinuierlich gestiegen.
Das mit Komplexität belastete Paradigma der dreistufigen Infrastruktur ist nahezu das Gegenteil der aktuellen Informationstechnologie. Darüber hinaus wirkt sich dieser Ansatz mit Sicherheit negativ auf die Agilität aus, die Unternehmen bei der Implementierung von Cloud-nativen Lösungen anstreben.
Heutzutage werden durch hyperkonvergente Infrastrukturen (häufig als HCI bezeichnet) alte Legacy-Setups schnell durch konsolidierte, leicht zu verwaltende Systeme ersetzt, die dem steigenden Bedarf an Cloud-basierten Apps und automatisierten Prozessen gerecht werden.
Wesentliche Elemente eines Cloud-native-Geschäfts
Container, Kubernetes und ein umfassendes Ökosystem aus Cloud-nativen Technologien verschaffen Unternehmen einen Wettbewerbsvorteil, indem sie die Agilität, Effizienz und Markteinführungsgeschwindigkeit des Unternehmens verbessern.
Werfen wir einen kurzen Blick auf die Voraussetzungen, die für die Umwandlung einer Organisation in ein Cloud-natives Unternehmen erforderlich sind.
Container ermöglichen die Konstruktion von Anwendungen als Gruppierungen überschaubarerer und modularerer Teile.
Container bieten eine bessere Portabilität in einer Vielzahl von Kontexten, schnelle Skalierung, unterbrechungsfreie Updates und verbesserte Ressourceneffizienz bei einer Verpackung, die unabhängig vom zugrunde liegenden Anbieter ist. Container führen eine ähnliche Aktion wie virtuelle Maschinen aus, indem sie Programme aus der direkten Interaktion mit dem zugrunde liegenden Betriebssystem entfernen. Aus diesem Grund ist es möglich, sie in Hybrid- und Multi-Cloud-Systemen zu nutzen, indem eine Content-Management-Plattform wie Kubernetes verwendet wird.
Die containerisierten Workloads werden von Kubernetes orchestriert.
Kubernetes hat eine enorme Entwicklung durchlaufen und sich zur herausragenden Container-Orchestrierungstechnologie entwickelt. Dies wird erreicht, indem eine Schicht IT-Infrastruktur bereitgestellt wird, die sowohl programmierbar als auch skalierbar ist. Kubernetes kann den hohen Wartungsaufwand früherer Einstellungen erheblich verringern. Da es außerdem sowohl in lokalen als auch in öffentlichen Clouds funktionieren kann, bietet es ein hohes Maß an Flexibilität für Unternehmen, die beide Formen der Cloud-nativen Infrastruktur nutzen.
Herausforderungen bei der Bereitstellung von Kubernetes vor Ort und Cloud-native-Apps
Die Aufrüstung von Rechenzentren ist in der heutigen Welt ein absolutes Muss. Aus rechtlichen Gründen, aus Kostengründen oder aus einer Reihe anderer Gründe müssen Unternehmen Anwendungen manchmal vor Ort betreiben, und gelegentlich müssen sie bestimmte Anwendungen am Rand des Netzwerks ausführen. Wenn es jedoch darum geht, Kubernetes-Umgebungen in den eigenen Rechenzentren eines Unternehmens einzurichten, stehen Unternehmen häufig vor schwierigen technologischen Herausforderungen.
Laden Sie das Whitepaper von Nutanix herunter, um mehr über den Aufbau der Grundlage für Cloud Native Datacenter ausschließlich bei Whitepapers Online zu erfahren.