Der Heilige Gral für jeden CIO ist es, Benutzer und Kunden gleichermaßen zufrieden zu stellen, indem Dienste und Anwendungen schnell bereitgestellt werden. Er bleibt jedoch für viele unerreichbar, solange ihnen alte Infrastrukturen mit hohem Wartungsaufwand Zeit und Ressourcen stehlen und wenig Raum für Innovation sowie Entwicklung und Bereitstellung neuer Anwendungen lassen.
In einer Welt monolithischer Anwendungen, die sich bestenfalls alle zwei oder drei Jahre weiterentwickelten, war es kein großes Problem, Hardware- und Software-Ressourcen für den Betrieb einer neuen Anwendung zusammenzustellen. Es war einfach, ein paar neue Maschinen zu beschaffen, ein Betriebssystem (alt oder neu) hinzuzufügen, die Maschinen zu vernetzen und ihnen Storage zuzuweisen. Grund zur Sorge bestand nicht, da die IT-Abteilung genügend Zeit hatte und das Tempo vorgeben konnte.
Probleme gab es erst, wenn die neue Anwendung erfolgreich war und die Anzahl der Benutzer stark anstieg. Dann musste die einmal eingerichtete Umgebung verworfen und von vorne begonnen werden. Plötzlich waren größere Maschinen, größere Festplatten, größere Bandbreite und mehr Personal erforderlich, um eine neue Infrastruktur zusammenzustellen und in Betrieb zu nehmen, die den neuen Anforderungen gerecht werden konnte.
Agiler dank Distributed Computing
Man braucht kein Genie zu sein, um festzustellen, dass dieser Ansatz angesichts der heute herrschenden Anforderungen unrealistisch ist. Er ist einfach zu teuer und es mangelt ihm an flexiblen Reaktionsmöglichkeiten. Er kann sogar gefährlich sein. Denn den unterbrechungsfreien Betrieb immer mächtigerer und komplexerer Silo-Umgebungen sicherzustellen, ist so schwierig geworden, dass der Schutz dieser Umgebungen den Verantwortlichen inzwischen alles abverlangt – sowohl an Können als auch an zeitlichen und finanziellen Ressourcen.
Größer ist eben nicht immer gleich besser. Wenn Sie auf größere Maschinen setzen, besteht die Gefahr, dass Sie nach einem Ausfall nicht kurzfristig neu starten können. Und wenn Server ausfallen, können Benutzer nicht arbeiten und Kunden keine neuen Bestellungen aufgeben. Und über Skalierbarkeit in einer Welt, in der das Internet mit Millionen von Benutzern und seinem rasanten Veränderungstempo alles auf den Kopf gestellt hat, brauchen wir gar nicht erst zu sprechen.
Der Gedanke, dass sich alle IT-Probleme mit immer größeren Maschinen lösen lassen, hat sich inzwischen als Illusion erwiesen, sowohl aus finanzieller Sicht als auch in Bezug auf die Skalierbarkeit. Daher ist es wichtig, die Infrastruktur aus einer neuen Perspektive zu überdenken. Gefragt sind heute Skalierbarkeit und Reaktionsfähigkeit, aber auch einfache Wartung und Verwaltung. Die Lösung dafür sind VERTEILTE Architekturen.
Die großen Cloud-Anbieter haben gezeigt, dass ein verteilter Ansatz der Schlüssel zur Bewältigung der Probleme ist. Sie verlassen sich auf eine breit verteilte Infrastruktur mit Diensten, die auf verteilter Software basieren und auf standardisierten Servern bereitgestellt werden, die günstiger sind und sich nach Belieben um weitere ergänzen lassen. Wenn neue Anforderungen auftreten - höhere Leistung, Bereitstellung einer neuen Anwendung usw. - können diese durch Hinzufügen neuer Bausteine im Sinne eines reinen "Scale Out" erfüllt werden. Um kontinuierlich besser zu werden, müssen nur grundlegende, weitere Elemente hinzugefügt werden, die von der Software, die das Ganze zusammenhält, sofort erkannt und in die Gesamtarchitektur aufgenommen werden.
Das volle Potenzial von Scale-out-Architekturen freisetzen
Der erste Vorteil von Scale-Out-Architekturen ist, dass sie Performanceprobleme beheben und Ausfallsicherheit schon von Haus aus mitbringen. Durch die Verwendung einer Plattform, die auf verteilten Diensten basiert, werden Engpässe alter Infrastrukturen beseitigt, die zu Leistungseinbußen führen können. Zudem macht der Scale-out-Ansatz die Infrastruktur auch per se tolerant gegenüber dem Ausfall einzelner Komponenten.
Das ist auch das, was Nutanix im Vergleich zu allen Mitbewerbern auszeichnet: Alle Dienste der Plattform sind für verteilte Infrastrukturen ausgelegt, unabhängig davon, ob es sich um Basisdienste, die Prism-Administrationskonsole, Speicherdienste, Datenbanken als Dienst, Sicherheit oder weitere Services handelt. Damit kann das IT-Team ohne Sorgen um Skalierbarkeit und Resilienz schnell die für die digitale Transformation des Unternehmens erforderlichen Services bereitstellen.
Übrigens bietet dieser verteilte Ansatz für Hyperkonvergenz CIOs auch zusätzlichen finanziellen Spielraum für Investitionen in neue Projekte. Denn Systeme und Lizenzen müssen nicht bereits vorab für eine lediglich prognostizierte Auslastung gekauft werden, sondern können erst bei tatsächlichem Bedarf angeschafft und schnell hinzugefügt werden. Zudem lassen sich die Kosten für Betrieb und Wartung erheblich reduzieren.