Unternehmen, die in ihren Märkten mittels digitaler Innovationen die Nase vorn haben wollen, benötigen eine durchgängige Datenkultur. Traditionelle Datenmanagementinfrastrukturen sind jedoch starr und nicht in der Lage, verschiedene Datentypen zu vereinen. Dann ist da die Herausforderung, wachsende Datenvolumen zu speichern, zu managen und zu sichern sowie Erkenntnisse daraus zu ziehen. Hinzu kommen Daten in der Cloud und die Tatsache, dass Daten immer näher an die Applikation und den Nutzer heranrücken. Alles zusammengenommen ergibt sich daraus eine Brutstätte für schlecht verwaltete Datenbanken, ein hässlicher Fleck auf der ansonsten sauberen Weste von Datenanalysen.
Diejenigen Unternehmen, die nicht in der Lage sind, auf akkurate, zeitnahe, relevante und verlässliche Informationen aus ihren Daten zuzugreifen, betreiben eine veraltete Rechenzentrumsinfrastruktur, die auf firmeneigenen SAN-Arrays und Storage-Fabric-Netzwerken beruht. Diese hardwarezentrierten Rechenzentren sind das grundlegende Problem. Demgegenüber braucht es eine Datenservices-Plattform, die eine offene Architektur unterstützt und maximal verfügbar ist. Sie sorgt für einen Geschäftsbetrieb mit kontinuierlichem Zugriff auf und Erkenntnisse aus den Daten, während die Infrastruktur selbst für die Nutzer im Endeffekt unsichtbar ist.
Offene Architektur
Um Daten in einen Wettbewerbsvorteil zu verwandeln, müssen Unternehmen verstehen, dass Daten aus verschiedenen Geschäftsbereichen kommen und auf drei primäre Arten organisiert werden müssen — als relationale Datenbanken, unstrukturierte Daten und Hochgeschwindigkeitsdaten. Daten zu sammeln führt aufgrund ihrer Vielfalt oftmals zu neuen Silos oder individuellen Repositorys. Außerdem gibt es keine Verbindung zwischen diesen Datenquellen, da sich Speicherformate und Datentypen unterscheiden.
Einmal organisiert lassen sich Datensilos durch die Wahrung offener Standards, die Übernahme offener Paradigmen, durch ein Angebot an Wahlmöglichkeiten sowie die Vermeidung des Lock-in-Effekts, also der Abhängigkeit von einem bestimmten Anbieter, für Nutzer, Kunden und Administratoren gleichermaßen beseitigen. Das hilft dem Unternehmen, erstens alle Datentypen einzubeziehen und zweitens die Daten zu konsumieren — oder in diesem Fall aus den Daten Erkenntnisse zu gewinnen, um bessere geschäftliche Entscheidungen zu treffen. Dieses Modell unterstützt außerdem die API-zentrierte IT-Ökonomie. Diese sorgt dafür, dass sich Daten unabhängig von ihrer Quelle sammeln lassen, da eine Software-Interoperabilität über generische Endpunkte gegeben ist.
Maximal verfügbare Infrastruktur
Um die Infrastruktur maximal verfügbar zu machen, braucht es Systeme, die in der Lage sind, sich selbst zu heilen, Schreibpfade dynamisch an die Anforderungen der jeweiligen Arbeitslast anzupassen und dynamisch Datentransformationen auf Basis von Heuristiken vorzunehmen. Beim Design dieser Umgebungen ist Disziplin notwendig. Denn das Mappen von Anwendungen auf bestimmte Ressourcen und ihr Layout sind wichtig und müssen die Themen Datensouveränität oder die Affinität, Verfügbarkeit und Redundanz eines Workloads von Anfang an berücksichtigen.
Ein zentrales Management vereinfacht die Administration maximal verfügbarer Daten und zeichnet sich durch durchgängige Funktionalitäten zu Alarmwesen, Ereignissen und Monitoring aus. Dadurch rücken die Daten näher an die Analyseanwendungen und -funktionen heran — genau dorthin, wo sie sein sollten.
Doch was ist damit gemeint? Bei traditionellen Datenbankumgebungen kann ein Applikations- oder Datenbank-Update zu systemübergreifenden Problemen führen. Hier machen Datenbankadministratoren (DBAs) einen Snapshot vor jedem Update, um im Notfall zum Idealzustand zurückkehren zu können. Mit einer maximal verfügbaren Datenarchitektur entfällt die Notwendigkeit dafür komplett. Sämtliche Updates von zugrundeliegenden Infrastrukturen für Unternehmensdaten finden kontinuierlich und ohne Unterbrechung der Services statt. Auch das Hinzufügen von Speicher- oder Rechenkapazitäten oder das Einspielen von Softwareupdates verlaufen dadurch reibungslos und ohne Unterbrechung der Datenservices.
Dateninfrastrukturen unsichtbar machen …
Eine wettbewerbsfähige Dateninfrastruktur ist im Endeffekt unsichtbar, vertrauenswürdig und autonom. Sie ist vertrauenswürdig, weil sie Daten- und Anwendungssicherheit, Datenschutz und Daten-Governance sowie Compliance bereits berücksichtigt. Sie ist autonom, weil sie die Einfachheit der Cloud mit Benutzerkomfort bei Provisionierung, Management und Patchen von Datenbanken vereint.
Traditionelles Datenbankmanagement erfolgt auf Basis eines fehleranfälligen Silo-Ansatzes zu Provisionierung oder Klonen, was nicht nur zeitraubend ist, sondern auch die Fehlerbehebung äußerst erschwert. Eine unsichtbare Datenstruktur hingegen verleiht die Gewissheit, dass die Umgebung mit Automatisierungstools integriert ist, und befähigt Datenbankadministratoren dazu, einen Selbstservicekatalog zu erstellen und kontrolliert zu delegieren, wer wozu (Provisionierung, Klonen, Patchen etc.) wie viel (Speicher, RAM, vCPU) und für wie lange (Ressourcen-Spin-Down) Zugang bekommt.
Unternehmen haben in einer digital vernetzten Welt nicht die Zeit oder Ressourcen, diese Funktionen manuell auszuführen. Es gibt schlicht zu viele bewegliche Teile (Applikationen). Datenbankadministratoren müssen heute in der Lage sein, eine bestimmte Datenbankinstanz zu kopieren oder zu verschieben und zu jedem beliebigen Zeitpunkt Klone davon zu erstellen.
… und aufbauen
Um eine unsichtbare Dateninfrastruktur aufzubauen, müssen Unternehmen einen softwarezentrierten und -gesteuerten Ansatz für Datenservices verfolgen. Sie können das Speichern und Konsumieren von Daten mithilfe einer offenen und opaken Plattform für den Betrieb von Datendiensten, die sich sowohl on-premises als auch in der Public Cloud implementieren und bereitstellen lässt, einheitlich gestalten. Zu diesem Zweck müssen sie Werkzeuge hinzufügen, mit deren Hilfe sich eine unsichtbare Managementschicht zur Orchestrierung der Datenbankfunktionen erstellen lässt.
Durch die Nutzung von integrierter Datenbankmanagementsoftware können Unternehmen das Datenbankmanagement automatisieren und vereinfachen. Sie profitieren von einer einfachen Bedienung auf Knopfdruck („one-click simplicity“) und unsichtbaren Operationen für die Provisionierung von Datenbanken und das Management ihres Lebenszyklus sowie von Datenkopien. Im Kern ebnet eine solche Plattform den Unternehmen den Weg, um von den Vorteilen zu profitieren, die dem Konzept von Datenbanken als Service (DBaaS) inhärent sind.
Der Gewinn dieses Ansatzes besteht für die Unternehmen in einer durchgängigen Umgebung für strukturierte und unstrukturierte Daten, welche die gesamte verfügbare Speicherkapazität nutzen kann, und einer Anwendererfahrung nach Art der Cloud inklusive Automatisierungs- und Selbstbedienungsfunktionen, die alle über APIs aufgerufen werden. Ist die Plattform einmal implementiert und bereitgestellt, können Unternehmen das DevOps-Konzept übernehmen und dadurch agiler werden. Gleichzeitig können sie ihre bestehenden Unternehmensapplikationen beibehalten, die Provisionierung neuer Dateiserver, Repositorys für Objektdaten und Datenbanken beschleunigen und deren Wiederherstellung vereinfachen. Die Anwender einschließlich der Datenbankadministratoren haben dadurch viel mehr Möglichkeiten und sind in einem viel geringeren Ausmaß von den Infrastruktur- und Betriebsteams abhängig.