Was ist Virtualisierung?

Was ist Virtualisierung?

Virtualisierung ist eine Kerntechnologie der IT, die eine Softwareschicht namens Hypervisor verwendet, um virtuelle Versionen physischer Computerressourcen wie Server, Speicher, Arbeitsspeicher und Netzwerke zu erstellen. Durch die Trennung von Software und Hardware bündelt und teilt der Hypervisor diese physischen Ressourcen mehreren unabhängigen Umgebungen zu, die jeweils voneinander isoliert sind. Das häufigste Ergebnis dieses Prozesses ist eine virtuelle Maschine (VM) – ein voll funktionsfähiger, softwarebasierter Computer, der sein eigenes Betriebssystem und seine eigenen Anwendungen ausführt, genau wie ein physischer Server.

Durch die Entkopplung von Betriebssystemen und Hardware ermöglicht die Virtualisierung, dass ein physisches System viele virtuelle Maschinen gleichzeitig ausführt. Dies verbessert die Ressourcennutzung, die Skalierbarkeit und die betriebliche Effizienz in Rechenzentren und Cloud-Umgebungen. Es handelt sich um eine grundlegende Technologie, die modernen Cloud-Computing-Plattformen wie AWS, Microsoft Azure, Google Cloud und IBM Cloud zugrunde liegt.

Virtualisierung in der IT-Infrastruktur

Virtualisierung in der IT-Infrastruktur bezeichnet die Abstraktion physischer Computerressourcen wie Server, Speichersysteme und Netzwerke in flexible, softwaredefinierte Umgebungen. Anstatt eine einzelne Anwendung auf einem dedizierten Server auszuführen, können IT-Teams mehrere virtuelle Maschinen auf einem einzigen physischen System erstellen, von denen jede in der Lage ist, ihr eigenes Betriebssystem und ihre eigenen Arbeitslasten auszuführen. Dies ermöglicht eine effizientere Nutzung der Hardware, eine einfachere Skalierbarkeit, ein vereinfachtes IT-Management und einen reibungsloseren Weg zur Cloud-Einführung. Virtualisierung ist ein grundlegendes Element moderner Rechenzentren und unerlässlich für die Unterstützung hybrider Multi-Cloud-Strategien, die Notfallwiederherstellung und die agile Anwendungsentwicklung.

Die Geschichte der Virtualisierungstechnologie


Die Virtualisierung hat die Computerwelt in den letzten sechs Jahrzehnten grundlegend verändert und sich von der gemeinsamen Nutzung von Mainframe-Ressourcen zu modernen Cloud-nativen Architekturen entwickelt. Es begann in den 1960er Jahren, als IBM CP-40 und CP-67 entwickelte und damit das Konzept des Betriebs mehrerer virtueller Umgebungen auf einem einzigen Großrechner einführte (IBM CP/CMS-Geschichte). In den 1970er Jahren führte IBM VM/370 ein und formalisierte damit die Virtualisierung auf System/370, während Unix den Systemaufruf chroot (1979) hinzufügte, der die Prozessisolation ermöglichte und Jahrzehnte später die Containerisierung beeinflusste. In den 1980er Jahren wurde die Virtualisierung über Großrechner hinaus erweitert, beispielsweise mit Tools wie AT&Ts Simultask (1985) und Merge/386 (1987), die es ermöglichten, DOS-Anwendungen auf Unix-Systemen mit Intel 80286/80386-Funktionen auszuführen. In den 1990er Jahren kam die PC-basierte Virtualisierung auf den Markt: Bochs führte die x86-Emulation ein, Connectix Virtual PC wurde 1997 eingeführt und VMware revolutionierte 1999 das Enterprise Computing durch die Einführung effizienter x86-Virtualisierung auf Standardhardware.

In den 2000er Jahren entstanden Virtualisierungen auf Betriebssystemebene durch FreeBSD Jails im Jahr 2000, Xen im Jahr 2003, KVM im Jahr 2006 und Linux Containers (LXC) im Jahr 2008, wodurch die Voraussetzungen für eine schlanke Virtualisierung geschaffen wurden. In den 2010er Jahren revolutionierte Docker die Anwendungsbereitstellung, indem es Container portabel und entwicklerfreundlich machte, während Kubernetes, das 2014 eingeführt wurde, zum Standard für Container-Orchestrierung und skalierbare Automatisierung wurde. Bis 2020 dominierte Kubernetes Containerumgebungen, Docker wurde als Laufzeitumgebung zugunsten von containerd und CRI-O als veraltet abgeschafft, und serverlose Lösungen wie AWS Fargate gewannen an Bedeutung, während Unternehmen Kubernetes in großem Umfang für Produktionsworkloads einsetzten.

Von den frühen Experimenten von IBM bis hin zur Dominanz von Kubernetes in der Cloud-nativen Infrastruktur hat sich die Virtualisierung zu einem Eckpfeiler des modernen Computings entwickelt. Heute treibt es Rechenzentren, Hybrid-Clouds und containerisierte Anwendungen weltweit an und fördert weiterhin Innovationen in den Bereichen Skalierbarkeit, Sicherheit und Automatisierung.

Virtualisierungsarten

Es gibt verschiedene Arten von Virtualisierungstechnologien, die eine Vielzahl von Aufgaben erfüllen können.

Datenvirtualisierung

Bei der Datenvirtualisierung handelt es sich um eine Art des Datenmanagements, bei der Daten aus verschiedenen Anwendungen und physischen Standorten integriert werden, ohne dass eine Datenreplikation oder -verschiebung erforderlich ist. Es erzeugt eine einzige, virtuelle Abstraktionsschicht, die Verbindungen zu verschiedenen Datenbanken herstellt, um virtuelle Ansichten der Daten zu ermöglichen.

Server-Virtualisierung

Bei der Servervirtualisierung werden mehrere Instanzen eines Servers erstellt. Diese Instanzen stellen eine virtuelle Umgebung dar. Innerhalb jeder virtuellen Umgebung befindet sich ein separates Betriebssystem, das eigenständig laufen kann. Dadurch kann eine einzige Maschine die Arbeit vieler Maschinen erledigen, wodurch die Notwendigkeit einer Datenflut entfällt und Betriebskosten gespart werden.

Betriebssystemvirtualisierung

Die Virtualisierung von Betriebssystemen ist der Servervirtualisierung ähnlich. Das Host-Betriebssystem wird so umkonfiguriert, dass mehrere isolierte Betriebssysteme wie Linux und Windows auf einem Rechner ausgeführt werden können, sodass mehrere Benutzer gleichzeitig mit verschiedenen Anwendungen arbeiten können. Dies wird auch als Virtualisierung auf Betriebssystemebene bezeichnet.

Desktop-Virtualisierung

Desktop-Virtualisierung ist eine Softwareart, die die Haupt-Desktopumgebung von anderen Geräten trennt, die diese Umgebung nutzen. Dadurch werden Zeit und IT-Ressourcen gespart, da eine Desktop-Umgebung gleichzeitig auf vielen Rechnern bereitgestellt wird. Dadurch wird es auch einfacher, Updates bereitzustellen, Systeme zu reparieren und Sicherheitsprotokolle gleichzeitig auf virtuellen Desktops hinzuzufügen.

Netzwerkvirtualisierung

Netzwerkvirtualisierung vereint Netzwerk-Hardware- und Softwarefunktionen zu einer einzigen Einheit. Oft kombiniert mit Ressourcenvirtualisierung, werden dabei mehrere Ressourcen zusammengefasst, die dann in separate Segmente aufgeteilt und den Geräten oder Servern zugewiesen werden, die sie benötigen. Diese Art der Virtualisierung verbessert Netzwerkgeschwindigkeit, Skalierbarkeit und Zuverlässigkeit.

Storage-Virtualisierung

Bei der Speichervirtualisierung werden Speicherressourcen von mehreren kleineren Geräten zusammengeführt und in einem einzigen großen Speichergerät kombiniert. Administratoren können diesen Speicher nach Bedarf über eine zentrale Konsole mittels virtueller Maschinen und physischer Server nutzen. Dazu nimmt die Software Speicheranforderungen entgegen und ermittelt, welches Gerät über die erforderliche Speicherkapazität verfügt.

Anwendungsvirtualisierung

Anwendungsvirtualisierung (oder App-Virtualisierung) ist eine Technologie, die es Benutzern ermöglicht, auf Anwendungen von einem Remote-Server zuzugreifen und diese zu nutzen, ohne sie auf ihren lokalen Geräten installieren zu müssen. Es isoliert Anwendungen vom zugrunde liegenden Betriebssystem und ermöglicht so deren Ausführung in einer kontrollierten, virtualisierten Umgebung.

Die Vorteile der Virtualisierung

Vereinfacht gesagt, optimieren Virtualisierungslösungen Ihr Unternehmensrechenzentrum. Es abstrahiert die Komplexität bei der Bereitstellung und Verwaltung einer virtualisierten Lösung und bietet gleichzeitig die Flexibilität, die im modernen Rechenzentrum benötigt wird.

Hinzu kommt, dass Virtualisierung zur Schaffung einer „grüneren“ IT-Umgebung beitragen kann, indem sie die Kosten für Strom, Kühlung und Hardware senkt. Kosteneinsparungen sind jedoch nicht der einzige Vorteil virtualisierter Lösungen. Hier sind weitere Vorteile der virtuellen Arbeitsweise:

  • Minimierung von Servern – Virtualisierung minimiert die Anzahl der Server, die ein Unternehmen benötigt, und ermöglicht es, die mit einem serverlastigen Rechenzentrum verbundene Wärmeentwicklung zu reduzieren. Je weniger physikalisches „Durcheinander“ Ihr Rechenzentrum hat, desto weniger Geld und Recherche müssen Sie für die Wärmeableitung aufwenden. 

  • Einsparung von Hardware Mit Virtualisierung sind Unternehmen in der Lage, ihre Nutzung von Hardware zu reduzieren und, was am wichtigsten ist, Wartungsarbeiten, Ausfallzeiten und übermäßigen Stromverbrauch zu verringern. 

  • Schnelle Neuinstallationen – Virtualisierung macht die Bereitstellung eines neuen Servers einfach und schnell. Sollte ein Server abstürzen, können Snapshots virtueller Maschinen innerhalb weniger Minuten Abhilfe schaffen.

  • Einfachere Backups – Backups sind mit Virtualisierung viel einfacher. Ihre virtuelle Maschine kann den ganzen Tag über Backups durchführen und Snapshots erstellen, so dass Sie immer über die aktuellsten Daten verfügen. Außerdem können Sie Ihre VMs zwischen Servern verschieben, und sie können schneller wieder bereitgestellt werden.

  • Reduzierung der Kosten und des CO2-Fußabdrucks – Indem Sie einen größeren Teil Ihres Rechenzentrums virtualisieren, reduzieren Sie unweigerlich den Fußabdruck Ihres Rechenzentrums und Ihren CO2-Fußabdruck insgesamt. Neben der Schonung der Umwelt können Sie durch die Reduzierung des Fußabdrucks Ihres Rechenzentrums auch die Kosten für Hardware, Strom und Kühlung drastisch senken.

  • Bessere Tests – In einer virtualisierten Umgebung sind Sie besser für Tests und Wiederholungstests gerüstet als in einer hardwarebasierten Umgebung. Da VMs Snapshots speichern, können Sie zu einem früheren Snapshot zurückkehren, falls Sie beim Testen einen Fehler machen.

  • Jede Maschine auf jeder Hardware ausführen – Die Virtualisierung bietet eine Abstraktionsebene zwischen Software und Hardware. Mit anderen Worten: VMs sind von Hardware unabhängig, d. h. Sie können jede Maschine auf jeder beliebigen Hardware ausführen. Infolgedessen haben Sie keine mit einer Anbieterbindung verbundene Abhängigkeit.

  • Effektive Disaster Recovery – Wenn sich Ihr Rechenzentrum auf virtuelle Instanzen stützt, ist die Disaster Recovery weitaus weniger aufwändig und die Ausfallzeiten sind viel kürzer und seltener. Sie können aktuelle Snapshots verwenden, um Ihre VMs wieder in Betrieb zu nehmen, oder Sie können diese Maschinen an einen anderen Ort verschieben.

  • Cloudifizieren Sie Ihr Rechenzentrum – Virtualisierung kann Ihnen helfen, Ihr Rechenzentrum zu „cloudifizieren“. Eine vollständig oder größtenteils virtualisierte Umgebung imitiert jene der Cloud und bereitet Sie auf den Wechsel in die Cloud vor. Darüber hinaus können Sie sich dafür entscheiden, Ihre VMs in der Cloud bereitzustellen.

Wie funktioniert Virtualisierung?

Einer der Hauptgründe, warum Unternehmen Virtualisierungstechnologie einsetzen, ist die Servervirtualisierung. Dabei wird ein Hypervisor verwendet, um die darunterliegende Hardware für den gemeinsamen Zugriff zu „simulieren“. In einer nicht virtualisierten Umgebung arbeitet das Gastbetriebssystem (OS) normalerweise in Verbindung mit dedizierter Hardware. Auch in der Virtualisierung läuft das Betriebssystem so, als ob es auf dedizierter Hardware laufen würde, sodass Unternehmen mit weniger Hardwareaufwand einen Großteil der erwarteten Leistung erzielen können. Obwohl die Hardwareleistung nicht immer mit der virtualisierten Leistung übereinstimmt, funktioniert Virtualisierung dennoch und ist vorzuziehen, da die meisten Gastbetriebssysteme die Hardware nicht voll ausnutzen müssen.

Das Ergebnis ist eine bessere Flexibilität und Kontrolle für Unternehmen und die Eliminierung jeglicher Abhängigkeit von einer einzigen Hardware. Aufgrund ihres Erfolgs mit der Servervirtualisierung hat sich die Virtualisierung auf andere Bereiche des Rechenzentrums ausgebreitet, darunter Anwendungen, Netzwerke, Daten und Desktops.

Virtuelle Maschinen

Virtuelle Maschinen (VMs) sind ein wichtiger Bestandteil der Virtualisierungstechnologie. Virtualisierung bezeichnet die Erstellung einer virtuellen Version einer Computerressource, wie beispielsweise eines Servers, eines Speichermediums, eines Betriebssystems oder eines Netzwerks, anstatt sich auf eine physische Ressource zu stützen; virtuelle Maschinen sind eine Emulation eines Computersystems. Die zugrundeliegende Hardware wird von einem Hypervisor gemeinsam genutzt, um mehrere Betriebssysteme auszuführen. Obwohl es virtuelle Maschinen schon seit 50 Jahren gibt, werden sie mit dem Vormarsch der Remote-Arbeitskräfte und des Endbenutzer-Computing immer beliebter. Zu den gängigen Virtualisierungs-Stacks und Hypervisoren gehören VMware vSphere mit ESXi, Microsoft Windows Server 2025 mit Hyper-V, Nutanix Acropolis mit AHV, Citrix XenServer und Oracle Linux KVM.

Hypervisor

Hypervisoren spielen eine entscheidende Rolle bei der Virtualisierung, da sie die Softwareschicht darstellen, die die Erstellung und Verwaltung von virtuellen Maschinen (VMs) auf physischer Hardware ermöglicht.  Ein Hypervisor ist eine Software, die Hardware und Betriebssysteme abstrahiert und isoliert, um virtuelle Maschinen mit eigenem Speicher, Datenspeicher, eigener CPU-Leistung und eigener Netzwerkbandbreite zu schaffen. Eine weitere wichtige Funktion von Hypervisoren besteht darin, die VMs voneinander zu isolieren und die Kommunikation zwischen allen VMs zu regeln.

Die Vorteile der Virtualisierung für Organisationen

Organisationen, die eine stärker cloudbasierte IT-Umgebung anstreben, müssen sich zunächst auf die Virtualisierung konzentrieren. Durch die Virtualisierung Ihres Rechenzentrums können Sie Ihre Serverressourcen weitaus effizienter nutzen. Früher mussten Unternehmen für jede Anwendung, wie zum Beispiel E-Mail, einen eigenen Server reservieren. In solchen Fällen würden Unternehmen entweder zu viele Server anschaffen, um ihre zahlreichen Anwendungen zu bewältigen, oder sie stünden vor einem ganz anderen Problem: der Unterauslastung der Ressourcen auf einem gesamten Server.

So oder so, diese Methode ist kostspielig, platzraubend und ineffizient. Dank virtueller Lösungen können IT-Teams mehrere Anwendungen, Workloads und Betriebssysteme auf nur einer einzigen virtuellen Maschine ausführen, und Ressourcen können nach Bedarf hinzugefügt oder entfernt werden. Virtualisierung lässt sich leicht mit dem Unternehmenswachstum skalieren. Wenn die Anforderungen steigen und fallen, hilft sie Unternehmen, ihre Ressourcenauslastung im Griff zu behalten und schneller auf Veränderungen zu reagieren.

Virtualisierungssicherheit: Vorteile und Risiken

Je nach Konfiguration des Systems ist Virtualisierung nicht weniger sicher als physische Komponenten und Systeme. Die Virtualisierung löst zwar einige Sicherheitsprobleme und Schwachstellen physischer Systeme, schafft aber auch neue Herausforderungen und potenzielle Risiken. Deshalb ist es wichtig, sich sowohl der Sicherheitsvorteile als auch der Risiken der Virtualisierung bewusst zu sein, damit Sie Systeme so konfigurieren können, dass sie den richtigen Schutz für die von Ihnen verwendeten Systeme bieten. Solange Sie mit den potenziellen Sicherheitsrisiken physischer und virtualisierter Systeme vertraut sind, können Sie die richtigen Lösungen implementieren, die dazu beitragen, diese Risiken zu mindern.   

Häufige Sicherheitsprobleme bei der Virtualisierung:

  • Angriffe auf Host-ServerVirtuelle Maschinen (VMs) sind zwar auch dann voneinander isoliert, wenn sie sich auf demselben Server befinden (mehr dazu weiter unten), aber wenn Angreifer Zugriff auf Ihren Host-Server erlangen, könnten sie theoretisch auf alle VMs zugreifen, die dieser Host kontrolliert. Sie könnten sogar ein Administratorkonto erstellen, das ihnen die Berechtigung gibt, wichtige Unternehmensinformationen zu löschen oder zu sammeln.
  • VM-Snapshots – Snapshots sind Abbilder von VMs, die einen bestimmten Zeitpunkt darstellen. Sie werden am häufigsten zum Datenschutz und als Backup für die Notfallwiederherstellung eingesetzt. Da sich der Zustand der VM ständig ändert, sind Snapshots als temporäre, kurzlebige Datensätze gedacht. Wenn sie über einen längeren Zeitraum irgendwo aufbewahrt werden, könnten sie anfällig für Angreifer werden, die dadurch viele vertrauliche Daten erlangen könnten.
  • Dateifreigabe zwischen Hostserver und VMs – Standardmäßig wird die Dateifreigabe zwischen Hostserver und VMs sowie das Kopieren und Einfügen zwischen VMs und Remote-Management-Dashboards in den Standardeinstellungen verhindert. Wenn diese Standardeinstellungen außer Kraft gesetzt werden, könnte ein Angreifer, der sich Zugang zum Managementsystem verschafft, vertrauliche Daten von den VMs kopieren oder sogar Managementfunktionen nutzen, um die VMs mit Malware zu infizieren.
  • VM-Wildwuchs – Weil es so schnell und einfach ist, VMs bei Bedarf zu erstellen – beispielsweise für Tests während der Entwicklung –, werden sie nach Abschluss der Tests auch leicht vergessen. Im Laufe der Zeit können sich in einem Unternehmen viele ungenutzte VMs ansammeln, die unentdeckt auf dem System existieren und daher weder gepatcht noch aktualisiert werden. Ein Angreifer kann leicht Zugang zu einer vergessenen VM erlangen und von diesem Ausgangspunkt aus weitere Einfallstore in das System finden.
  • Ransomware, Viren und andere Schadsoftware – Genau wie physische Systeme sind auch VMs anfällig für Viren, Ransomware und Schadsoftware. Regelmäßige Datensicherungen sind in der heutigen, sich ständig weiterentwickelnden Bedrohungslandschaft ein Muss.

Bei der Überlegung, welche Art von Sicherheitslösungen und -funktionen Sie für Ihre virtualisierten Systeme benötigen, sollten Sie folgende Faktoren berücksichtigen.

Hypervisor-Sicherheit und bewährte Verfahren

Hypervisoren geraten aufgrund ihrer Kontrolle über mehrere virtuelle Maschinen (VMs) zunehmend ins Visier von Cyberangriffen. Im Jahr 2024 ermöglichte eine kritische Sicherheitslücke in VMware ESXi (CVE-2024-37085) Angreifern den vollen Administratorzugriff, wodurch alle gehosteten VMs gefährdet wurden. Im Jahr 2025 ermöglichten zusätzliche Zero-Day-Exploits (CVE-2025-22224 bis -22226) Ransomware-Angriffe, die über 41.000 exponierte Hypervisoren kompromittierten, VM-Daten verschlüsselten und Backups löschten. Diese Vorfälle unterstreichen die dringende Notwendigkeit, Hypervisoren abzusichern, da ein einziger Sicherheitsverstoß ganze virtualisierte Umgebungen gefährden kann.

Zu den bewährten Methoden für die Sicherheit von Hypervisoren gehören:

  • Aktualisierungen im Blick behalten – Obwohl die meisten Hypervisoren über automatisierte Funktionen verfügen, die regelmäßig nach Aktualisierungen suchen, ist es ratsam, gelegentlich auch manuell nachzusehen.
  • Einsatz von Thin- oder Bare-Metal-Hypervisoren – Diese Hypervisoren sind im Allgemeinen sicherer als andere Typen, da die Kontrollfunktionen vom Betriebssystem abstrahiert sind, welches das am meisten angreifbare Element auf einem Server darstellt.  Wird das Betriebssystem angegriffen, hat der Angreifer dennoch keinen Zugriff auf den Hypervisor.
  • Beschränkung der Nutzung von Netzwerkschnittstellenkarten (NICs) – Es ist immer ratsam, die Nutzung physischer Hardware, die mit dem Host-Server und dem Hypervisor verbunden ist, einzuschränken. Falls Sie eine Management-Netzwerkkarte verwenden müssen, schützen Sie diese unbedingt mit einer Firewall. Dadurch gibt es einen möglichen Angriffspunkt weniger für Angreifer.
  • Nicht benötigte Dienste deaktivieren – Jedes Programm, das Gastsysteme mit dem Host-Betriebssystem verbindet, sollte deaktiviert werden, sobald es nicht mehr verwendet wird. Ein Beispiel hierfür wäre die gemeinsame Nutzung von Dateien zwischen dem Host und anderen Benutzern.
  • Vorgeschriebene Sicherheitsfunktionen auf Gastbetriebssystemen – Jedes Betriebssystem, das mit dem Hypervisor interagiert, sollte über ein gewisses Maß an Sicherheitsfunktionen verfügen, wie z. B. Firewalls.

VM-Isolation

Ein Vorteil der Virtualisierung besteht darin, dass ein Server mehrere VMs hosten kann – wobei jede VM von den anderen isoliert wird, sodass sie nicht einmal erkennt, dass die anderen existieren. Dies kann auch ein Sicherheitsvorteil sein, denn wenn ein Angreifer Zugang zu einer VM erlangt, kann er nicht automatisch in die anderen VMs auf diesem Server gelangen. Diese VM-Isolation gilt sogar für Systemadministratorrollen. Es ist nach wie vor wichtig, jede VM genauso zu schützen wie physische Maschinen, beispielsweise durch Datenverschlüsselung, Antivirenprogramme, Firewalls usw.

Es ist auch wichtig, alle gehosteten Elemente einer VM zu isolieren. Elemente, die für die Benutzeroberfläche nicht notwendig sind, sollten in Subnetzen ausgeblendet werden, damit ihre Adressen für potenzielle Angreifer nicht ohne Weiteres sichtbar oder zugänglich sind.

Hostsicherheit

Um das Risiko eines erfolgreichen Angriffs auf den Host-Server zu verringern, können Sie genaue Prozentsätze für die Ressourcennutzung und Beschränkungen definieren. Beispielsweise könnte man eine VM so konfigurieren, dass sie immer mindestens 15 % der verfügbaren Rechenressourcen erhält, aber nicht mehr als 25 %. Auf diese Weise wird verhindert, dass eine angegriffene VM – beispielsweise durch einen Denial-of-Service-Angriff (DoS) – so viele Ressourcen verbraucht, dass die anderen VMs auf dem Server negativ beeinträchtigt werden.

VM-Sicherheit

Wie bereits erwähnt, können (und sollten) Sie jede VM mit Firewalls, Antivirenprogrammen, Verschlüsselung und anderen Sicherheitslösungen schützen, um ihren Schutz zu gewährleisten. Eine ungeschützte VM kann von einem Angreifer genutzt werden, um sich Zugang zum System zu verschaffen und öffentliche und private Adressräume zu scannen. Jede andere ungeschützte VM auf diesem Host kann ebenfalls leicht angegriffen werden.

VM-Escape-Angriffe

VM Escape ist eine Systemlücke, die Angreifer nutzen, um von einer virtuellen Maschine aus Zugriff auf den Hypervisor zu erlangen. Dazu spielt der Angreifer einen Code auf der anfälligen VM aus, der ein darin enthaltenes, bösartiges Betriebssystem anweist, die Grenzen der VM zu verlassen (oder zu entkommen) und direkt mit dem Hypervisor zu interagieren. Bei VM-Escape-Angriffen können Angreifer Zugriff auf das Betriebssystem des Host-Servers und die anderen virtuellen Maschinen auf dem Host erlangen. Experten empfehlen Folgendes, um das Risiko von VM-Escape-Angriffen zu minimieren:

  • VM-Software aktualisieren und patchen.
  • Ressourcen nur dann weitergeben, wenn dies absolut notwendig ist. Beschränken Sie die Freigabe nach Möglichkeit und schalten Sie sie ab, wenn sie nicht benötigt wird.
  • Beschränken Sie die Installation von Software, da jede neue App neue Sicherheitslücken mit sich bringt.

Gemeinsame Ressourcen

Wie bereits erwähnt, führt die gemeinsame Nutzung von Ressourcen durch VMs und/oder Gäste zu Sicherheitslücken im System. Gemeinsam genutzte Ordner oder Dateien sind attraktive Ziele für Angreifer, die über einen kompromittierten Gast in das System eindringen. Die Freigabefunktion sollte deaktiviert werden, wenn sie nicht benötigt wird. Deaktivieren Sie außerdem die Kopier- und Einfügfunktion zwischen Host und Remote-Anwendern.

Verwaltungsschnittstellen

Einige Experten empfehlen, Management-APIs zu trennen, um das Netzwerk zu schützen. Man sagt, man solle nicht nur Infrastrukturmanagement-Anwendungen, sondern auch Orchestrierungsfunktionen von Diensten trennen. APIs sind oft Ziel von Angreifern, weil sie Mini-Steuerungsprogramme darstellen.

Bei der Virtualisierung von Maschinen in der Cloud ist es wichtig, die von der ETSI Network Functions Virtualisation Industry Specification Group erstellte Virtual Network Functions Manager (VNFM)-Verordnung so genau wie möglich einzuhalten. Die Verordnung schreibt bestimmte Sicherheitsstandards für APIs vor, die mit Infrastruktur- und Orchestrierungstools interagieren. 

Virtualisierung vs. Containerisierung

Virtualisierung und Containerisierung sind verwandte Konzepte, stellen aber unterschiedliche Ansätze für die Verwaltung und Bereitstellung von Anwendungen und Computerressourcen dar.

Virtualisierung abstrahiert ein Betriebssystem, Daten und Anwendungen von der physischen Hardware und verteilt Rechen-, Netzwerk- und Speicherressourcen auf mehrere virtuelle Maschinen. Container werden manchmal als eine Untermenge der Virtualisierung oder als Virtualisierung auf Betriebssystemebene beschrieben. Container virtualisieren Softwareschichten oberhalb der Betriebssystemebene, während VMs eine komplette Maschine virtualisieren, die auch die Hardwareschichten umfasst.

So wie jede VM von den anderen VMs isoliert ist und sich so verhält, als wäre sie die einzige Maschine im System, verhalten sich auch containerisierte Anwendungen so, als wären sie die einzigen Anwendungen im System. Die Apps können einander nicht sehen und sind, genau wie VMs, voneinander geschützt. VMs und Container ähneln sich also darin, dass sie Ressourcen isolieren und diese aus einem gemeinsamen Pool zuweisen.

Einer der größten Unterschiede zwischen VMs und Containern ist schlicht der Umfang. VMs bestehen aus einem kompletten Betriebssystem, Daten und Anwendungen sowie allen zugehörigen Bibliotheken und anderen Ressourcen. Eine VM kann mehrere Dutzend Gigabyte groß sein. Container hingegen enthalten nur eine Anwendung und ihre zugehörigen Abhängigkeiten. Mehrere Container teilen sich ein gemeinsames Betriebssystem und andere Steuerungsfunktionen. Viele isolierte Container können einzeln auf einem Host-Betriebssystem ausgeführt werden.

Wesentliche Unterschiede zwischen VMs und Containern:

  •  Isolation – Während die Betriebssysteme von VMs voneinander isoliert sind, teilen sich Container ein Betriebssystem. Das bedeutet, dass bei einer Kompromittierung des Host-Betriebssystems auch alle Container gefährdet sind.

  • Zugrundeliegendes Betriebssystem – VMs haben jeweils ihr eigenes Betriebssystem, während Container ein gemeinsames Betriebssystem verwenden.

  • Plattformunterstützung – VMs können praktisch jedes Betriebssystem auf dem Host-Server ausführen. Beispielsweise können Sie 10 VMs haben, auf denen Windows läuft, und 10 VMs auf demselben Server, auf denen Linux läuft. Da Container ein gemeinsames Betriebssystem verwenden, müssen sie mit diesem Betriebssystem kompatibel sein – das heißt, Linux-Container müssen unter Linux und Windows-Container unter Windows ausgeführt werden.

  • Bereitstellung – Jede VM läuft auf einem Hypervisor, der ihre Funktionen und Ressourcenzuweisungen steuert. Container werden von Containeranwendungen wie Docker bereitgestellt, und eine Gruppe von Containern benötigt eine Orchestrierungsanwendung wie Kubernetes.

  • Speicher – VMs verfügen über separate virtuelle Festplatten oder gemeinsam genutzte Volumes, wenn sie sich einen einzigen Pool von Speicherressourcen zwischen mehreren Servern teilen. Container sind standardmäßig nicht persistent, es sei denn, man verwendet ein Container-Volume für persistente Daten.

  • Lastverteilung – Die Virtualisierung nutzt für die Lastverteilung die spezifischen Hochverfügbarkeitsmechanismen der VMs des jeweiligen Hypervisors. Typischerweise bieten Gruppen von miteinander verbundenen Servern oder Knoten Redundanz, falls eine der Maschinen ausfällt. Container sind auf die übergeordnete Orchestrierungsanwendung, wie beispielsweise Kubernetes, angewiesen, um Ressourcen und Lasten auszugleichen.

  • Virtuelle Netzwerke – VMs werden über virtuelle Netzwerkadapter (VNAs) vernetzt, die mit einer physischen Netzwerkkarte (NIC) verbunden sind, üblicherweise über einen virtuellen Switch im Hypervisor. Mithilfe von Containern wird ein VNA in viele separate Ansichten unterteilt, um eine leichtgewichtige Form der Netzwerktechnik zu ermöglichen.

Trotz ihrer Unterschiede ist es möglich, die Verwendung von Containern und VMs zu kombinieren. Sie können Container innerhalb einer VM ausführen, um beispielsweise mit System-on-Chip (SoC)-Bereitstellungen zu experimentieren und diese auf einer virtuellen Maschine auszuprobieren, bevor Sie sie mit der physischen Hardware testen.

In den meisten Fällen nutzen Organisationen jedoch primär das eine oder das andere. Es hängt alles von den benötigten Ressourcen, den individuellen Anwendungsfällen und der Präferenz für die jeweiligen Kompromisse ab.

Virtualisierung im Cloud Computing

Die Virtualisierung im Cloud Computing schafft ein abstrahiertes Ökosystem aus Serverbetriebssystem und Speichergeräten. Es ermöglicht Benutzern, separate VMs zu verwenden, die sich eine physische Instanz einer bestimmten Ressource teilen, sei es Netzwerk, Rechenleistung oder Speicher. Die Virtualisierung in der Cloud macht das Workload-Management deutlich kostengünstiger, skalierbarer und effizienter. Tatsächlich ist Virtualisierung eines der Elemente, die das Funktionieren von Cloud Computing ermöglichen.

Beim Cloud Computing werden Daten und Anwendungen in der Cloud gespeichert, wobei Virtualisierung eingesetzt wird, um den Benutzern die gemeinsame Nutzung einer Infrastruktur zu ermöglichen. Während Cloud-Service-Anbieter wie Amazon oder Azure die physischen Server, Ressourcen und sonstige Hardware verwalten, können Unternehmen Virtualisierung in Verbindung mit Cloud-Computing nutzen, um die Kosten niedrig zu halten.

Welche Vorteile bietet die Cloud-Virtualisierung?

  • Effiziente, flexible Ressourcenzuweisung
  • Produktiveres Entwicklungsökosystem
  • Reduzierte IT-Infrastrukturkosten
  • Fernzugriff auf Daten und Apps
  • Schnelle, einfache Skalierbarkeit
  • Kosteneffiziente nutzungsbasierte IT-Infrastruktur
  • Unterstützung für gleichzeitige Betriebssysteme auf einem einzigen Server

Virtualisierungslösungen und Beispiele

Nutanix bietet innovative Produkte, die die Virtualisierung für moderne Unternehmen revolutionieren. Im Zentrum steht Nutanix AHV, eine moderne, sichere Open-Source-Virtualisierungsplattform, die VMs und Container für Anwendungen und Cloud-native Workloads in hybriden Multi-Cloud- Umgebungen unterstützt. Es befasst sich mit komplexen IT-Herausforderungen und hat Kunden wie dem Texas A&M University System geholfen, indem es die Kosten für Hypervisor-Lizenzen, die Software zur Sicherung ihrer virtuellen Umgebung und das externe Speichermedium überflüssig gemacht hat.

Die Nutanix Kubernetes Platform (NKP) erweitert die Funktionalitäten von AHV durch die Orchestrierung und Ausführung von Containern auf AHV und anderen Cloud-Umgebungen. NKP vereinfacht die Plattformentwicklung, indem es die operative Komplexität reduziert und Konsistenz in jeder Umgebung gewährleistet. NKP ermöglicht es Unternehmen beispielsweise, hochverfügbare Kubernetes-Cluster innerhalb von Minuten in großem Umfang bereitzustellen, inklusive persistentem Speicher.

Häufig gestellte Fragen zur Virtualisierung

Ja, Virtualisierung reduziert die IT-Komplexität, indem Server, Speicher und Netzwerk in einer einheitlichen, softwaredefinierten Plattform konsolidiert werden. Nutanix ergänzt dies durch zentralisiertes Management, Automatisierung und ein einheitliches Betriebsmodell für hybride Multi-Cloud-Umgebungen.

Absolut. Virtualisierung ermöglicht es Ihnen, mehrere Workloads auf weniger physischen Servern auszuführen, wodurch Ihr Hardware- und Energiebedarf erheblich reduziert wird. Die hyperkonvergente Infrastruktur (HCI) von Nutanix optimiert die Raum- und Ressourcennutzung zusätzlich durch die Integration von Rechenleistung, Speicher und Netzwerk in eine einzige Plattform.

Virtualisierung ermöglicht es, mehrere Workloads auf weniger physischen Maschinen auszuführen, wodurch die Infrastruktur optimiert und Doppelarbeit reduziert wird. Nutanix beschleunigt die Konsolidierung durch die Integration von Rechenleistung, Speicher und Netzwerk in eine einzige Plattform.

Virtualisierung bietet einen höheren ROI durch geringere Hardwarekosten, verbesserte Energieeffizienz und schnellere Bereitstellung. Bei den meisten Unternehmen amortisiert sich die Virtualisierung innerhalb von 6 bis 12 Monaten, abhängig von der Größe und dem Umfang der Arbeitslast. Laut einem Whitepaper von IDC berichten Nutanix-Kunden von einem durchschnittlichen ROI von 391 % über drei Jahre und einer Amortisationszeit von sieben Monaten, dank reduzierter Investitionskosten, vereinfachter Abläufe und einer schnelleren Wertschöpfung.

Erfahren Sie mehr über Virtualisierung