OSL UVE - Virtualisierung³

Hyperkonvergente Infrastruktur

Das Unified Virtualisation Environment (UVE) von OSL verbindet die drei für den hochverfügbaren Betrieb von virtuellen Maschinen benötigten Technologien: Server-, Speicher- und Netzwerk-Virtualisierung. Erstmals werden etablierte Standards in der OS- und Netzwerkvirtualisierung mit OSL-eigener Cluster-, Speichervirtualisierungs- und Netzwerk-I/O-Technologie zu einer Lösung zusammengeführt. Damit entstand ein komplett virtualisiertes IT-Infrastruktur-Modul, das in sich redundant, flexibel und skalierbar ist und an definierten Übergabepunkten Services in vorhandene IT-Infrastrukturen einspeisen kann.
Besondere Merkmale:

  • stark vereinfachte Infrastruktur - alles über ein physisches Netz
  • keine Hypervisor-spezifischen Kenntnisse erforderlich
  • in alle Richtungen skalierbare Infrastruktur
  • Einbindung verschiedener Speichersysteme
  • keine Bindung an einen Hardwarehersteller - Realisierung auf der Hardware ihrer Wahl

OSL hat den Gesamtprozess der Bereitstellung, des Betriebes und der Pflege hochverfügbarer, dynamischer Infrastrukturen konsequent in den Mittelpunkt gestellt und mit dem UVE ein Lösungspaket geschaffen, das über eine einheitliche Konzeption enorme Vereinfachungen und Einsparungen ermöglicht.
Eine Aufgabenteilung zwischen Storage-, SAN-, Netzwerk-, Server- und Betriebssystemadministration sowie Anwendungsbetreuung, Betrieb, Backup und Recovery ist heute vielfach der bevorzugte Weg, um die enorme Komplexität dynamischer, virtualisierter und hochverfügbarer Infrastrukturen zu beherrschen und dokumentiert sich nicht selten in einer Aufteilung eines an sich einheitlichen Gesamtprozesses auf mehrere Abteilungen. Dort, wo sich Produkte verschiedener Hersteller mit oftmals komplexen Konzeptionen zur Lösung nur einer Teilaufgabe etabliert haben, entstehen Schnittstellenprobleme, Reibungsverluste, Aufwände und Unsicherheiten, die bereits für große RZ-Betreiber eine ernstzunehmende Herausforderung sind und kleinen Anwendern den Zugang zu einer adäquaten und bezahlbaren Gesamtlösung oftmals völlig versperren. Hier bietet das OSL UVE eine komplette Lösung an.

 

 

Unterstützte Hard- und Software

Der Unified Virtualisation Server (UVS) steht derzeit für das Betriebssystem Solaris zur Verfügung. Das modulare Design der Software und die saubere Eingliederung in die voneinander getrennten Treiber-Schichten des Betriebssystems ermöglichen es, dass keine zusätzlichen Anforderungen an das System gestellt werden. Das gilt auch für die angeschlossenen RAID-Systeme.

Plattformen
Unterstützt werden Solaris-zertifizierte Systeme mit SPARC- und x86-kompatibler CPU mit mindestens 2 bzw. 4 Cores. Das sind z.B. folgende Systemplattformen:

Oracle: SPARC Enterprise Server (M-Serie)
Oracle: SPARC Server (T-Serie)
Oracle: Sun x86 Server
Sun: SunFire-Systemfamilie
FSC: Primepower-Systemfamilie
x64-Server:  gemäß Solaris-Kompatibilitätsliste

Betriebssysteme

  • Solaris 10 / 11, ab Version 7 auf Anfrage
  • OpenSolaris

Prinzipiell kann davon ausgegangen werden, dass OSL-Software auf allen Servern lauffähig ist, die für einen Betrieb unter Solaris freigegeben sind.

Auswahl kompatibler Server
Auflistung kompatibler Speichersysteme (Auswahl)

Aufgrund der Vielzahl an Möglichkeiten ist dies nur eine Auswahl. Wenn also Ihre Hardware in dieser Liste fehlt, so heißt das nicht, dass das OSL UVE nicht einsetzbar wäre. Sollten Sie sich unsicher sein, so zögern Sie nicht, Beratung bei Ihrem Systempartner oder OSL in Anspruch zu nehmen. Die genannten Systeme sind umgekehrt also lediglich Systeme, die von den jeweiligen Herstellern für Solaris freigegeben sind und auf denen eine Ablauffähigkeit zu erwarten bzw. praktisch getestet und dokumentiert ist. Die Angaben sind sorgfältig zusammengestellt und geprüft, es kann jedoch für die Richtigkeit an dieser Stelle keine Gewähr übernommen werden. Beachten Sie auch die Freigabeinformationen der Hersteller zu den jeweiligen Systemen. Bitte berücksichtigen Sie auch, dass alle Produkte ausschließlich für die Verwendung mit autonom gegen Ausfall einzelner Platten geschützten Speichersystemen (RAID) konzeptioniert sind.

Anforderungen für das Unified Virtualisation Network

Das Unified Virtualisation Network (UVN) verbindet den UVS mit den UVC. Hierfür wird eine mehrpfadige Anbindung der UVS/UVC empfohlen. Je nach Konfiguration kann der Slim-UVE bereits mit einem Switch und internen SSD zuverlässig umgesetzt werden.

Anforderungen für den Unified Virtualisation Client
Der Unified Virtualisation Client (UVC) bildet die Compute Node Farm ab und fungiert als Hypervisor Node. Die virtuellen Maschinen laufen auf den UVCs. Durch das Hinzufügen von UVCs kann das System Rechenkapazität, Performance und Verfügbarkeit sowohl beim Computing als auch im I/O steigern. Dafür werden CPUs mit Virtualisierungserweiterungen benötigt. Bei den Betriebssystemen sind grundsätzlich alle Systeme möglich. Insbesondere unterstützen wir Linux-basierte Betriebssysteme:

  • Linux-System (x86)
  • Supported SUSE Linux Enterprise Server 12.4 / 12.5
  • weitere auf Anfrage

Die Steuerung des virtuellen Rechenzentrums von jedem beliebigen Knoten

Das OSL UVE kann auf eine große Anzahl von geclusterten Knoten und virtuellen Maschinen skaliert werden. Der Cluster-Stack ist vollständig integriert und wird mit der Standardinstallation ausgeliefert. Um die Aufgaben Ihres virtuellen Rechenzentrums zu verwalten, können Sie die Komandozeile oder die webbasierte Benutzeroberfläche verwenden.

Kommandozeile
Die komplette Steuerung und Verwaltung des virtuellen Rechenzentrums erfolgt über die Kommandozeile. Hierzu gibt es eine Dokumentation in Form von Manpages. Mit Hilfe der Komandozeile können Sie Ihren gesamten Cluster von jedem beliebigen Knoten Ihres Clusters aus verwalten. Sie benötigen keinen dedizierten Manager-Knoten.

WebGUI - grafische Benutzeroberfläche
Eine bequeme Kontrollmöglichkeit über Ihr virtualisiertes Rechenzentrum haben Sie mit der integrierten grafischen Benutzeroberfläche der UVE. Die zentrale Webschnittstelle basiert auf einem JavaScript-Framework und kann folglich mittels eines normalen Webbrowsers (empf. Firefox) bedient werden. Sie hilft Ihnen, Ihren Cluster zu steuern und den Zustand jedes einzelnen Knotens sowie jeder VM zu überblicken. Dazu gehören unter anderem die Administration von Speicherressourcen, die Steuerung der VMs sowie ein umfangreiches Performance Monitoring der einzelnen Knoten und Gastsysteme. Dies erfolgt sowohl als Live-Log aber auch als History-Log. Die Daten für das Live-Log werden in der ersten Stunde im 4s-Takt geliefert. Das History-Log wird im Dateisystem gespeichert. Es beinhaltet die minütlichen Minimal-, Durchschnitts- und Maximalwerte und wird in einem speicherschonenden Binaerformat abgelegt. So sind Sie als Systemverwalter stets über die Auslastung Ihrer Systeme im Bilde.

Damit Sie als Admin  weiteren Personen definierte Zugänge auf die WebGUI geben können, ist in der GUI eine feingranulare Benutzerverwaltung integriert. Diese  ermöglicht eine dezidierte Benutzersteuerung:
Eine Organisationseinheit (OE) dient dazu, ein Element in der Organisationsstruktur Ihres Unternehmens abzubilden. Eine OE kann damit einer Hauptabteilung, Abteilung, Gruppe o. ä. Entsprechen. In der UVE können OEs in einer hierarchischen Struktur mit bis zu 3 Ebenen verwaltet werden. Rollen sind Ansammlungen von Berechtigungen. Sie erlauben einem Nutzer den Zugriff auf bestimmte Ressourcen oder auf bestimmte Aktionen in der UVE, z. B. das Starten und Stoppen virtueller Gastsysteme. Auch der Zugang zu bestimmten Bereichen der WebGUI hängt von Berechtigungen ab. Die Mächtigkeit eines Benutzers ergibt sich somit aus der Summe der ihm durch Rollenzuweisung verliehenen Rechte. Jeder Benutzer kann eine oder mehrere Rollen haben. Der Geltungsbereich einzelner Benutzerrollen lässt sich vom Administrator auf einzelne OEs begrenzen.

UVE-WebGUI

Unterstützte Virtualisierungstechnologien

Der OSL UVE setzt bei den Hypervisor Nodes (UVC) auf Linux und die verbreitesten dafür zur Verfügung stehenden Virtualisierungsmechnismen auf:

 

Kernel-basierte virtuelle Maschine (KVM)
KVM ist die branchenführende Linux-Virtualisierungstechnologie für die Vollvirtualisierung. Es handelt sich um ein Kernelmodul, das in den Mainline-Linux-Kernel integriert ist und mit nahezu nativer Leistung auf jeder x86-Hardware mit Virtualisierungsunterstützung läuft - entweder Intel VT-x oder AMD-V.

Mit KVM können Sie sowohl Windows als auch Linux in virtuellen Maschinen (VMs) ausführen, wobei jede VM über private virtualisierte Hardware verfügt: eine Netzwerkkarte, Festplatte, Grafikkarte usw. Die Ausführung mehrerer Anwendungen in VMs auf einer einzigen Hardware ermöglicht es Ihnen, Strom zu sparen und Kosten zu reduzieren, während Sie gleichzeitig die Flexibilität haben, ein agiles und skalierbares softwaredefiniertes Rechenzentrum aufzubauen, das Ihren Geschäftsanforderungen entspricht.

VirtualBox
Festplatten werden in Containerdateien, von VirtualBox auch als Virtual Disk Images, (kurz VDI) bezeichnet, emuliert. Neben diesem eigenen Dateiformat kann VirtualBox auch mit HDD-Dateien von Parallels sowie mit Abbildern im QED- (QEMU enhanced disk) und QCOW-Format (QEMU Copy-On-Write) der Emulations- und Virtualisierungssoftware QEMU umgehen. Zudem können iSCSI-Objekte als virtuelle Festplatten genutzt werden, wobei der hierfür benötigte iSCSI-Initiator bereits in VirtualBox enthalten ist. Mit dem zu VirtualBox gehörenden Kommandozeilen-Werkzeug VBoxManager kann man diese fremden Formate auch konvertieren.
Es ist durchaus möglich, VirtualBox mit weiteren Gast-Betriebssystemen zu betreiben. Das Aktivieren der Virtualisierungserweiterung moderner x86-Prozessoren (bei Intel VT-x, AMD-V bei AMD) kann dabei helfen, ein sonst nicht unterstütztes Betriebssystem in der virtuellen Umgebung von VirtualBox laufen zu lassen.

Block I/O und IP über ein Netz - Vereinfachung der Infrastruktur

Das im UVE integrierte RSIO-Protokoll ermöglicht den Hypervisor-Nodes einen Block-I/O-Zugriff auf einen globalen, virtualisierten Speicherpool via Netzwerk. Das gleiche physische Netz wird dabei auch, nach Mandanten getrennt, für den Datenverkehr der virtuellen Maschinen und für die Steuerung der Clusterservices genutzt. Daraus folgen eine deutlich vereinfachte Infrastruktur sowie der Wegfall ganzer Aufgabenkomplexe in der Administration, was am Ende mehr Übersichtlichkeit und einen verbesserten Schutz gegen Ausfälle bedeutet. Prinzipiell nicht mehr notwendig sind LUN-Masking, Administration von FC-Fabrics, Administration von Netzwerk-Switches, Multipfad-Konfigurationen für den Block-I/O, komplizierte Netzwerkkonfigurationen und IP-Multipfadlösungen in VM-Gastsystemen, die Verwendung von VLANs in virtuellen Maschinen und ein aufwendiges Gerätemanagement für virtuelle Maschinen.

RSIO-Architektur

Neben einer aufgeräumten und übersichtlichen Infrastruktur gibt es auch erhebliche Einsparungen durch einen Verzicht auf eine FC-Fabric und die verringerte Zahl von Netzwerk-Ports. Desweiteren sind die hohe Portdichte, der Energieverbrauch und der verringerte Platzbedarf bei dieser Umsetzung hervorzuheben.

Verfügbarkeit und Skalierbarkeit auf allen Ebenen

Mit dem OSL UVE können alle Schichten der Gesamtlösung bestmöglich voneinander entkoppelt und redundant ausgelegt werden. Überflüssige Redundanzen werden verzichtbar, die Gesamtlösung bleibt einfach in der Handhabung und wirklich alle Hardwarekomponenten sind prinzipiell und ohne Serviceunterbrechung austauschbar.

Die Intelligenz zur Steuerung aller wesentlichen Funktionen wird von den Teilkomponenten zum UVE-Server (UVS) verlagert. Das reduziert Komplexität und wechselseitige Abhängigkeiten, verbessert die Verfügbarkeit und erlaubt den Online-Austausch einzelner Komponenten, auch durch Produkte anderer Hersteller mit anderen Leistungs- und Konfigurationsparametern sowie anderen Eigenschaften. So können beispielsweise die RAID-Systeme durch eine neue Generation abgelöst, die Switches oder die Hardware der Hypervisor-Nodes oder sogar der UVS getauscht werden, ohne dass prinzipiell eine Betriebsunterbrechung erforderlich ist.

UVE-Redundanz

Hochverfügbarkeit

Hier gehen wir bei den Produkten von OSL andere Wege. Die Hochverfügbarkeit erfolgt nicht über einen extra Cluster-Interconnect oder ein Quorumdevice sondern über eine automatisches Selbstmanagement der Applikationen.

Zahlreiche Datencenter-Applikationen müssen aus betriebswirtschaftlichen Gründen unterbrechungsfrei online sein. Um dieser Anforderung gerecht zu werden, bedarf es eines effektiven Schutzes vor Hardwareausfällen - Clusterlösungen. Sie tragen dafür Sorge, dass Anwendungen im Katastrophenfall auf ein anderes Stück Hardware migrieren. Ein für solche Fälle vorgehaltener Host übernimmt die Applikation. Offline-Zeiten werden so vermieden. Diese Vorgehensweise setzt allerdings voraus, dass auf Hardware-Ressourcen abstrahiert zugegriffen werden kann. Prozesse und Anwendungen müssen beschrieben, ggf. angepasst werden.

Aktiv/aktiv, aktiv/passiv oder keines von beiden?
Von herkömmlichen Clusterlösungen kennt man aktiv/aktiv-Varianten, bei denen mindestens zwei Applikationsserver online sind und bei Ausfall eines Servers der andere dessen Aufgaben übernimmt. Weiterhin kennt man aktiv/passiv-Lösungen, bei denen ein Standby-Gerät vorgehalten wird, welches einspringt, wenn das Primärsystem ausfällt. Wenngleich auch solche Architekturen unterstützt werden, beschränkt sich das Clusterkonzept von OSL nicht auf diese beiden althergebrachten Varianten. Denn mit dem OSL UVE lassen sich weitaus intelligentere Konfigurationen abbilden. Unsere Software steuert per ressourcenbasiertem Selbstmanagement Ihre Anwendungen clusterweit automatisch und weist sie den zur Verfügung stehenden Hosts entsprechend ihrem Ressourcenbedarf zu. Bei Hardwareausfällen ordnen sich die betroffenen Anwendungen den verbleibenden Hosts gemäß ihrer Priorität neu zu:

Der OSL-Anwender ordnet seinen Applikationen Prioritäten zu. Auf Grundlage von Performancebenchmarks, Anwendungsbeschreibungen und Prioritäten wird eine Zuordnung der Applikationen auf unterschiedliche Server des Clusters vorgenommen. Dies kann entsprechend der Leistungsfähigkeit, der zur Verfügung stehenden Hardware automatisiert erfolgen.

Fällt nun ein Clusterknoten aus, findet anhand der jeweils benötigten Hardwareressourcen im notwendigen Ausmaß eine Neuverteilung der Anwendungen über die noch zur Verfügung stehenden Clusterknoten statt. Höher priorisierte Anwendungen können dabei sogar weniger priorisierte verdrängen, um selbst weiterhin online zu bleiben. So kann der Anwender seine Produktivapplikationen entsprechend hoch und Test-, Entwicklungs- oder QS-Applikationen niedrig priorisieren, um im K-Fall die wichtigen Anwendungen verfügbar zu halten.

Ist die ausgefallene Hardware später wieder online, können die heruntergefahrenen Applikationen erneut gestartet werden. Eine nochmalige Migration laufender Anwendungen ist danach nicht zwingend notwendig.

Klein beginnen - alle Optionen behalten

Das modulare Konzept ermöglicht den Ausbau je nach den gegebenen Anforderungen. Hierfür können Sie vom Entry Level bis hin zur High End Konfiguration alles online erweitern und austauschen.

Slim-UVE-Konfiguration

Slim UVE - Entry Level

mit SSD Option und ohne externes Storage


Standard-UVE-Konfiguration

Standard UVE

inklusive externem Storage und die Option für internen und SSD Storage


High-End-UVE-Konfiguration

High End UVE

hoch skalierbares System