Virtual Storage Appliances slagen erin om storage en virtualisatie in één of twee servers te combineren, om zodoende een SAN onnodig te maken binnen de infrastructuur. Zie mijn vorig artikel voor een uitgebreidere uitleg hierover. In dit artikel bespreken we een aantal softwareproducten die dit claimen te doen. HP VSA Met de verwerving van LeftHand […]

Advertentie

Virtual Storage Appliances slagen erin om storage en virtualisatie in één of twee servers te combineren, om zodoende een SAN onnodig te maken binnen de infrastructuur. Zie mijn vorig artikel voor een uitgebreidere uitleg hierover. In dit artikel bespreken we een aantal softwareproducten die dit claimen te doen.

HP VSA
Met de verwerving van LeftHand brengt HP nu de StorageWorks P4000 uit. Dit is een software-appliance die rechtstreeks gedeployed kan worden op een VMware ESX- (OVF) of Hyper-V (executable)-omgeving. Een voordeel is dat hierdoor de VMware Tools of Microsoft Integration Services meteen mee geïnstalleerd staan. Om het geheel te beheren is er de gratis Centralized Management Console, te installeren onder Windows. 

Via die console kun je dan een zogenaamde netwerk-RAID aanmaken. RAID0 is de standaardmodus, maar in onze opzet is RAID10 (2-Way Mirror) beter geschikt. De wizard is simpel en behoorlijk duidelijk. Bij RAID10 is er altijd één VSA-node die actief is. Het is echter niet duidelijk zichtbaar welke dat is, pas na de eerste iSCSI-connectie is zichtbaar aan welke node het virtueel IP gelinkt is. Dit is belangrijk omdat HP de controle op de aanwezigheid uitvoert met behulp van een Virtual Manager-agent. Deze moet echter manueel gestart worden en wel op de niet-actieve node. Als u het niet start of start op de actieve node, dan is er geen failover mogelijk.

Open-E DSS
Ook met Open-E is het mogelijk, al zijn er een aantal extra stappen nodig om de replicatie en automatische failover op te zetten. Beide functies zijn dan ook afzonderlijk in te stellen en het is moeilijk om een draaiend systeem aan te passen met deze functies. Alles gebeurt via een webinterface.

Het begint al met bij het aanmaken van de iSCSI-volumes ‘Use volume replication’ aan te vinken. Daarna moet een synchrone replication task aangemaakt worden. Op de andere appliance moet een iSCSI-volume zijn van dezelfde grootte. Hetzelfde geldt voor de iSCSI-targets; deze moeten op beide targets hetzelfde LUN & SCSI ID hebben.

Tot slot kunnen we iSCSI Failover instellen, die voor het virtueel IP en de automatische failover zorgt. Nadeel is dat als de secundaire Open-E-appliance plat gaat, er hier geen foutboodschap van verstuurd wordt.

Starwind
Starwind is de meest gebruiksvriendelijke oplossing. Het is namelijk software die boven op Windows draait. Met een installer van slechts 53 MB is Starwind zeer snel geïnstalleerd en ook het opzetten van de eerste virtuele volumes is zeer eenvoudig dankzij één simpele wizard. Starwind kan fysieke schijven als iSCSI-targets verdelen, maar om HA te kunnen opzetten is het aanmaken van een .img-bestand verplicht. Na de aanmaak van een nieuwe virtuele schijf in HA-modus zal Starwind beginnen met de replicatie. Deze kan, afhankelijk van de grootte, een hele tijd duren.

Datacore SanMelody
Ook SanMelody is Windows-software, maar deze is eerder opgevat als een MMC-plug-in. Het geheel is echter een stuk onoverzichtelijker en vooral veel ingewikkelder dan de voorgaande oplossing. Er is echter meer mee te doen qua ondersteunde protocollen. Ook Fibre Channel wordt bijvoorbeeld ondersteund, en ook MultiPath IO-support is aanwezig. De eerlijkheid gebiedt me wel te zeggen dat SanMelody intussen vervangen is door het recentere SanSymphony. In een volgende ronde wordt deze oplossing zeker mee vergeleken.

Openfiler
Als enige opensource-oplossing is dit een beetje het buitenbeentje. Standaard is openfiler een Red Hat-nash (rPATH) gebaseerde appliance met een webinterface. Daarin kun je volumes aanmaken en delen via CIFS of iSCSI. Er is ook quota- & role-management. Maar veel verder gaat de GUI van openfiler niet. De echte kracht zit in de commandline-interface; daar kun je DRBD (Distributed Replicated Block Device, voor replicatie) en heartbeat (voor automatic failover) instellen.

Wat op de achtergrond uiteindelijk gebeurt, is dat de directory waar openfiler in geïnstalleerd is, op een LVM-volume staat dat door DRBD gerepliceerd wordt. Een tweede volume wordt dan als iSCSI-target aangeboden. Bij een eventuele crash worden de LVM-volumes geremount en de openfilerservice wordt herstart. Openfiler behoudt zijn IP, want zijn configbestanden zijn aanwezig. In de testing blijkt openfiler opvallend stabiel, het verstuurt zelfs e-mails als het een failover moet uitvoeren.

Andere spelers?
Er zijn uiteraard nog andere SAN-softwarepakken zoals Gluster & Nexenta, maar deze beloven niet de automatic failover-mogelijkheden die de andere wel hebben en zijn dus niet getest. Gluster heeft wel automatic failover, maar kan enkel NFS-volumes aanbieden, geen iSCSI. We hebben het kort getest, maar NFS kan qua performance nooit tippen aan een goed opgezette iSCSI-infrastructuur.

Resultaten
In een volgend artikel gaan we dieper in op de performantieproblemen die kunnen optreden, en ook een aantal configuratie-opties waar zeker rekening mee moet gehouden worden. Onderstaande resultaten zijn telkens met hetzelfde scenario uitgevoerd.

Er werd een test gedaan naar een SSD-schijf. De native, rechtstreekse resultaten staan ook telkens in de grafiek. Verder werd getest op sequentieel lezen, schrijven en willekeurig lezen/schrijven (verhouding 66/33%). Dit laatste type is een nabootsing van een typische databaseworkload.

De verschillen kunnen onderling behoorlijk groot zijn. Afhankelijk van het testprotocol scoort de ene oplossing veel beter dan de andere. Uiteraard scoort Gluster niet goed, maar dit komt dan vooral door de SMB-benadering. Een verrassing is het dat Open-E niet veel beter is. Ook de HP-oplossing steekt nergens bovenuit.


Geen velden gevonden.