Een gebalanceerde storage-infrastructuur heeft data-intelligentie in gecentraliseerde storage-oplossingen nodig. Dat had ik eerder al gezegd. Maar je storage-infrastructuur moet ook ‘future proof’ zijn om de exponentiële datagroei efficiënt te blijven hosten of nieuwe technologieën naadloos te integreren. Duurzaamheid Een belangrijk element hierbij is de duurzaamheid van de aanwezige dataoplossingen. Dit houdt in dat je de […]

Een gebalanceerde storage-infrastructuur heeft data-intelligentie in gecentraliseerde storage-oplossingen nodig. Dat had ik eerder al gezegd. Maar je storage-infrastructuur moet ook ‘future proof’ zijn om de exponentiële datagroei efficiënt te blijven hosten of nieuwe technologieën naadloos te integreren.

Duurzaamheid
Een belangrijk element hierbij is de duurzaamheid van de aanwezige dataoplossingen. Dit houdt in dat je de hardware groener maakt door je elektriciteits- en airconditioningskosten laag te houden, hardware efficiënter te gebruiken en hardwaregroei te beperken. Hierdoor verminder je uiteindelijk je operationele datacenterkosten.

Daarnaast moeten alle componenten (server, SAN-infrastructuur, logische storagecomponenten, disks en airconditioning) via een totaalaanpak op elkaar afgestemd worden. Dit houdt in dat je door middel van gespecialiseerde datacentersoftware de airconditioning en elektriciteitstoevoer stuurt in functie van wat de machines werkelijk verbruiken. Ook regel je de toevoer van koude lucht en de afvoer van warme lucht van de racks via uitgedokterde luchtgangen.

Software voor efficiënter hardwaregebruik
Er bestaat software die je ondersteunt in het efficiënter gebruiken van de aanwezige data en het verminderen van de hoeveelheid ervan.

Zo is er thin provisioning, deze software koppelt een virtueel volume aan een fysieke capaciteit via een referentietabel van slots. Hiermee worden alle capaciteitsbeperkingen weggenomen voor bedrijven die hun storage en het beheer ervan willen centraliseren.

Spaceless snapshots is nog zo’n software. Instant snapshots, tijdsopnames van belangrijke databases voor applicaties, worden genomen en de delta’s, de data die sinds de snapshot veranderd zijn, worden in een pool bijgehouden. Hierdoor kan je replica’s bewaren binnen je storage-omgeving zonder daarvoor de volledige storagecapaciteit één, twee, of – voor SAP omgevingen – zelfs vijf maal extra te moeten voorzien.

Ten slotte heb je ook nog deduplicatie. Hierbij worden identieke datastreams slechts één keer opgeslagen, waardoor realistische deduplicatiefactoren van een op zes, tot een op twintig gehaald worden. Dit wordt voorlopig enkel op grote schaal binnen back-upomgevingen toegepast, waar het zorgt voor een grote plaatsbesparing. Maar het is ook een opkomende trend binnen bestands-en content-archivering.

The big picture
Data zijn belangrijk, hou daarom altijd zicht op toekomstige ontwikkelingen die van invloed kunnen zijn op je storage-infrastructuur. Denk op lange termijn.
 

Geert Swillens werkt al vijf jaar als solutions consultant bij Hitachi Data Systems. In zijn functie houdt hij klanten op de hoogte van de laatste storagetrends en ontwerpt hij gecentraliseerde storage-oplossingen.