Skip to main content

Themes

Business & IT Value
Digital / IT Transformation

Strategische keuzen rondom datacenters

De opkomst van cloud computing en de technologische en marktontwikkelingen die aan deze trend ten grondslag liggen nodigen organisaties uit tot het herevalueren van hun datacenterstrategie. Er bestaat geen magische formule die eenduidig wijst naar renovatie, nieuwbouw of de uitbesteding van datacenters. De drijfveren om tot deze keuzen te komen lopen uiteen van operationele problemen in bestaande, verouderde datacenters tot aan de lokroep van cloud computing met lagere kosten en een hogere flexibiliteit en kostenelasticiteit.

In dit artikel wordt ingegaan op de technische infrastructuur in datacenters en recente technologische en marktontwikkelingen die van grote invloed zijn op de strategische keuzen die onze klanten maken over de toekomst van hun datacenters. Het centrale thema hierbij is ‘meer doen met minder’. De consolidatie en migratie van datacenters gaat echter gepaard met significante kosten en risico’s.

Inleiding

Datacenters vormen de knooppunten van het zenuwstelsel van onze economie. Het overgrote deel van alle geautomatiseerde gegevensverwerkende systemen is immers gehuisvest in datacenters. Zowel de overheid als grote ondernemingen zijn primair afhankelijk van deze gegevensverwerkende fabrieken.

Onder een datacenter worden niet alleen het gebouw en de technische installaties in het gebouw verstaan, maar ook de IT-apparatuur in het datacenter voor de verwerking, opslag en transport van gegevens. Datacenters kennen een economische levensduur van tien tot twintig jaar, terwijl de IT-apparatuur circa elke vijf jaar dient te worden vervangen. De investeringen voor een middelgroot datacenter[Met een middelgroot datacenter wordt bedoeld een datacenter van 5000 of meer vierkante meter geconditioneerde vloeroppervlakte. Grote datacenters, veelal van IT-serviceproviders, bieden enkele tienduizenden vierkante meters aan geconditioneerde vloeroppervlakte.] betreffen minimaal honderd miljoen euro. Tegenover de lange levensduur van een datacenter staat het hoge tempo waarin technologische ontwikkelingen elkaar opvolgen en bedrijfsdoelstellingen zich wijzigen. In een datacenterstrategie moet de nadruk liggen op toekomstige behoeften en het verandervermogen van de eigen organisatie om deze nieuwe technologieën te adopteren.

In dit artikel gaan we in op de technologische en marktontwikkelingen die van invloed zijn op de strategische keuzen die onze klanten maken over de toekomst van hun datacenters. Tevens zullen we ingaan op de uitdagingen die zij op hun pad vinden bij de consolidatie en migratie van bestaande datacenters.

Wat ruist er in het datacenter?

Ruim een kwart van de jaarlijkse IT-uitgaven van grote organisaties wordt aan datacenters besteed. Deze kosten zijn verder onder te verdelen in het datacentergebouw en de technische installaties voor stroomtoevoer en koeling (samen acht procent) en de server en opslagapparatuur (zeventien procent) ([Kapl08]). Door de economische crisis is de druk op IT-budgetten en -investeringen toegenomen en is het datacenter hoger op de CIO-agenda komen te staan ([Fria08]).

C-2011-1-Boersen-01

Figuur 1. Vereenvoudigd model van een technische ICT-infrastructuur.

In figuur 1 is een sterk vereenvoudigd, gelaagd model weergegeven van een technische IT-infrastructuur. Hierbij is onderscheid gemaakt tussen de IT-infrastructuur die fysiek geconcentreerd is in een datacenter (links), de decentrale IT-infrastructuur voor bijvoorbeeld werkplekautomatisering op kantoorlocaties of procesautomatisering in industriële omgevingen (rechts) en de netwerkverbindingen tussen het datacenter en de decentrale ICT-omgevingen (midden).

De volgorde van de lagen betekent dat elke laag noodzakelijk is voor de laag erboven en dat idealiter per laag technologische keuzen kunnen worden gemaakt die onafhankelijk zijn van de andere lagen. Door gebruik te maken van open standaarden en de marktwerking zijn meerdere technologische oplossingen per infrastructuurlaag in de markt beschikbaar die dezelfde functionaliteit bieden. Denk hierbij aan industriestandaarden voor het formaat van IT-apparatuur en apparatuurracks, door platformen ondersteunde standaard-datatransportprotocollen als Ethernet en TCP/IP en dataopslagprotocollen als CIFS, NFS en iSCSI, en de verschillende platformen die leveranciers van middlewareoplossingen, databases en applicaties ondersteunen.

Een datacenter omvat één of meer gebouwen met technische installaties voor de stroomvoorziening en koeling van een complex aan netwerk-, opslag- en serverapparatuur. Op deze apparatuur draaien honderden tot duizenden softwaretoepassingen, zoals besturingssystemen, databases en maatwerk of standaard softwareapplicaties. Het datacenter is via snelle (glasvezel)netwerken verbonden met andere datacenters, kantoorlocaties of productielocaties.

Met decentrale IT-omgevingen wordt de IT-apparatuur bedoeld die zich dicht bij eindgebruikers of op de productielocaties moet bevinden. Door de kleinschaligheid en het decentrale karakter van deze ruimten spreken we niet over datacenters maar over zogenaamde Main en Satellite Equipment Rooms (MER’s, SER’s).

De technische installaties en IT-infrastructuur in datacenters zijn primair afhankelijk van de betrouwbare levering van stroom en afhankelijk van het ontwerp van (stromend) water voor koeling en brandstof voor noodstroomvoorzieningen.

Technologische ontwikkelingen

In deze paragraaf wordt ingegaan op een aantal technologische ontwikkelingen die van invloed zijn op de strategische keuzen die onze klanten maken over de toekomst van hun datacenters.

Virtualisatie

De virtualisatie van serverhardware en besturingssystemen heeft een enorme impact op de wijze waarop datacenters worden ingericht en beheerd. Door gebruik te maken van virtualisatie is het mogelijk meerdere fysieke servers te consolideren naar één krachtige fysieke server, waarop meerdere besturingssystemen of instanties van hetzelfde besturingssysteem als logische servers naast elkaar kunnen draaien. De drijfveer achter virtualisatie komt voort uit onderzoek waaruit blijkt dat servers gemiddeld twintig procent en webservers gemiddeld 7,4 procent van de tijd worden belast ([Barr07], [Meis09]). De kern van virtualisatie is dan ook het sterk verhogen van de bezettingsgraad van IT-apparatuur, in het bijzonder servers.

In figuur 2 is schematisch weergegeven hoe twee fysieke servers kunnen worden geconsolideerd naar één fysieke server met behulp van virtualisatietechnieken.

C-2011-1-Boersen-02

Figuur 2. Virtualisatie maakt het mogelijk logische servers te consolideren op één fysiek platform.

Door virtualisatie wordt het aantal benodigde fysieke servers sterk teruggebracht. Afhankelijk van de aard van de applicaties die op deze servers draaien kunnen vijf tot wel twintig servers op één fysieke server worden gevirtualiseerd. Door virtualisatie kunnen de operationele kosten van een datacenter flink dalen, omdat met een factor vijf tot twintig minder fysieke servers een aanzienlijk lagere beheerinspanning nodig is. Om dit te realiseren zijn echter significante investeringen en migratie-inspanningen noodzakelijk. De datacenterstrategie dient in te gaan op de mate waarin geïnvesteerd wordt in virtualisatietechnologie en de migratie van het bestaande serverpark naar virtuele servers.

Dataopslagsystemen en Storage Area Networks

In de afgelopen jaren is dataopslag volledig ontkoppeld van servers door dataopslag centraal in te richten en servers gebruik te laten maken van een Storage Area Network (SAN). Het SAN is een speciaal netwerk tussen servers en dataopslagsystemen. Deze dataopslagsystemen bevatten grote aantallen harde schijven en voorzien in technologieën voor efficiënte redundante gegevensopslag[RAID is een afkorting van Redundant Array of Independent Disks en is de benaming voor een set methodieken voor fysieke dataopslag op harde schijven waarbij de gegevens over meer schijven verdeeld worden, op meer dan één schijf worden opgeslagen, of beide, ten behoeve van snelheidswinst en/of beveiliging tegen gegevensverlies. Bron: http://nl.wikipedia.org/wiki/Redundant_Array_of_Independent_Disks].

Deze centralisatie van dataopslag is transparant voor de IT-infrastructuurlagen die hierop steunen. Dit houdt in dat het besturingssysteem of de applicatie zich niet bewust is dat de gegevens via het SAN centraal worden opgeslagen (zie ook de toelichting bij figuur 1). Indien dataopslagsystemen op verschillende datacenterlocaties met een SAN worden verbonden, kunnen schrijfacties real-time over meerdere locaties worden gerepliceerd. Door de centralisatie van opslagsystemen is de bezettingsgraad van deze systemen aanzienlijk toegenomen.

In combinatie met servervirtualisatie bieden SAN’s de mogelijkheid om niet alleen de data snel te repliceren naar meerdere locaties, maar ook om virtuele servers eenvoudigweg van de ene locatie naar de andere locatie te kopiëren. In het artikel ‘Businesscontinuïteit met Storage Area Networks’ in deze Compact wordt dieper ingegaan op SAN’s als alternatief voor tapegebaseerde databack-upsystemen.

SAN’s en centrale opslagapparatuur behoren tot de meest kostbare componenten in de IT-infrastructuur. In de datacenterstrategie dient daarom te worden ingegaan op investeringen in dataopslagsystemen en de kwalitatieve en kwantitatieve baten die hiermee gemoeid zijn.

Cloud computing

Onder cloud computing wordt een leveringsmodel verstaan van IT-infrastructuur en applicatiebeheerdiensten via het internet. cloud computing is niet zozeer een technologische ontwikkeling op zich, maar is mogelijk door een combinatie van technologische ontwikkelingen, waaronder flexibel beschikbare netwerkbandbreedte, virtualisatie en SAN’s .

Het belangrijkste voordeel van cloud computing is de omslag van investeringen in infrastructuur naar operationele kosten voor de huur van clouddiensten (‘van capex naar opex’), de transparantie in kosten (‘pay per use’), de afname van IT-infrastructuurdiensten naar werkelijke behoeften (‘elasticiteit’) en de hoge efficiency en snelheid waarmee infrastructuurdiensten worden geleverd (‘rapid deployment’ door volledig geautomatiseerde beheerprocessen en self-serviceportalen).

Cloud computing onderscheidt zich van de klassieke IT door de volgende karakteristieken ([Herm10]):

  • ‘multi-tenancy’ (de IT-infrastructuur wordt gedeeld over meerdere afnemers);
  • huur van diensten (het gebruik van IT-middelen is losgekoppeld van het bezit van IT-middelen);
  • elasticiteit (capaciteit kan zowel terstond opgeschaald als afgebouwd worden); en
  • externe dataopslag (data worden doorgaans extern bij de leverancier opgeslagen).

Een cloud computing-leverancier dient voldoende verwerkings-, opslag- en transportcapaciteit beschikbaar te hebben om in geval van een toenemende vraag naar capaciteit door zijn klanten deze gelijktijdig te kunnen bedienen. In de praktijk is de maximale opschaling begrensd tot een percentage van de totale capaciteit in ‘de cloud’ en is sprake van een opwaarts begrensde elasticiteit.

In figuur 3 zijn de verschillende verschijningsvormen van clouddiensten weergegeven.

C-2011-1-Boersen-03

Figuur 3. Overzicht verschillende typen clouddiensten ([Herm10]).

Het belangrijkste verschil tussen het klassieke model van datacenters in eigen beheer en een private cloud is de flexibiliteit die de private cloud biedt. In de private cloud wordt gebruikgemaakt van gestandaardiseerde hardwareplatformen met een hoge beschikbaarheid en bezettingsgraad, virtualisatie en flexibele softwarelicenties waardoor operationele kosten gedeeltelijk afhankelijk zijn van het daadwerkelijk gebruik van de ICT-infrastructuur. De private cloud wordt niet gedeeld met andere klanten en de data staan ‘op eigen terrein’. Ook hoeft de ontsluiting van de private cloud niet via het internet te verlopen, hiervoor kan de netwerkinfrastructuur van de organisatie zelf worden gebruikt. Volgens de cloudpuristen kan in dit geval alleen niet meer over cloud computing gesproken worden.

De interne private cloud maakt dus gebruik van dezelfde technologieën en leveringsmodellen als de externe private en public cloud, maar zonder de risico’s van primaire gegevensopslag bij een derde partij. De kosten van de interne private cloud zijn mogelijk hoger dan de andere typen, maar voor veel organisaties is het kunnen voldoen aan privacy- en dataprotectierichtlijnen belangrijker dan de potentiële kostenbesparing van de externe private en public cloud-typen.

De datacenterstrategie dient richting te geven wanneer en voor welke IT-toepassingen clouddiensten worden ingezet. Voor deze toepassingen hoeft immers geen capaciteit meer te worden aangehouden in de eigen datacenters.

Disaster Recovery nieuwe stijl

Twee derde van alle organisaties beschikt over een datacenter dat als uitwijklocatie fungeert voor het primaire datacenter in geval van ernstige IT-calamiteiten, een zogenaamde ‘Disaster Recovery-site’. De helft van deze organisaties heeft dit datacenter in eigendom ([Bala07]). Dit betekent dat ongeveer een derde van alle organisaties in het geheel geen uitwijklocatie heeft en dat de overige organisaties hebben geïnvesteerd in eigen voorzieningen of deze huren bij een IT-serviceprovider.

De kosten voor deze uitwijkvoorzieningen zijn relatief hoog, te meer doordat deze voorzieningen een zeer lage bezettingsgraad kennen. De eerder beschreven technologische ontwikkelingen bieden echter mogelijkheden om Disaster Recovery op een kostenefficiënte wijze in te richten.

Een hoge virtualisatiegraad en een razendsnel glasvezelnetwerk tussen twee datacenterlocaties (‘twin datacenters’) vormen de belangrijkste ingrediënten om een hoog beschikbaarheids- en continuïteitsniveau te kunnen garanderen. Virtualisatie biedt immers de mogelijkheid applicaties dubbel uit te voeren, zonder dat op de uitwijklocatie de verwerkingscapaciteit aan de applicatie wordt toegewezen die voor normale operatie noodzakelijk zou zijn. In een twin-datacenter worden de data 24/7 en de applicaties meerdere keren per etmaal synchroon gehouden. In geval van een calamiteit dient op de uitwijklocatie de aan de betreffende applicatie(s) toegewezen verwerkingscapaciteit snel te worden opgeschaald en dienen de gebruikers naar de uitwijklocatie te worden ‘omgeleid’.

Het twin-datacenterconcept is niet nieuw. Zo is al sinds tientallen jaren met de zogenaamde Parallel Sysplex-technologie van IBM een mainframe in te richten als een cluster van twee of meer mainframes op locaties die kilometers uit elkaar liggen. De mainframes opereren dan als één logisch mainframe, dat zowel de data als de verwerking tussen beide locaties synchroniseert. Een twin-datacenter biedt dus een manier om ook Unix- en Windows-platformen dubbel uit te voeren, zonder dat hiervoor dubbele kosten dienen te worden gemaakt.

Ook cloud computing-leveranciers bieden al diensten aan specifiek voor Disaster Recovery-doeleinden. Een specifiek voorbeeld van een Disaster Recovery-dienst in de cloud is remote back-up. Hierbij worden back-ups niet meer naar tape weggeschreven, maar opgeslagen op een externe locatie van een cloudprovider. Deze back-ups zijn vanaf elke locatie met een internetverbinding weer te herstellen.

Kostenefficiënte Disaster Recovery staat hoog op de agenda van de CIO en zal daarom een positieve impuls geven aan investeringen in datacenters of cloudinitiatieven. In de datacenterstrategie zal daarom aandacht moeten worden besteed aan hoe datacenterinvesteringen bijdragen aan Disaster Recovery.

High-density devices

Door gebruik te maken van virtualisatie kunnen veel fysieke servers worden geconsolideerd op één (logische) krachtige server. Doordat de bezettingsgraad van deze krachtige server aanzienlijk hoger is dan de afzonderlijke fysieke servers (gemiddeld tachtig procent op een virtueel cluster van servers versus twintig procent op een enkelvoudige server) kent een sterk gevirtualiseerd datacenter een hogere dichtheid van verwerkingscapaciteit per vierkante meter. De verschillende hardwareleveranciers introduceerden de afgelopen jaren dan ook steeds omvangrijkere en krachtigere servers, zoals de IBM Power 795, de Oracle Sun M8000/M9000 en de HP 9000 Superdome. Terwijl de afgelopen twintig jaar een verschuiving heeft plaatsgevonden van gegevensverwerking van het mainframe naar compactere servers lijkt nu weer sprake te zijn van een tegengestelde beweging naar zogenaamde ‘high-density devices’.

Een direct gevolg hiervan is een hogere energiebehoefte per vierkante meter, niet alleen voor het voeden van de krachtige servers maar ook om deze servers te kunnen koelen. Bestaande datacenters kunnen niet altijd voorzien in deze hogere energie- en koelbehoefte, waardoor de beschikbare ruimte niet optimaal kan worden benut. Daarnaast is het gewicht van dergelijke systemen dermate, dat het draagvermogen van vloeren in datacenters niet altijd toereikend is en versteviging van de computervloer noodzakelijk kan zijn.

Datacenterexploitanten staan dan ook voor de uitdaging een balans te vinden in het verhogen van de dichtheid van IT-apparatuur door fysieke concentratie en virtualisatie met de beschikbare stroom-, koel- en vloercapaciteit. De paradox is dat door de inzet van kostenbesparende virtualisatietechnieken mogelijk snel tegen de grenzen van bestaande datacenters wordt aangelopen, waardoor juist aanvullende kosten ontstaan ([Data]).

De datacenterstrategie zal rekening moeten houden met de mogelijkheden tot het plaatsen van high-density devices in bestaande of nieuwe datacenters.

Datacenter ‘in a box’

Met datacenter ‘in a box’ wordt een ontwikkeling bedoeld van het clusteren van verwerkings-, opslag- en netwerkapparatuur tot logische eenheden. Zo’n cluster wordt gevormd door een aantal aaneengeschakelde apparatuurracks, met separate voorzieningen voor gegarandeerde stroomtoevoer en koeling. Een datacenter ‘in a box’ kan ook in bestaande datacenters worden opgebouwd. Hierbij zijn de apparatuur, stroomvoorziening en koeling zo op elkaar afgestemd, dat ook in ‘ouderwetse’ datacenters high-density devices kunnen worden geplaatst.

Het voordeel van dit concept is dat na de eenmalige technische installatie van het cluster geen fysieke aanpassingen meer nodig zijn totdat de maximale verwerkings- of opslagcapaciteit is bereikt. Hierdoor kan het merendeel van de beheeractiviteiten volledig op afstand worden uitgevoerd.

Een tastbaar voorbeeld van een datacenter ‘in a box’ is ‘container-based computing’, waarbij een dergelijk cluster is ingebouwd in een 20 of 40 voet zeecontainer. Dergelijke minidatacenters worden door Defensie al jaren als tijdelijke voorzieningen op afgelegen locaties ingezet. Een recentere ontwikkeling is het gebruik van minidatacenters in zeecontainers als modules van een groot, schaalbaar datacenter. Voor deze methode heeft Google enkele jaren terug zelfs een patent aangevraagd ([Goog10]).

De datacenterstrategie dient inzicht te geven in hoeverre gesteund gaat worden op datacenter ‘in a box’-concepten.

Automatisering van IT-operationsprocessen

Een significant deel van de operationele kosten van een datacenter bestaat uit personeelskosten. Daarnaast helpt het verregaand automatiseren van deploymentprocessen de doorlooptijd van IT-projecten te verkorten van maanden tot enkele weken.

Er is dan ook een sterke trend waarneembaar voor het verregaand automatiseren van IT-operationsprocessen in het datacenter. Hierbij worden traditionele beheertools (workflow tooling voor ITIL[Information Technology Infrastructure Library, meestal afgekort tot ITIL, is ontwikkeld als een referentiekader voor het inrichten van de beheerprocessen binnen een ICT-organisatie. http://nl.wikipedia.org/wiki/Information_Technology_Infrastructure_Library] beheerprocessen en de CMDB[CMDB: Configuration Management Database, de gegevensverzameling waarin informatie met betrekking tot de Configuration Items (CI’s) wordt vastgelegd en beheerd. De CMDB vormt de spil van de ITIL-beheerprocessen.]) geïntegreerd met tooling voor het modelleren van de samenhang tussen bedrijfsprocessen, applicaties en de onderliggende IT-infrastructuur (‘Business-IT alignment’), performance monitoring, geautomatiseerd testen, IT-kosten- en resourceplanning, IT-project- en programmaplanning, securitytesting en nog veel meer. Een voorbeeld van een IT operations toolsuite is HP’s Business Technology Optimization (HP BTO) ([HPIT]).

Het verregaand automatiseren van IT-operationsprocessen en het gebruik van virtualisatie en centrale opslagsystemen stelt IT-organisaties in staat datacenters met een minimale bezetting te beheren. Alleen externe hardwareleveranciers hebben binnen strakke onderhoudswindows nog fysieke toegang nodig tot de computervloeren in het datacenter, verder zijn de datacentervloeren onbemand. Dit wordt het zogenaamde lights-out principe genoemd, omdat bij afwezigheid van personeel de verlichting in het datacenter vrijwel permanent kan worden uitgeschakeld. Ook dit is geen nieuw concept, maar door het gebruik van centrale opslagsystemen en virtualisatie kan het aantal fysieke handelingen op de datacentervloer tot een minimum worden beperkt en is het breed toepassen van het lights-out principe een flinke stap dichterbij.

Het automatiseren van IT-operationsprocessen heeft verregaande gevolgen voor de werkprocessen, competenties en formatie van IT-afdelingen en dient daarom voldoende aandacht te krijgen in de datacenterstrategie.

Marktontwikkelingen

In deze paragraaf wordt ingegaan op de toekomstvisie rondom datacenters van enkele beeldbepalende leveranciers van IT-diensten en -oplossingen.

IT-serviceproviders als Atos Origin stellen hun datacentervisie bij om beter te kunnen aansluiten bij de behoeften van hun klanten. Hierbij noemt Atos Origin de volgende speerpunten in haar datacentervisie ([Atos]):

  • kostenreductie en kortere terugverdientijd van investeringen;
  • sneller reageren op (veranderende) businesseisen (agility);
  • beschikbaarheid: beschikbaarheidseisen zijn gestegen naar ’24/7 forever’;
  • beveiliging en continuïteit: toegenomen bewustwording, mede door terroristische dreigingen;
  • compliance: voldoen aan door de industrie en van overheidswege voorgeschreven standaarden;
  • toename in density-eisen: het kunnen beheren van high-densitysystemen met een sterk groeiende energieconsumptie en warmteproductie;
  • toename in energie-efficiency: gebruik van meer energiezuinige IT-hardware en koeltechnieken.

Cisco zet in haar datacentervisie ([Cisc]) in op het verhogen van flexibiliteit en operationele efficiency en het doorbreken van klassieke applicatiesilo’s. Cisco stelt als randvoorwaarde het verbeteren van risicomanagement en complianceprocessen in datacenters, teneinde de integriteit en beveiliging van data in virtuele omgevingen te waarborgen. Cisco schetst een ontwikkelpad van datacenters met een sterk heterogene IT-infrastructuur via een aantal stadia van consolidatie, standaardisatie, automatisering van beheer en self-service naar cloud computing.

IBM zet voor het verhogen van de stabiliteit en flexibiliteit van datacenters in op modulariteit ([IBM10]) (‘pay as you grow’). Doel hierbij is zowel investeringen als operationele kosten tot een minimum terug te dringen. Hierbij vormt het reduceren van energieverbruik voor IBM een belangrijk thema omdat een groot deel van de investeringen in en exploitatiekosten van een datacentergebouw gerelateerd is aan energie. IBM schat in dat circa zestig procent van de investeringen in een datacenter (met name de technische installaties voor koeling, redundante stroomlevering) en vijftig tot vijfenzeventig procent van de niet-personele exploitatiekosten (stroomverbruik van datacenter en IT-apparatuur) van een datacenter gerelateerd zijn aan energie. De toenemende energieconsumptie van IT-apparatuur vraagt om datacenterontwerpen die kunnen anticiperen op een verdubbeling of verdrievoudiging van energiebehoeften gedurende de levensduur van een datacenter, aldus IBM.

Hewlett Packard (HP) onderkent net zoals Cisco een ontwikkelpad voor datacenters ([HPDa]), waarbij een verschuiving optreedt van applicatiespecifieke IT-hardware, via shared services op basis van virtuele platformen en geautomatiseerd beheer naar servicegeoriënteerde datacenters en cloud computing. HP propageert hierbij haar Data Center Transformation (DCT)-concept als een geïntegreerd geheel aan projecten voor de consolidatie, virtualisatie en procesautomatisering binnen datacenters.

De rode draad in deze marktontwikkelingen is het verlagen van operationele kosten, het verhogen van de flexibiliteit en stabiliteit van datacenterdiensten door het terugbrengen van de complexiteit van de IT-infrastructuur en het sterk inzetten op virtualisatie en energie-efficiënte technologieën. Hierbij wordt cloud computing als een natuurlijke vervolgstap gezien van de consolidatie en virtualisatie van datacenters.

Uitdagingen rondom datacenterconsolidatie

Datacenterconsolidatie draait om het terugbrengen van een veelheid aan verouderde en inefficiënte datacenters en computerruimten naar één of een beperkt aantal moderne, groene datacenters. Dit lijkt op het eerste gezicht een technisch vraagstuk en niet veel meer dan een IT-verhuizing. Niets is echter minder waar. Organisaties worstelen met vragen als: Hoe betrekken we de proceseigenaren bij het nemen van onderbouwde besluiten? Kennen we onze IT-infrastructuur voldoende om dit planmatig en beheerst uit te voeren? Hoe beperk ik risico’s op verstoringen tijdens de migratie? Hoe groot moet het nieuwe datacenter zijn om klaar te zijn voor de toekomst? Of moeten we gewoon naar de cloud? Wat zijn de investeringskosten en de te verwachten besparingen van een datacenterconsolidatietraject?

Kortom, het is niet eenvoudig te onderbouwen dat de voordelen van datacenterconsolidatie opwegen tegen de kosten en risico’s. In deze paragraaf zullen we kort ingaan op de uitdagingen die samenhangen met datacenterconsolidatie en de migratie van IT-toepassingen tussen datacenters.

Risico’s van datacenterconsolidaties

Datacenterconsolidatie vraagt om een groot aantal goed geregisseerde migratiebewegingen in een korte periode, terwijl ‘de winkel’ open moet blijven. Dit maakt deze trajecten tot bijzonder complex en inherent risicovol:

  • De tijdsspanne waarbinnen migratiebewegingen kunnen plaatsvinden zijn beperkt en kort. Door hoge beschikbaarheidseisen dienen migraties in een beperkt aantal weekeinden per jaar te worden uitgevoerd.
  • De migratie of verhuizing van applicaties, zonder risico op data- of productieverlies, vraagt om doordachte fall-backscenario’s. Deze fall-backscenario’s voegen extra complexiteit toe aan de migratieplannen en halveren doorgaans de tijdsspanne waarbinnen migraties moeten worden uitgevoerd.
  • De complexiteit van grootschalige migraties kan sterk oplopen. Als sprake is van veel applicaties, een veelvoud aan onderliggende technische componenten en een groot aantal betrokken leveranciers van hardware, applicaties en beheerdiensten worden de migratiedraaiboeken complexer. Hierdoor neemt het risico toe dat door gebrek aan overzicht en gedegen communicatie fouten worden gemaakt.

In de volgende paragrafen staan we stil bij mitigerende maatregelen rondom de organisatie en rondom de migratieaanpak om de risico’s van datacentermigraties tot een beheersbaar niveau terug te dringen.

Reduceren van projectrisico’s

Vanwege de complexiteit van een datacentermigratie is het noodzakelijk in het migratieprogramma een gestructureerd proces in te richten voor risicobeheersing. Dit proces heeft tot doel gedurende het programma op een continue, proactieve en uniforme wijze projectrisico’s te identificeren, deze op een consistente wijze te wegen en actief te sturen op de realisatie van mitigerende maatregelen.

Een typisch datacentermigratietraject bestaat uit een grondige analyse van de te migreren omgeving, een gedegen werkvoorbereiding waarbij de IT-infrastructuur in logische infrastructuureenheden wordt verdeeld die elk als één geheel gemigreerd zullen worden en deelprojecten voor de migratie van elk van de logische infrastructuureenheden. Per migratieproject zullen migratiedraaiboeken en fall-backscenario’s moeten worden opgesteld, geautomatiseerde tests worden ingeregeld en de draaiboeken grondig moeten worden getest. Immers, door gedegen testen en dry runs van de migratiedraaiboeken vooraf wordt de kans op een fall-back tijdens de migratie aanzienlijk teruggebracht.

Omdat het van groot belang is alle handelingen zoals het uitschakelen en weer inschakelen van hardware en softwarecomponenten in de juiste volgorde of juist gelijktijdig te doen, worden minuut-tot-minuut-draaiboeken opgesteld. Vanwege de omvang en complexiteit van deze draaiboeken wordt hiervoor gesteund op geautomatiseerde tools die veel weg hebben van de sturing op continue processen in een fabriek.

Reduceren van migratierisico’s

Voor het migreren van technische infrastructuur en applicaties is een aantal migratiemethoden te onderscheiden. In figuur 4 zijn deze methoden gevisualiseerd en zijn de voor- en nadelen van elke methode kort uiteengezet.

C-2011-1-Boersen-04

Figuur 4. Datacentermigratiemethoden, voor- en nadelen.

Een fysieke verhuizing, de zogenaamde ‘lift & shift’-methode, heeft als inherent risico dat tijdens het uitschakelen, vervoer en weer inschakelen van de apparatuur hardwaredefecten ontstaan. Indien deze hardwaredefecten niet snel kunnen worden opgelost, bestaat geen fall-backscenario meer om op terug te vallen.

In geval van een fysieke migratie (P2P) wordt een gelijkwaardige IT-infrastructuur opgebouwd op locatie B en worden de data en kopieën van de systeemconfiguraties via een migratienetwerk overgebracht. Het voordeel van deze methode is het relatieve gemak van de migratie, het nadeel is dat geen sprake is van technologische vooruitgang en er daarom geen efficiencyvoordelen kunnen worden bereikt door bijvoorbeeld een hogere bezettingsgraad van servers en storagesystemen.

Bij de virtualisatieaanpak (P2V) wordt op de nieuwe locatie een virtualisatieplatform opgebouwd en worden de applicaties op locatie B gevirtualiseerd en getest. Vervolgens worden de actuele data via het migratienetwerk overgebracht. Het nadeel van dit scenario zijn de onzekerheden die worden geïntroduceerd doordat alle applicaties moeten worden gevirtualiseerd. Applicatiewijzigingen in de productieomgeving op locatie A moeten ook worden doorgevoerd in de gevirtualiseerde omgeving op locatie B. Het voordeel is dat een significante efficiencyslag kan worden geboekt, omdat dezelfde applicaties na de migratie aanzienlijk minder hardware nodig zullen hebben.

De virtuele migratie (V2V) veronderstelt een hoge virtualisatiegraad op locatie A, waardoor vrij eenvoudig de data en applicaties kunnen worden overgebracht naar een gelijkwaardig virtualisatieplatform op locatie B. Deze migratieaanpak heeft veel weg van de manier waarop binnen een twin-datacenter gegevens en applicaties worden gerepliceerd over meerdere locaties heen. Het nadeel van deze methode is dat lang niet alle applicaties zijn gevirtualiseerd.

In de praktijk zal een mix van migratiemethoden worden gekozen, afhankelijk van de aard van het te verhuizen platform.

Kosten-batenafwegingen

Bij de keuze van een goede mix van migratiemethoden zal sprake zijn van een afweging tussen migratiekosten en -risico’s. Het sterk terugdringen van migratierisico’s kan leiden tot een eindsituatie waarbij dezelfde technische standaarden worden gehanteerd dan voor de migratie. Hierbij is dus beperkt sprake van het behalen van kosten- en efficiencyvoordelen door technologische vooruitgang. Idealiter sluit de technische architectuur van de situatie na migratie goed aan bij de technische standaarden van de IT-beheerorganisatie. Indien het datacenterbeheer is uitbesteed, dient aansluiting gezocht te worden bij de ‘fabrieksstandaarden’ van de IT-serviceprovider.

Door te rigide te sturen op het reduceren van migratierisico’s kunnen de operationele kostenbesparingen na de migratie wel eens tegenvallen, doordat er onvoldoende aansluiting is bij de standaarden van de serviceprovider. Het migratiescenario is dus een trade-off tussen een acceptabel migratierisico, ingegeven door bijvoorbeeld de BIV (Beschikbaarheid, Integriteit, Vertrouwelijkheid)-classificatie van een applicatie en de kosten die met zowel de migratie als de operationele fase na migratie gemoeid zijn.

Welke datacenterstrategie past bij uw organisatie?

De in dit artikel beschreven technologische en marktontwikkelingen kunnen aanleiding geven tot het evalueren van de bestaande datacenterstrategie. Men kan een nieuw eigen datacenter bouwen, het bestaande datacenter renoveren, delen of de gehele IT-infrastructuur hosten bij een derde partij of naast het hosten van de infrastructuur ook gebruikmaken van cloud computing-diensten. Ter illustratie van de te maken keuzen in een datacenterstrategie hebben wij drie verschillende strategieën uiteengezet.

1. Het bouwen van een eigen datacenter

Een trend die vooral zichtbaar is bij de huidige internetgiganten zoals Apple, Google en Facebook is het bouwen van (grote) nieuwe datacenters. Hoewel het huren van ruimte bij IT-leveranciers relatief eenvoudig is zet de trend van het bouwen van eigen datacenters toch door. Partijen willen tegenwoordig niet meer geremd worden door beperkingen die kunnen ontstaan door het plaatsen van IT-apparatuur bij een derde partij. Daarnaast zijn organisaties niet graag nog langer afhankelijk van serviceovereenkomsten, verborgen beperkingen in de dienst die wordt geleverd of het principe van alles-tegen-meerprijs.

Een andere overweging bij het bouwen van een eigen datacenter is dat organisaties nog altijd graag dicht bij hun eigen data willen blijven. Dit blijkt niet alleen uit de grote populariteit van private clouds maar ook veel organisaties worstelen nog met zorgen omtrent beveiliging en controle over de onderliggende infrastructuur. Daarom blijven organisaties die voor een groot deel hun omzet verdienen met het leveren van webdiensten of ondersteuning van ICT, graag eigenaar van de gehele IT-infrastructuur, inclusief het datacenter.

Ook kostenoverwegingen spelen een belangrijke rol bij de keuze voor het bouwen van een nieuw datacenter. Hoewel het afnemen van housing- en hostingdiensten bij een derde partij in eerste instantie financieel aantrekkelijk is willen organisaties nog altijd terugkomende maandelijkse kosten omzetten in opbrengsten. Zeker indien de return on investment hoger is bij zelfbouw ten opzichte van het afnemen van housing en hosting.

Green ICT is een ontwikkeling die grote invloed heeft op de keuze voor de bouw van een nieuw datacenter. Zeker wanneer de schaal van gebruik van datacenterfaciliteiten groot is maken veel organisaties de keuze om zelf een efficiënter en kosteneffectiever datacenter te bouwen dan dat van de leverancier.

2. Het renoveren van een bestaand datacenter

Hoewel het renoveren van een bestaand datacenter op het eerste gezicht lager in kosten lijkt te zijn, kunnen renovatieprojecten door een grote complexiteit snel uitlopen in miljoenenprojecten en uiteindelijk duurder zijn dan een nieuwbouwproject. Complexiteit komt vooral voort uit het feit dat tijdens het renoveren van de bestaande datacenterruimte de IT-infrastructuur beschikbaar dient te blijven. Werkzaamheden vinden vaak plaats dicht bij de veelal kostbare hardware die gevoelig is voor trillingen, stof en temperatuurschommelingen. Daarnaast dient personeel van één of meer aannemers toegang te krijgen tot het datacenter waar de vertrouwelijke gegevens van de organisatie zijn opgeslagen, hetgeen aanvullende beveiligingsrisico’s met zich meebrengt.

Toch brengt het renoveren van een bestaand datacenter ook voordelen met zich mee. Een renovatie resulteert niet in de noodzaak tot het opzetten van een gedetailleerd migratieplan voor het transporteren van hardware van locatie A naar locatie B. Soms gaan beslissingen verder dan alleen kosten en technologiegedreven overwegingen. Indien het management van een organisatie gelooft in het vasthouden van competitief voordeel door het behouden van het datacenter op de hoofdkantoorlocatie, dan zal het management minder snel overwegen een nieuw datacenter te bouwen op een nieuwe locatie.

3. Het (gedeeltelijk) uitbesteden van de IT-infrastructuur of het afnemen van clouddiensten

Het uitbesteden van (delen van) de IT-infrastructuur kan tevens een overweging zijn om kosten voor nieuwbouw of renovatie te vermijden. Echter, het outsourcen van ICT kan (minstens) net zulke grote kosten met zich meebrengen. Veel organisaties overwegen om clouddiensten af te gaan nemen van derde partijen doordat organisaties geloven dat er veel kosten mee kunnen worden bespaard. Immers, de time-to-market is relatief kort doordat geen hardwareselectie- en installatietrajecten nodig zijn. Echter, recent onderzoek heeft uitgewezen dat outsourcing waarbij nieuwe technologie wordt toegepast niet zonder meer kostenreductie en flexibiliteit oplevert ten opzichte van het bouwen van een eigen datacenter of het renoveren van een datacenter ([Koss10]).

Voorbeelden van datacenterstrategieën

Datacenterstrategie binnen de Rijksoverheid

In de brief die minister Donner op 14 februari 2011 naar de Tweede Kamer stuurde ([Rijk]) kondigt hij aan dat in het kader van het Uitvoeringsprogramma Compacte Rijksdienst het aantal datacenters van de Rijksoverheid drastisch wordt teruggebracht van meer dan zestig naar vier à vijf. Een dergelijke grootschalige consolidatie van datacenters is in Nederland niet eerder uitgevoerd en is door de vele betrokken departementen en uitvoeringsinstellingen en het grote aantal datacenters naar Europese en zelfs mondiale maatstaven een unieke uitdaging. Edgar Heijmans, de programmamanager Consolidatie Datacenters, stelt ([Heijm]) dat dit een noodzakelijke stap is richting het inzetten van cloudservices binnen de Rijksoverheid. In de gekozen aanpak onderkent hij in een meerjarenplan de stappen gemeenschappelijke datacenter housing, gemeenschappelijke datacenter hosting en ten slotte het delen van een applicationstore in een overheidscloud. KPMG is zowel betrokken geweest bij het opstellen van de businesscase voor datacenterconsolidatie voor de Rijksoverheid, alsook bij een brede analyse naar de kansen en risico’s van cloud computing binnen het Rijk.

Internationale bank en verzekeraar

Een internationale bank-verzekeraarcombinatie had als datacenterstrategie de circa vijftien datacenters in de Benelux te consolideren tot drie moderne, nieuw te bouwen datacenters. Toen enkele jaren geleden deze strategie vorm kreeg was nog niet bekend dat door de crisis in de financiële sector de groeiprognoses naar beneden moesten worden bijgesteld en dat in 2010 de bank- en verzekeringsactiviteiten zouden worden gesplitst in twee separate ondernemingen. De crisis en deze splitsing hebben een significante impact gehad op de businesscase voor de voorgenomen datacenterconsolidatie. KPMG is met een internationaal team betrokken geweest bij de herijking van de datacenterstrategie en de onderliggende businesscase.

Europese verzekeraar

Toen enkele jaren terug deze grote verzekeraar haar IT-infrastructuurbeheeractiviteiten uitbesteedde aan een aantal marktpartijen was al bekend daar haar datacenters sterk verouderd waren. Als gevolg hiervan ondervond de verzekeraar allerhande technische storingen, van lekkende koelsystemen tot aan wekelijkse stroomstoringen. De strategie van deze verzekeraar is haar gehele IT-infrastructuur onder te brengen bij de datacenters van de datacenterprovider in Nederland en Duitsland. De migratie van een dergelijke complexe IT-infrastructuur vergt echter een gedetailleerd inzicht in de samenhang tussen de kritische bedrijfsketens, applicaties en onderliggende technische infrastructuur. Ten tijde van het uitkomen van deze Compact is deze verzekeraar druk bezig met het programma om haar bestaande datacenters leeg te halen en te verhuizen naar haar datacenterprovider. Hierbij kiest men voor het virtualiseren van bestaande systemen en het ‘virtueel verhuizen’ van de systemen en bijbehorende data in een beperkt aantal weekeinden. KPMG is bij dit programma betrokken op het punt van de inrichting van het risicomanagementproces.

Conclusies

Uit onze ervaringen bij klantorganisaties blijkt dat er geen magische formule bestaat die eenduidig wijst naar renovatie, nieuwbouw of uitbesteding van datacenters. De uitgangspunten van een datacenterstrategie dienen goed aan te sluiten bij de bedrijfsdoelstellingen, investeringsruimte en ‘risk-appetite’ van de organisatie. De in dit artikel beschreven technologische en marktontwikkelingen maken langetermijnkeuzen noodzakelijk. Het centrale thema hierbij is ‘meer doen met minder’. ‘Minder doen’ in de zin van het consolideren van datacenters en serverparken met servervirtualisatie. Dit heeft ook als effect dat voor dezelfde verwerkingscapaciteit minder energie nodig is. ‘Meer doen’ in de zin van meer verwerkingscapaciteit voor hetzelfde geld en nieuwe mogelijkheden om Disaster Recovery onder te brengen in bestaande datacenters.

Deze innovaties vragen om grootschalige migratiebewegingen binnen en tussen datacenters, wat gepaard gaat met significante investeringen, kosten en migratierisico’s. Om deze risico’s tot acceptabel niveau terug te kunnen brengen dienen er goede afwegingen te worden gemaakt tussen de kosten en risico’s die tijdens de migratie genomen worden en gedurende de operationele fase na de migratie zich kunnen voordoen. Het artikel illustreert de praktijk met enkele korte voorbeelden van datacenterstrategieën, uitgaande van nieuwbouw, renovatie en uitbesteding van datacenters.

Literatuur

[Atos] http://www.atosorigin.com/en-us/services/solutions/atos_tm_infrastructure_solutions/data_center_strategy/default.htm.

[Bala07] Balaouras, Schreck en Forrester, Maximizing Data Center Investments for Disaster Recovery And Business Resiliency, October 2007.

[Barr07] L.A. Barrosso en U. Hölze, The Case For Energy-Proportional Computing, Google, IEEE Computer Society, December 2007.

[Cisc] Cisco Cloud Computing – Data Center Strategy, Architecture and Solutions, http://www.cisco.com/web/strategy/docs/gov/CiscoCloudComputing_WP.pdf.

[Data] Data Center Optimization, Beware of the Power Density Paradox, http://www.transitionaldata.com/insights/TDS_DC_Optimization_Power_Density_Paradox_White_Paper.pdf.

[Fria08] Friar, Covello en Bingham, Goldman Sachs IT Spend Survey 2008, Goldman Sachs Global Investment Research.

[Goog10] Google Patents ‘Tower of Containers’, Data Center Knowledge, June 18th, 2010, http://www.datacenterknowledge.com/archives/2010/06/18/google-patents-tower-of-containers/.

[Heijm] http://www.digitaalbestuurcongres.nl/Uploads/Files/T05_20-_20Heijmans_20_28BZK_29_20-_20Consolidatie_20Datacenters.pdf.

[Herm10] J.A.M. Hermans, W.S. Chung en W.A. Guensberg, De overheid in de wolken? De plaats van cloud computing in de publieke sector, Compact 2010/4.

[HPDa] HP Data Center Transformation strategies and solutions, Go from managing unpredictability to making the most of it: http://h20195.www2.hp.com/v2/GetPDF.aspx/4AA1-6781ENW.pdf.

[HPIT] http://en.wikipedia.org/wiki/HP_IT_Management_Software.

[IBM10] Modular data centers: providing operational dexterity for an increasingly complex world, IBM Global Technology Services, november 2010, ftp://public.dhe.ibm.com/common/ssi/ecm/en/gtw03022usen/GTW03022USEN.PDF.

[Kapl08] Kaplan, Forrest en Kindler, Revolutionizing Data Center Energy Efficiency, McKinsey & Company, juli 2008: http://www.mckinsey.com/clientservice/bto/pointofview/pdf/Revolutionizing_Data_Center_Efficiency.pdf.

[Koss10] D. Kossmann, T. Kraska en S. Loesing, An evaluation of alternative architectures for transaction processing in the cloud, ETH Zurich, juni 2010.

[Meis09] D. Meisner, B.T. Gold en T.F. Wenisch, PowerNap: Eliminating Server Idle Power, ASPOLOS ’09, Washington DC, USA, March 2009.

[Rijk] http://www.rijksoverheid.nl/bestanden/documenten-en-publicaties/kamerstukken/2011/02/14/kamerbrief-uitvoeringsprogramma-compacte-rijksdienst/1-brief-aan-tk-compacte-rijksdienst.pdf.

Verified by MonsterInsights