Go to Top

Petabytes aan data migreren naar de cloud, hoe doe je dat?

Iedereen heeft het over ”de cloud”, maar wat is het eigenlijk?

Het begrip komt uit de ICT-wereld waar niet-gespecificeerde onderdelen in een netwerkdiagram met een wolkje gesymboliseerd worden. Van de informatie opgeslagen in de cloud weet alleen de cloudaanbieder op welke servers en in welke datacentra de data zijn opgeslagen. De software die voor de dataopslag wordt gebruikt bepaalt zelfstandig welke hardware er gebruikt wordt: veelgebruikte gegevens op snelle SSD’s, weinig gebruikte data zoals back-ups op langzamere maar voordeligere HDD’s. Voor sommige doeleinden is het handig de metagegevens van een bestand op een snelle schijf op te slaan en de bijbehorende graphics en video’s met een hoge resolutie op een langzamer opslagmedium te zetten. Het is daarom niet altijd even makkelijk te bepalen waar een bestand zich precies bevindt, je moet dan in de cloud graven.

Er zijn redenen genoeg voor het opslaan van data in de cloud. Dankzij de cloud heb je geen opslagsystemen, opslagapparatuur of beheerders meer nodig. Een ander voordeel is dat je makkelijk en snel je opslagruimte kunt uitbreiden. Het is bovendien veilig; up-to-date back-ups verzekeren een snelle data recovery mocht er een probleem ontstaan. In hoeverre de cloudaanbieder deze diensten ook daadwerkelijk aanbiedt moet voor het eventueel tekenen van een contract worden nagegaan.

Een belangrijk punt, afgezien van de betrouwbaarheid van de aanbieder die zijn servers in een rechtszeker land moet hebben staan, is de datalijn. Dataverkeer gaat normaal via het internet, waardoor een stabiele en snelle verbinding onmisbaar is. Dataveiligheid is natuurlijk ook onontbeerlijk. End-to-end encryptie voor het uploaden en downloaden moet net zo vanzelfsprekend zijn als hoogwaardige dataversleuteling op de servers van de cloudprovider.

Hoe krijg je de data van je huidige datacentrum naar hun toekomstige plek in de cloud?

De eerste mogelijkheid waar we het al even over hebben gehad is vrij eenvoudig: via het internet. Gaat het om data in hanteerbare hoeveelheden is dit een goede optie, maar vrij begrensd. Eén terabyte aan data die verplaatst moet worden via een normale T1-lijn met een snelheid van bijna 1,5 Mbps zal er al ruim twee en een halve maand over doen om op de plaats van bestemming te komen. Niemand zal hiermee genoegen nemen en dus bieden cloudaanbieders andere oplossingen aan, zo kunnen speciale tools het dataverkeer versnellen en datacompressie vermindert de datahoeveelheid.

De weg die data op het internet afleggen is ongereguleerd. Er wordt altijd geprobeerd gebruik te maken van minder drukke verbindingen, zo kan het dataverkeer tussen twee steden in Duitsland via Hong Kong en New York gaan. Een rechtstreeksere netwerkverbinding zou deze weg beduidend korter maken. Het bundelen van internettoegang of rechtstreekse verbindingen zijn een paar voorbeelden van de diensten die worden aangeboden.

Maar wat te doen als een stabiele verbinding niet goed genoeg is? Gaat het om petabytes aan data die verplaatst moeten worden lijkt het een eeuwigheid te duren, zelfs met de snelste verbindingen, om over de kosten nog maar te zwijgen. Er zijn dus vindingrijke oplossingen nodig voor de grote hoeveelheden data.

Amazon bijvoorbeeld biedt klanten een ophaalservice voor data aan. Er wordt dan een krachtige opslagserver in een vrachtwagen genaamd Snowmobile naar de klant gereden. De server met 100 PB opslagruimte wordt dan via een ultrasnelle verbinding aangesloten op het bedrijfsnetwerk. In het gunstigste geval kan de server in 10 dagen gevuld worden. De volgeladen server wordt dan weer naar een datacenter van Amazon gereden, waar de data naar de cloud worden geüpload. Het is te verwachten dat andere cloudaanbieders dit voorbeeld zullen gaan volgen.

Picture copyright: Paul Mah

, , , ,