De ketting in datacommunicatie is net zo sterk als de zwakste schakel. Connectivity is een van de belangrijkste schakels, maar wordt nogal eens veronachtzaamd.Hier is het tweede deel van een serie blogs over connectivity en enterprise computing. De ontwikkeling van connectivity binnen datacentric computing kent drie maturity fasen, in lijn met IT in het algemeen: zelf doen, uitbesteden en als een kant-en-klare service afnemen (cloud).
In welke fase van volwassenwording de onderneming ook verkeert, er is altijd enige mate van connectiviteit nodig. Welke mate dat is, verschilt per bedrijf en vervolgens per applicatie. Dat dient goed in kaart te worden gebracht. Om die reden is het altijd aan te raden een Zero Assessment te doen om te beoordelen in hoeverre de bestaande connectivity in lijn is met de bedrijfsstrategie en de bedrijfsprocessen van de onderneming en om bij afwijkingen vervolgens vast te stellen wat er moet gebeuren om de connectivity af te stemmen op de huidige en toekomstige behoeften. Het is belangrijk de eisen te identificeren die aan de business worden gesteld, bijvoorbeeld door toezichthouders. In de financiële sector kunnen de toezichthouders het synchroon repliceren van data opleggen. De connectivity moet dat wel mogelijk maken. Ook de wensen van de business zelf moeten worden vastgesteld.
Een tweede uitgangspunt vormen de applicaties die je op meer locaties wilt inzetten. Per applicatiecategorie wordt vanuit risk management en kostenperspectief vastgesteld welke connectiviteit nodig is. Storage replicatie bijvoorbeeld, heeft een ander connectivity profiel dan filesharing, Office-toepassingen zijn minder bedrijfskritisch dan primaire bedrijfsapplicaties zoals crm, erp of procesbesturing. De gemiddelde latency van transatlantische verbindingen van zestig tot tachtig milliseconde is prima voor gebruik van bijvoorbeeld kantoortoepassingen, maar niet geschikt voor het synchroon repliceren van data.
De scope van de Zero Assessment
1 Eisen van de business, al dan niet opgelegd door wetgeving of toezichthouders
2 Basisinfrastructuur en –applicaties (bijoorbeeld. Office)
3 Bedrijfsspecifieke applicaties (bijvoorbeeld erp)
4 Onderlinge relaties tussen data, servers, storage en netwerken
5 Het datavolume per tijdseenheid (feitelijk en verwacht)
6 Benodigde bandbreedte (gedimensioneerd op piekbelasting)
7 De toedeling van bandbreedte per applicatie en per vestiging.
De Zero Assessment laat dus zien wat de minimaal en maximaal benodigde bandbreedte is en wat de latency-effecten zijn vanuit het perspectief van de gebruikers en van de applicaties.
In mijn volgende blogs zal ik verder ingaan op de drie fasen van maturity en de (on)mogelijkheden van maximale beschikbaarheid. Stay tuned!
Olav,
Valide punten.
Beschikbaarheid is natuurlijk van groot belang. Connectivity/bandbreedte speelt een zeer belangrijke rol op het gebied van RPO/RTO. Latency speelt zoals je al kort aanhaalt hier een cruciale rol in.
Ik vind wel dat dataclassificatie nog ietwat onderbelicht is in je stuk. Maar misschien maakt dit onderdeel uit van je 7 zeven punten. Niet alles hoeft namelijk over de lijn. En juist hier kan men besparen en effectiever met de resources omgaan.
Ik heb hier in het verleden al eens wat over geschreven.
https://www.computable.nl/artikel/opinie/cloud_computing/4463114/2333364/bandbreedte-nog-te-vaak-ondergeschoven-kindje.html
Tsja, bezint eer ge begint…..
Connectivitity is tegenwoordig meer een gegeven, dat dit gegeven paard ook nog eens in de bek gekeken wordt is mooi meegenomen maar problemen willen ook nog weleens binnen het LAN liggen. Toezichthouders leggen, zoals Ruud ook al aangeeft een RTO/RPO eis op welke technisch ingevuld kan worden met synchrone replicatie maar uitdagingen rond latency volgens mij meer in de applicatie dan de opslag liggen.
Correct Ewout.
De uitdaging bevindt zich vaak op de applicatielaag en de daarbijhorende data. Latency is daar vaak killing.
Daarom zie je in de markt steeds meer CDP-achtige ( Continous Data Protection ) oplossingen voorbij komen. Dit komt bijna in de buurt van synchrone replicatie, met het grote voordeel dat de data consistent is.
Maar ook hier is nog steeds bandbreedte voor nodig. Dus ook hier moet je goed naar de changerate/omvang en frequentie kijken en daar het juiste “lijntje” bij zoeken.