Terwijl sommige organisaties met plezier in nieuwe datacentra investeren (zie Google en Microsoft) voor het ondersteunen van een nieuwe bedrijfsstrategie, miljoenen uitgeven voor de snelste en nieuwste technologie of over het algemeen een aanpak volgen van 'alles helemaal vervangen', lopen de meeste datacentra achter de feiten aan en kost het hen ten minste enkele jaren om de nieuwste ontwikkelingen in te halen.
De afgelopen tien jaar is er veel vooruitgang in technologieën voor datacentra gemaakt, maar er is een duidelijke kloof tussen de introductiefase van een product en het tijdstip van toepassing en groei, in tegenstelling tot wat veel verkopers ons willen doen geloven. Kijk om je heen: hoeveel van je klanten hebben hun datacenters gevirtualiseerd? Hoeveel hebben flash-opslag in hun omgeving opgenomen? Hoeveel verplaatsen werkelijk alles naar de cloud?
Jaren tachtig
Het komt geregeld voor dat de architectuur van datacentra uit de jaren tachtig komt (mainframes bijvoorbeeld); een gefaseerde, geleidelijke aanpak voor upgrades komt veel vaker voor. Dit is een uitdaging; wanneer verkopers een fortuin besteden aan het bevorderen van hun nieuwste aanbiedingen, hoe kunnen ze eindgebruikers dan uiteindelijk overhalen?
Veel voorkomende problemen die aangepakt moeten worden bij grote it-updates zijn onder andere de waargenomen kosten en de verstoring van de dagelijkse bedrijfsvoering, en dat veel beslissingen van klanten nog steeds afhankelijk zijn van wat bedrijven uit oudere systemen kunnen halen in plaats van de voordelen die het introduceren van een nieuwe technologie met zich meebrengen. Dit is geen verrassing gezien de ervaringen waar managers van datacentra aan zijn blootgesteld als resultaat van de ontwikkelingen in it.
Zo was er bijvoorbeeld de ondergang van de Information Technology Infrastructure Library (ITIL): organisaties gaven grote bedragen aan ITIL uit, met gebruik van zijn beste praktijken voor servicemanagement als referentie. Als gevolg van dergelijke investeringen worden praktijkupdates door eindgebruikers uitgesteld, hoewel ITIL niet meer in staat is om aan de vereisten voor datacentra van vandaag te voldoen.
Geen standaarden
Op dezelfde manier hebben klanten in allerlei soorten doodlopende technologieën geïnvesteerd die aan geen enkele standaard voldeden; denk aan alle virtualisatie vóór VMware en hulpmiddelen voor storage resource management (srm) die zijn weggevallen. Wederverkopers moeten er rekening mee houden dat hoewel deze toepassingen als ‘dinosaurussen’ kunnen worden gezien, veel eindgebruikers liever de huidige situatie behouden dan dat ze een zet maken die als riskant wordt gezien en hun infrastructuur moderniseren. Maar vergis je niet; soms zijn oudere technologieën nog steeds een logische keuze. Er zijn duizenden IBM-mainframes en fibre channel-netwerken die het vandaag nog steeds goed doen, ondanks de geruchten van hun dreigende ondergang die zich al jaren verspreiden.
De oplossing voor leveranciers ligt in het aanbevelen van een geleidelijke aanpak richting toepassingen en datacentrumupgrades en het gebruik van proefversies binnen organisaties aan te moedigen.
Een andere manier om veranderingen te introduceren, is het aanbieden van een beter, moderner alternatief in plaats van een grootscheepse vervanging. Een goed voorbeeld is het implementeren van een traffic access point (tap) in een it-systeem zodat het fibre channel-protocol offline kan worden gelezen zonder de lopende activiteiten te storen. Het tap is een vervangende technologie voor het patchpaneel, iets dat elk datacentrum heeft. Hoewel het implementeren van tap in de fibre channel-infrastructuur een best practice is, zijn slechts 2 procent van de nieuwe of migrerende datacentra van deze eenvoudige, goedkope technologie voorzien, die vertragingen en storingen en de bijbehorende verliezen aan inkomen, tijd en marktwaarde kunnen vermijden. Dit is een geweldige kans voor organisaties om alternatieve technologieën zoals tap’s te implementeren.
Big data boom
Om een bespreking omtrent datacentrumupgrades te starten, kunnen verkopers naar de huidige trends in de branche verwijzen. De ‘big data boom’ spoort organisaties bijvoorbeeld aan om naar hun it-omgevingen te kijken en om te beoordelen of het tijd is om in nieuwe capaciteit, toepassingen en hulpmiddelen voor infrastructure performance management (ipm) te investeren. Volgens rapporten van analisten zal de markt voor oplossingen die zich specifiek op ipm richten in 2015 wereldwijd 6,5 miljard euro waard zijn.
Dit is een spannende tijd voor de it-industrie en hoewel de kans om een datacentrum te vernieuwen mogelijk niet vaak aanwezig is, liggen er geweldige kansen in het aanbieden van een veilige, gefaseerde aanpak die systemen toekomstbestendig maakt.
Eric Jorgensen, vice president sales EMEA bij Virtual Instruments
Ik krijg sterk de indruk dat een marketing verhaal hier als opinie gebracht wordt, titel is al bedenkelijk als ik overweeg dat technologie geen doel maar een middel is. Als iets werkt dan hoef je het tenslotte niet zo snel te vervangen ook al wil marketing je graag anders doen geloven.
Als ik overweeg dat de jaren 80 automatisering vooral nog batch georiënteerde verwerkingen zijn dan vraag ik me af hoe Big Data in het plaatje past. Heb de indruk dat dit meer iets van de jaren 90 en later is waar gegevens toenamen maar informatie niet beter werd. Wil geen ode aan mainframe brengen maar heb de indruk dat er wel wat beter over die omgevingen nagedacht werd.
Stellen dat ITIL vandaag de dag niet meer past is dan ook bedenkelijk als ik overweeg dat het grootste probleem momenteel de betrouwbaarheid van informatie is. Bij virtualisatie voor VMware denk ik aan LPAR en bij Storage Resource Management aan capaciteitsmanagement omdat ik me nog kan herinneren uit het verleden dat niet alleen data gestructureerd was maar ook de planning.
Tot op de gulden nauwkeurig was de TCO/ROI dan ook te berekenen en er zaten veel minder verassingen in de ICT budgetten. In die tijd was er nog een sluitende boekhouding doordat vrij precies te bepalen was wie de resources gebruikte en ervoor te belasten was. Ook problemen waren snel te identificeren doordat er een uitgebreide en gestandaardiseerde logging was.
Tegenwoordig wordt elke probleem opgelost met meer technologie welke vaak ook nog eens van verschillende leveranciers komt die allemaal een eigen standaard hebben. Neem bijvoorbeeld alleen al het verschil in MIPS versus Mhz, uitdrukken van de totale bezettingsgraad is al lastig voor de processoren en wordt nog moeilijker als het dus om netwerk en opslag gaat.
In de vertaling van marketing termen die leveranciers hanteren zit al een groot verschil als ik kijk naar terminologie die gehanteerd wordt. Offline lezen van performance data is dan ook iets wat de nodige kennis vraagt omdat er nog geen metriekstelsel is, veel waarden zijn nog niet echt een standaard. Wil niet vervelend doen maar ‘a fool with a tool is still a fool’ als ik kijk naar sommige monitoring.
Nu ben ik een groot voorstander van: “meten is weten” maar alleen als de meting je de informatie geeft die je nodig hebt. Datacenter capaciteit is tenslotte nietszeggend als je niet weet wat het bijdraagt het rendement van de organisatie. Oftewel hoe vertaal je de technische gegevens naar de business?
Als je je virtualisatie voor VMware nog weet te herinneren ben je zelf legacy geworden. De industrie van nu heeft behoefte aan millenials die niet meer in termen van nee, nee, nee denken, maar de business agile ondersteunen met cloud- en mobile applossingen. Kijk naar wat Samsung en Apple met Nokia gedaan hebben. Bigdata zal als een meteoriet inslaan op de infrastructuur en de Cloud zal nog jaren donker kleuren. Alleen door adapting to change heb je kans te overleven. Anders wacht je hetzelfde lot als de dinos.
leuk ewout bashen marketing muzak 😛
Tja ik kom de laatste tijd ook een hoop MicroSoft en Cloud op mijn pad tegen.
Ik vraag me daarbij werkelijk af waneer we gaan meemaken dat leveranciers gewoon weer producten leveren die naar behoren en als afgesproken werken.
Legacy spul uit de jaren negentig die hier op een redelijke dikke server draait levert eigenlijk nauwelijks issues op.
Gedurende mijn hele cariere van meer dan vijfentwintig jaar (je wordt oud papa) heb ik eigenlijk steeds weer vast gesteld dat kwaliteit komt met kennis van zaken en dus goed opgezette omgevingen, en dus niet met marketing prietpraat.
Zoals verwacht ik ga dus voor Ewout 😉
Als het goed is hoef je klanten niet richting nieuwe technologie te sturen. Sterker, ik denk dat de gemiddelde klant die technologie een beetje ‘worst’ zal zijn. Waar men in is geïnteresseerd of hetgeen zij betalen rendement zal opleveren en een bepaalde mate van garantie.
Net als Ewout stel ik ook dat de techniek op zich niet het doel is aangezien IT de carrier/Vehikel dient te zijn voor de klant waarmee zij/hij een hoger rendement kan halen uit productie.
Het zal mij worst wezen of een vrachtwagen van 10 jaar oud, perfect onderhouden, mij binnen de afgesproken tijd weet te verhuizen of het een splinternieuwe truck betreft. Als de chauffeur geen benul heeft van logistiek heb je met beiden een probleem.
Big Data
Ik blijf het zeggen dat er weinig nietszeggend is als ‘Big Data’. Maar dat komt omdat ‘Big Data’ voor bijna 50% onbetrouwbare data betreft. Vreemd als je er even over na denkt en niemand het juist daar over wil hebben. Hoezo struisvogels?
Dit is een van de mindere stukken van de laatste tijd. Klanten richting nieuwe technologie sturen doe je niet als datacenter, maar als proleterige dozenschuiver. Indien je als huisleverancier weet dat de klant de nieuwe technieken goed kan gebruiken en dat is vaak zo, dan kan en moet je ze er op wijzen. En anders ga je samen kijken of de klant er baat bij zou heben.
Information Technology Infrastructure Library is niet techniek afhankelijk, zelfs niet ICT-afhankelijk. De opmerkingen in deze alinea is bullshitten van je klant. Ik vaker gezien dat bedrijven te veel geld in dozen hebben gestopt en daarom te weinig voor implementatie en beheer over hadden, dan andersom.
Big data is niet voor elke klant aan de orde. Niet elke klant heeft petabytes aan Big data. Afhankelijk van het soort klanten is het zaak om klaar te staan om de klant te kunnen ondersteunen door middel van zware (virtuele) database servers, eventueel heel veel bandbreedte en specifieke diensten. Voor andere klanten kun je beter een ander boompje opzetten.
Samengevat, nieuwe technologie is prima, maar daar hoort geen commercie bij uit de tijd van de dinosaurussen.
De auteur stelt de vraag ” Kijk om je heen: hoeveel van je klanten hebben hun datacenters gevirtualiseerd? Hoeveel hebben flash-opslag in hun omgeving opgenomen? Hoeveel verplaatsen werkelijk alles naar de cloud? ” en maakt daarmee gelijk duidelijk dat de klanten niet eenvoudig nieuwe technologie kopen, maar juist kijken naar wat het brengt in termen van functionaliteit, voordelen ten opzichte van de competitie, kosten en dergelijke.
Technologie is een voortschrijdend fenomeen en het tijdstip waarop je instapt als klant dien je weloverwogen te nemen. Het moment dat er zekerheid is over het voortbestaan van de technologie en de voordelen voor de business dient te worden afgezet tegen het moment van implementatie binnen de omgeving van de klant.
Leveranciers sturen de klant al heel lang naar technologie, maar de leveranciers die aan kunnen tonen dat de technologie ook iets oplevert waar de klant daadwerkelijk wat aan heeft heeft het echt begrepen.