Een groot aantal gebruikers van het Azure-cloudplatform ondervond ernstige problemen als gevolg van een wereldwijde storing bij Microsoft. Sommige diensten ondervonden rond negen uur ‘s avonds nog steeds hinder.
Een verkeerde configuratie-wijziging bij de Azure Front Door-dienst veroorzaakte de problemen. Microsoft schakelde daarop terug naar een eerdere configuratie die wel goed werkte. Maar het duurde enkele uren voordat het Content Delivery Network zich grotendeels had hersteld. Clouddiensten zoals Microsoft 365 en Outlook werkten een deel van de namiddag en vroege avond gebrekkig.
Onder meer de kaartautomaten van NS en de NS-reisplanner vielen langere tijd uit. AlleStoringen.nl registreerde even voor vijf uur 1.111 meldingen van storingen. De web-ticketshop van de voetbalclub Heracles kon geen orders meer verwerken. Ook in de VS werden veel storingen gemeld. Bij Alaska Airlines vielen hele systemen uit waaronder check-in diensten. Starbucks en Costco behoorden eveneens tot de slachtoffers.
De impact van de storing was in de eerste uren vrij groot, want sommige gebruikers kregen geen toegang tot Office 365/Microsoft 365, Copilot, Minecraft en X-Box Live. Zo meldt persbureau AP. Microsoft bevestigde de problemen met Microsoft365 en Azure op zijn service-statusoverzicht. De storingen werden toegeschreven aan moeilijkheden met de naamomzetting (dns).

was er al bang voor, maar ik dacht nog even dat het wel uit de context begrepen wordt:
hardware integratie, “onnodig verbinden met hardware en zo meteen vendor lockin inbouwen”, multiplatform compatibiliteit..
Esxi is erg picky op hardware, NIC en SSD, zie hun HCL. Heb zelf nog bootable isos getweaked om bepaalde “noodzakelijke” drivers erin te krijgen.
ProxmoxVE is Debian based en draait juist uitdedoos bijna overal op, stabiel.
Voor slechtverstaanders bedoel ik dus jullie technisch totaal overbodige primergy koppelverkoop met vendor lockin from day 1.
Ter vergelijking. Een drie node HA cluster voor MKB bestaande uit 3 barebone nucjes, 10 Gbit nics, 96 GB RAM per node, 2 TB storage heb je al compleet voor rond de 1000 euro per node. Ceph voor shared storage, PXE kickstart voor voor eerste install en ansible voor de IaC. Horizontaal schalen door nodes toevoegen, redundancy en HA kan blijkbaar ook on prem voor paar duizend euro.
Terwijl jij je engineers met kofferbak vol infrastructuur op pad stuurt..
Disclaimer: ik weet niets van de werkelijke prijzen die Fujitsu rekent en waarvoor, maar als ik oudlid zo hoor wordt mij idee daarover alleen maar bevestigd.
Je gaat voorbij aan de buitenbord motor van garanties want de poor man’s oplossingen van penny wise and pound foolish vergeet de consequentiekunde. Denk aan een incident om 19:00 vrijdag welke pas opgelost kan worden op maandag 09:00 vanwege de SLA. Of nog erger want ik ken zowel de kosten van een NUC als de garantievoorwaarden ervan.
Carry-in is zonder de engineer aan huis of wou jij die service gaan bieden Dino?
Zakelijke verkopers kunnen optionele on-site service of pick & return dienst aanbieden als het om je verwijt gaat. In de consequentiekunde moet je namelijk verder kijken dan je neus lang is, soms wel 5 tot 7 jaar verder omdat de edge niet agile is maar kritisch. Vergeet je de UPS niet Dino?
Hoewel dat natuurlijk weinig nut heeft zonder redundante PSU. En verder zul je bij de bij carry-in of pick & return rekening moeten houden met tijd, gemiddeld 5 werkdagen maar zoals gezegd kunnen de zakelijke verkopers de replacement service bieden om het proces te versnellen. Een kofferbak met infrastructuur voor de responsetijd in de SLA zullen we maar zeggen.
Een NUC-cluster is een leuke en betaalbare oplossing voor testomgevingen maar zodra de workloads – hoe klein ook – kritisch worden voor de bedrijfsvoering zou ik toch de consequentiekunde van Murphy toepassen.
UPS he, nou vooruit, paar honderd euro erbij dan, waarschijnlijk evenveel als jullie voorrijkosten 😉
Redundante PSU is overbodig bij HA clusters. Das het hele idee van HA clusters, waarbij denoods hele node kan uitvallen zonder de service te onderbreken.
Bij zo lage kosten per node, doe trouwens maar gelijk paar extra nodes redundant op de plank.
Meteen beschikbaar dus ipv je werkdagen tellen.
Soms vraag ik me af wie er nou legacy denkt.
Jullie enterprise cash-flow pick-in oplossing is vast net zo afhankelijk van externe dns als die van de hyperscalers in een van die kul kwadranten van gartner waar iedereen op zit de navelstaren ipv gewoon te onderzoeken wat werkelijke risicos zijn en hoe je daarop beste kunt reageren.
Maak maar vast een professionele status pagina met de melding dat de boel niet meer werkt vanwege “moeilijkheden met de naamomzetting (dns).”