Computable.nl
  • Thema’s
    • Carrière
    • Innovatie & Transformatie
    • Cloud & Infrastructuur
    • Data & AI
    • Governance & Privacy
    • Security & Awareness
    • Software & Development
    • Werkplek & Beheer
  • Sectoren
    • Channel
    • Financiële dienstverlening
    • Logistiek
    • Onderwijs
    • Overheid
    • Zorg
  • Computable Awards
    • Overzicht
    • Nieuws
    • Winnaars
    • Partner worden
  • Vacatures
    • Vacatures bekijken
    • Vacatures plaatsen
  • Bedrijven
    • Profielen
    • Producten & Diensten
  • Kennisbank
  • Nieuwsbrief

‘Data Utopia komt over tien jaar’

05 maart 2007 - 08:394 minuten leestijdActueelCloud & Infrastructuur
Teus Molenaar
Teus Molenaar

Een heterogeen global storage network noemt Jay Kidd van Netapp ‘Data Utopia’. Een onvermijdelijke toekomst voor dataopslag en databeheer. Conform de ontwikkeling van servers. Maar het kan nog wel tien jaar duren voordat het zover is.

Elk verhaal over opslag begint tegenwoordig met de opsomming van uitdagingen waar it-beheerders en de storage-industrie voor staan. Het lopende decennium is de verwachting dat wereldwijd het aantal data per jaar met 50,6 procent groeit (IDC Worldwide Disk Storage Systems Forecast 2006-2010). Dat betekent dat elke vijf jaar het aantal data vertienvoudigt. Dat komt niet alleen doordat er zoveel meer nieuwe gegevens worden gemaakt, maar veeleer doordat dezelfde data vele malen ergens worden opgeslagen. Neem een bestand dat iemand naar vijftien collega's stuurt via e-mail. Deze medewerkers slaan het bestand op in hun persoonlijke systemen. Het bestand wordt vervolgens gekopieerd voor back-up, compliance en disaster recovery. Het versturen van één bestand levert dus zestig kopieën op.
"We moeten dus drie problemen oplossen", zegt Kidd. Hij is senior vice president and general manager van de emerging products group bij Network Appliance. "Enerzijds moeten we de schijfbarrière doorbreken, anderzijds de systeembarrière, en vervolgens nog eens het beheer van data. Uiteraard hangen die zaken nauw met elkaar samen."

Opschalen
Kidd maakt een vergelijking met processoren. Aanvankelijk is steeds geprobeerd de kracht van de rekenwondertjes te vergroten door ze sneller te maken. Aan het opschalen van een enkele processor zitten echter grenzen (niet in het minst veroorzaakt door stroomverbruik en warmteafgifte). Om toch nog tot betere resultaten te komen, hebben processoren tegenwoordig meerdere kernen die het werk verdelen. Bij het ‘uitschalen' (scale out) worden de beperkingen van de individuele oplossing aangepakt.
"We hebben dat ook gezien bij servers. Vroeger had elke server zijn eigen, specifieke taak. Tegenwoordig kunnen meerdere applicaties op één server draaien. Dat opschalen kan niet eindeloos doorgaan; via uitschalen met een cluster of grid wordt ook dat probleem aangepakt. Bij storage is het niet anders. Het merendeel van de opslagsystemen is rechtstreeks gekoppeld aan servers (direct attached storage). Dat is inefficiënt, want je gebruikt dan maar vijfendertig procent van de capaciteit. Dat is opgelost door network attached storage, waarbij de gegevens over verschillende opslagsystemen worden verdeeld via een controller. Ook dit heeft zijn beperkingen, los van het feit dat je niet afhankelijk wilt zijn van één controller. Uitschalen via een storage grid brengt dan een oplossing", aldus Kidd.
Elke leverancier zal echter zijn eigen aanpak hebben bij een grid en er komt dan een situatie dat een organisatie opgescheept zit met een aantal storage grids. "Dat wordt pas opgelost als die grids via standaarden moeiteloos met elkaar kunnen communiceren. Dan spreken we van een global storage netwerk en hebben we ook de systeembarrière doorbroken."

Intelligente data
Om het geheel betaalbaar te houden, moet deze ontwikkeling gepaard gaan met vereenvoudigd beheer. Virtualisatie speelt hierbij de hoofdrol. Ook hier voorziet Kidd een cyclus van homogene beheersystemen naar heterogene. "We gaan naar een beheerysteem waar veel van het huidige handwerk verdwijnt. Data back-up, archivering, disaster recovery, en vastlegging voor compliance zullen geen aparte processen meer zijn. Ze zullen volledig geautomatiseerd gebeuren, gebaseerd op de eigenschappen van de data. Dankzij intelligente data worden de taken van een beheerder veel eenvoudiger", meent Kidd. De rol van de beheerder verdwijnt niet, hij schuift op naar boven. De beheerder moet zich bezighouden met de eigenschappen van de data in plaats van de (bijbehorende) systemen.
Als dit allemaal zijn plek heeft gevonden binnen een organisatie, dan spreekt Kidd van ‘Data Utopia'. "Let wel, zo ver zijn we nog niet. We komen zelf al een heel eind met Data Ontap 7G met GX-functionaliteit (geclusterde NAS-opslag, TM), en de Topio-technologie (replicatie en recovery, TM). Maar de industrie moet het nog eens worden over tal van standaarden en dan moet de markt het ook nog accepteren. Over de omslag van DAS naar NAS hebben we vijfentwintig jaar gedaan. Tegenwoordig gaat alles veel sneller dankzij betere technieken en beter begrip van de markt. Dan kom ik uit op ongeveer tien jaar voordat ‘Data Utopia' een feit is."

Meer over

ECMStorage

Deel

    Inschrijven nieuwsbrief Computable

    Door te klikken op inschrijven geef je toestemming aan Jaarbeurs B.V. om je naam en e-mailadres te verwerken voor het verzenden van een of meer mailings namens Computable. Je kunt je toestemming te allen tijde intrekken via de af­meld­func­tie in de nieuwsbrief.
    Wil je weten hoe Jaarbeurs B.V. omgaat met jouw per­soons­ge­ge­vens? Klik dan hier voor ons privacy statement.

    Whitepapers

    Computable.nl

    Slimme connectiviteit: de toekomst van bouwen

    Hoe stoom jij jouw organisatie in de bouw en installatie sector klaar voor de digitale toekomst?

    Computable.nl

    De weg van dataverzameling naar impact

    Iedere organisatie heeft data, maar niet iedereen weet hoe je het goed gebruikt. Hoe zet je waardevolle informatie om in actie?

    Computable.nl

    Well-Architected: slim bouwen en beheren in de cloud

    Een paper met concrete handvatten om cloud-architectuur naar een hoger niveau te tillen.

    Meer lezen

    ActueelCloud & Infrastructuur

    Kort: Eigen ai-assistent Amsterdam, NIS2-manager Atos, DSA-check ACM en…

    Quantum
    ActueelCloud & Infrastructuur

    Nieuwe Cisco-netwerkchip brengt quantum-internet dichterbij

    kaasschaaf
    ActueelCarrière

    VodafoneZiggo schrapt 400 banen

    cybercrime
    ActueelCloud & Infrastructuur

    Rijkswaterstaat moet vaart maken met beveiligen van bruggen en sluizen

    Bord van Mediamarkt
    ActueelCloud & Infrastructuur

    Mediamarkt licht ‘onbeperkte’ cloudopslag van eigen telecommerk toe

    AchtergrondCarrière

    Ict-overnamemarkt trapt 2025 goed af, maar onzekerheid troef

    Eén reactie op “‘Data Utopia komt over tien jaar’”

    1. Ronald Heinen schreef:
      5 maart 2007 om 12:43

      Deze analyse is sterk gericht op grenzen welke er zitten in de huidige opslagsystemen, maar gaat voorbij aan de eigenschappen van de informatie zelf.

      Als deze problematiek mede vanuit de Informatie-Theorie wordt geanalyseerd met bijvoorbeeld informatie -coderings, -compressie, -processing, -communicatie en -groeps theorieen, dan is het veel waarschijnlijker dat het data-utopia in de geschetste vorm er nooit zal komen, maar dat er hierarchische datagroepen zullen ontstaan, welke meer of minder met elkaar gecorreleerd zullen zijn. En het meest waarschijnlijk is dan, dat de opslagsysteem structuur daarbij zal aansluiten. De afhankelijkheid tussen de datagroepen zal niet door de opslagsystemen bepaald worden maar de mensen welke deze datagroepen wereldwijd genereren.

      Deze hierarchische groepsvorming in de data, is nu al aardig waar te nemen op het gehele internet. De resulaten van een onderzoekje dat ik hiernaar gedaan heb, is te vinden op de URL http://docs.google.com/Doc?id=dds86766_8df35sj en een toepassingsvoorbeeld op de URL http://docs.google.com/Doc?id=dds86766_9cchgsv

      Deze methode is gebaseerd op het bepalen van de afstand tussen datagroepen. De optimale storage structuur is, gegeven de afstand tussen de datagroepen, om datagroepen welke een kleine afstand van elkaar hebben op te slaan op dezelfde storage systemen.

      Bovenstaande analyse mis ik in dit artikel. Dus mijn verwachting is dat de mensen welke de data genereren over 10 jaar bepalend zullen zijn voor de structuur van de opslag systemen en niet de fabrikanten / operators van deze opslagsystemen.

      Login om te reageren

    Geef een reactie Reactie annuleren

    Je moet ingelogd zijn op om een reactie te plaatsen.

    Populaire berichten

    Meer artikelen

    Footer

    Direct naar

    • Carrièretests
    • Kennisbank
    • Planning
    • Computable Awards
    • Magazine
    • Abonneren Magazine
    • Cybersec e-Magazine

    Producten

    • Adverteren en meer…
    • Jouw Producten en Bedrijfsprofiel
    • Whitepapers & Leads
    • Vacatures & Employer Branding
    • Persberichten

    Contact

    • Colofon
    • Computable en de AVG
    • Service & contact
    • Inschrijven nieuwsbrief
    • Inlog

    Social

    • Facebook
    • X
    • LinkedIn
    • YouTube
    • Instagram
    © 2025 Jaarbeurs
    • Disclaimer
    • Gebruikersvoorwaarden
    • Privacy statement
    Computable.nl is een product van Jaarbeurs