Computable.nl
  • Thema’s
    • Carrière
    • Innovatie & Transformatie
    • Cloud & Infrastructuur
    • Data & AI
    • Governance & Privacy
    • Security & Awareness
    • Software & Development
    • Werkplek & Beheer
  • Sectoren
    • Channel
    • Financiële dienstverlening
    • Logistiek
    • Onderwijs
    • Overheid
    • Zorg
  • Awards
    • Computable Awards
    • Nieuws
    • Winnaars
    • Partner worden
    • Inzending indienen
    • Inzendingen
  • Vacatures
    • Vacatures bekijken
    • Vacatures plaatsen
  • Bedrijven
    • Profielen
    • Producten & Diensten
  • Kennisbank
  • Magazine
    • Magazine
    • Adverteren in het magazine
  • Nieuwsbrief
Onderstaande bijdrage is van een externe partij. De redactie is niet verantwoordelijk voor de geboden informatie.

AI-workloads stellen opslaginfrastructuur voor nieuwe uitdagingen

16 november 20234 minuten leestijdCloud & Infrastructuur

In moderne bedrijven ondergaat momenteel een volledige metamorfose, aangedreven door wat we de “AI-revolutie” zouden kunnen noemen. Het benutten van geavanceerde AI- of ML-gebaseerde toepassingen vormt de kern van deze transformatie, waarbij organisaties niet alleen concurrentievoordelen behalen, maar ook cruciale inzichten verwerven.

De pioniers in deze evolutie omarmen baanbrekende workloads, waaronder grote taalmodellen (LLM’s) zoals ChatGPT. Daarnaast maken ze gebruik van ML-modellen die zijn opgebouwd op immense sets trainingsgegevens. Deze omvatten complexe 3D-modellen, animatie en virtuele realiteit, evenals simulaties en andere toepassingen die zowel data- als rekenintensief zijn. Deze gevarieerde toepassingen illustreren de breedte en diepte van de impact van AI en ML op de hedendaagse zakelijke landschap.

Voor een krachtige AI- of ML-oplossing moet een complete, uitgebreide set hardware samenwerken. Achter de flitsende rack-hardware die het GPU-gestuurde brein van een AI-cluster huisvest, zijn opslagsystemen met hoge doorvoer en lage latency nodig om het cluster productief te houden. Deze ondersteunen de I/O-kanalen die enorme hoeveelheden data voeden om modellen te trainen en complexe simulaties en analyses uit te voeren die nodig zijn om AI, ML en vergelijkbare workloads te ondersteunen. Een van de grootste uitdagingen voor bedrijven die willen profiteren van de groei van AI is het vinden van een opslagoplossing die geen knelpunten oplevert voor hun krachtige CPU’s, GPU’s of databaseclusters. De CPU’s en GPU’s moeten immers bezig worden gehouden om de TCO van het datacenter te verlagen.

Knelpunten in opslag vermijden

Wat er gebeurt in gedistribueerde en parallelle modi is dat voor de gedistribueerde bestandssystemen data binnenkomen van meerdere bronnen waar die gegevens op schaal verwerkt moeten worden via verschillende protocollen en voor verschillende toepassingen. In een typisch opslagsysteem worden metadata al snel een knelpunt. Je kunt namelijk maar zoveel gegevens door het systeem pompen als de metadata ondersteunen. Naarmate de hoeveelheid gegevens toeneemt, moet het vermogen om metadata te verwerken evenredig meegroeien.

Gedistribueerde opslag van WEKA is ontworpen om zo’n proportionele schaling te bieden. Dat verklaart waarom, ondanks het toevoegen van meer datacapaciteit aan een systeem of cluster, de I/O prestaties lineair blijven schalen vanaf acht (minimum aantal knooppunten voor een WEKA cluster) tot honderden opslagknooppunten. Het doet dit door knelpunten te elimineren en ondersteuning te bieden voor zelfs de zwaarste en meest veeleisende AI/ML (en andere vergelijkbare) werklasten.

Maar er komt meer kijken bij het optimaliseren van servers en clusters dan het leveren van schaalbare opslag met hoge prestaties en lage latentie. Bij het ontwerpen van een compleet systeem kan de focus niet uitsluitend liggen op een enkele functie of kenmerk. De hele architectuur moet samenwerken om de beoogde workloads te ondersteunen. Het ontwerpen van een systeem voor AI-applicaties betekent dus het creëren van een runtime-omgeving die vanaf de basis is opgebouwd om dataintensieve applicaties zowel snel als naar tevredenheid af te handelen. Wat de server doet met de data tijdens het verwerken van een AI workload is net zo essentieel als het dataverkeer in en uit een gegeven node.

NVMe te hulp

Een ander cruciaal aspect betreft het aantal PCIe 5.0 lanes. Deze technologie biedt servers de mogelijkheid om uitgebreidere configuraties van SSD’s, NIC’s, GPU’s en zelfs CXL-apparaten met uitgebreid geheugen te accommoderen. Deze componenten vervullen allen een essentiële rol in de verwerking van veeleisende AI- en ML-workloads.

PCIe Gen5 SSD’s spelen een sleutelrol bij het faciliteren van snelle lokale opslag. Tegelijkertijd stellen grote aantallen snelle netwerkinterfaces servers in staat om verbinding te maken met andere knooppunten, zoals opslag of gespecialiseerde servers, waardoor de reikwijdte en het bereik van gegevens worden vergroot. Bovendien dragen talrijke GPU’s bij aan de verwerking van gespecialiseerde, doelgerichte taken of workloads. De synergie tussen deze elementen vormt de ruggengraat van een geoptimaliseerde infrastructuur voor het succesvol afhandelen van geavanceerde computationele uitdagingen.

NVMe-apparaten hebben het speelveld van servers en clusters ingrijpend veranderd. Met NVMe als fundering wordt een volledig nieuwe architectuur mogelijk, waarbij opslag in staat is om op schaal en met ongekende snelheid te opereren naast krachtige CPU’s, GPU’s en NIC’s, met name wanneer gebruik wordt gemaakt van de EDSFF-formfactor.

Dankzij het ontwerp met één socket kunnen hoogwaardige CPU’s, samen met geavanceerde netwerkkaarten en opslag, volledig worden benut. Hierdoor worden de hoogst mogelijke niveaus van parallellisme en clustermogelijkheden ontketend, wat van onschatbare waarde is voor HPC, AI en andere oplossingen van de volgende generatie. Deze synergie tussen verschillende componenten resulteert in een geoptimaliseerde infrastructuur die de prestaties naar nieuwe hoogten tilt in de evoluerende wereld van geavanceerde computationele toepassingen.

Michael McNerney, Vice President Marketing en Netwerkbeveiliging, Supermicro

Deel

    Inschrijven nieuwsbrief Computable

    Door te klikken op inschrijven geef je toestemming aan Jaarbeurs B.V. om je naam en e-mailadres te verwerken voor het verzenden van een of meer mailings namens Computable. Je kunt je toestemming te allen tijde intrekken via de af­meld­func­tie in de nieuwsbrief.
    Wil je weten hoe Jaarbeurs B.V. omgaat met jouw per­soons­ge­ge­vens? Klik dan hier voor ons privacy statement.

    Whitepapers

    Computable.nl

    Hybride vergaderen herzien

    Wat moderne werkplekken vragen van meeting- en samenwerkingsomgevingen

    Computable.nl

    Virtualisatie heroverwogen

    Waarom enterprise IT opnieuw kijkt naar kosten, schaal en flexibiliteit

    Computable.nl

    Hoe raakt NIS2 ook jouw bedrijf?

    De nieuwe cyberregels voor het MKB in aantocht

    Geef een reactie Reactie annuleren

    Je moet ingelogd zijn op om een reactie te plaatsen.

    Awards-inzendingen

    Pijl naar rechts icoon

    ServiceNow

    ServiceNow
    Pijl naar rechts icoon

    NetApp

    Nebul delivers sovereign European AI cloud on NetApp intelligent data platform
    Pijl naar rechts icoon

    Strict

    Nienke Bink
    Pijl naar rechts icoon

    Digital Schools Awards

    Digital Schools Awards: Bouwen aan Toekomstgericht Digitaal Onderwijs
    Pijl naar rechts icoon

    Visma

    Visma Security Program: versnelt securityvolwassenheid bij 180+ bedrijven
    Alle inzendingen
    Pijl naar rechts icoon
    Stuur je case voor de Computable Awards en word getoond op de website!
    Ik wil een case insturenIcoon

    Populaire berichten

    Meer artikelen

    Uitgelicht

    Partnerartikel
    Data & AI

    De QR-code als strategische sleutel vo...

    Productdata speelt een belangrijke rol binnen productieketens. Consumenten verwachten transparantie en ketenpartners vragen om betrouwbare informatie. En ook wet- en regelgeving stelt steeds hogere eisen aan de beschikbaarheid en kwaliteit...

    Meer persberichten

    Meer lezen

    Innovatie & Transformatie

    Microsoft onthult netwerktechnieken die datacenters zuiniger maken

    Cloud & Infrastructuur

    Eerenberg (Financiën) houdt vast aan belastingdeal met Fast Enterprises

    Cloud & Infrastructuur

    Kort: Mastercard verleidt fin­tech­star­tups, Vertiv en Nvidia tillen ai-fabriek omhoog (en meer)

    Cloud & Infrastructuur

    Ook (eveneens Amerikaanse) Equinix kan dienst­ver­le­ning DigiD verstoren

    Software & Development

    Omstreden omzetbelastingsysteem op termijn naar de cloud

    Cloud & Infrastructuur

    EU Cloud Sovereignty Framework: beleidsstuk dat geen slaappil is

    ...

    Footer

    Direct naar

    • Carrièretests
    • Kennisbank
    • Computable Awards
    • Magazine
    • Ontvang Computable e-Magazine
    • Cybersec e-Magazine
    • Topics
    • Phishing
    • Ransomware
    • NEN 7510

    Producten

    • Adverteren en meer…
    • Jouw Producten en Bedrijfsprofiel
    • Whitepapers & Leads
    • Vacatures & Employer Branding
    • Persberichten

    Contact

    • Colofon
    • Computable en de AVG
    • Service & contact
    • Inschrijven nieuwsbrief
    • Inlog

    Social

    • Facebook
    • X
    • LinkedIn
    • YouTube
    • Instagram
    © 2026 Jaarbeurs
    • Disclaimer
    • Gebruikersvoorwaarden
    • Privacy statement
    Computable.nl is een product van Jaarbeurs