Intel komt met nieuwe generatie Xeon Scalable-cpu’s

Scalable Xeon chip processor cpu

Intel introduceert zijn derde generatie Intel Xeon Scalable-processors, net als nieuwe geheugen-, opslag- en field-programmable gate array (fpga)-oplossingen. Met de nieuwe producten moeten de ontwikkeling en het gebruik van ai- en analytics-workloads in datacenters, netwerken en intelligent edge-omgevingen versneld worden.

In totaal gaat het om elf nieuwe processoren, met basiskloksnelheden tussen de 2,3 en 3,1 gigahertz. De topmodellen beschikken over over 28 cores en kunnen 56 threads verwerken.

Intel positioneert de chips als geschikt voor ai-, analytics- en machine learning-toepassingen, zoals beeldclassificatie, aanbeveling-engines, spraakherkenning en taalmodellering. Dit onder meer door de introductie van een nieuwe instructieset: bfloat16. Dat is een compact numeriek format dat de helft van de bits gebruikt in vergelijking met het huidige FP32-formaat. Het biedt echter vergelijkbare modelnauwkeurigheid waarvoor quasi geen softwarewijzigingen nodig zijn. De toevoeging van bfloat16-ondersteuning versnelt de ai-training en de inferentieprestaties in de cpu.

Deep learning-frameworks met distributies die al voor Intel geoptimaliseerd zijn (zoals TensorFlow en Pytorch) ondersteunen bfloat16 al. Intel biedt ook bfloat16-optimalisaties in zijn OpenVINO-toolkit en de ONNX Runtime-omgeving.

Samen met de nieuwe cpu’s introduceert Intel ook nieuw Optane Persistent Memory. Deze biedt tot 4,5 TB geheugen per socket voor het beheren van data-intensieve workloads, zoals in-memory databases, virtualisaties, analytics en high power computing. Data opslaan kan dan weer op nieuwe Intel 3d nand-ssd’s. Deze bevatten Intel’s nieuwste triple-level cell (TLC) 3D NAND-technologie en een nieuwe, low-latency PCIe-controller. 

Intel onthulde tot slot de nieuwe Stratix 10 NX-fpga’s. Het zijn de eerste voor ai geoptimaliseerde fpga’s van Intel. Ze bieden (her)configureerbare en schaalbare AI-acceleratie voor veeleisende applicaties, zoals natuurlijke-taalverwerking en fraudedetectie en komen met geïntegreerd high-bandwidth geheugen. De chips hebben ook nieuwe, voor ai geoptimaliseerde rekenblokken, die AI Tensor Blocks worden genoemd. Deze bevatten dichte arrays van vermenigvuldigers met lagere precisie, die veelal worden ingezet voor ai-modelberekeningen.

x

Om te kunnen beoordelen moet u ingelogd zijn:

Dit artikel delen:

Uw reactie

LET OP: U bent niet ingelogd. U kunt als gast reageren maar dan wordt uw reactie pas zichtbaar na goedkeuring door de redactie. Om uw reactie direct geplaatst te krijgen moet u eerst rechtsboven inloggen of u registreren

Vul uw naam in
Vult u een geldig e-mailadres in
Vult u een reactie in
Jaarbeurs b.v. gaat zorgvuldig en veilig om met uw persoonsgegevens. Meer informatie over hoe we omgaan met je data lees je in het privacybeleid
Als u een reactie wilt plaatsen moet u akkoord gaan met de voorwaarden

Stuur dit artikel door

Uw naam ontbreekt
Uw e-mailadres ontbreekt
De naam van de ontvanger ontbreekt
Het e-mailadres van de ontvanger ontbreekt

×
×
article 2020-06-19T09:30:00.000Z Frederic Petitjean
Wilt u dagelijks op de hoogte worden gehouden van het laatste ict-nieuws, achtergronden en opinie?
Abonneer uzelf op onze gratis nieuwsbrief.