Cloudflare gaat NVIDIA GPU’s inzetten aan de randen van haar wereldwijde netwerk, in combinatie met NVIDIA Ethernet-switches, om de rekenkracht voor AI-inferenties dicht bij gebruikers in de hele wereld te brengen. Daardoor kunnen organisaties voor het eerst via Cloudflare’s infrastructuur schaalbare AI-toepassingen uitvoeren en naar behoefte voor de benodigde rekenkracht betalen.
AI-inferentie is de manier waarop eindgebruikers AI ervaren. De laatste tijd is er bij organisaties veel vraag naar GPU’s voor AI-toepassingen. Cloudflare, met datacenters in ruim 300 steden over de hele wereld, kan door de samewerking met NVIDIA snelle ervaringen leveren aan gebruikers, die tevens voldoen aan wereldwijde compliance-voorschriften.
Door NVIDIA GPU’s in te zetten voor Cloudflare’s wereldwijde edge-netwerk krijgen klanten:
* Lage-latency generatieve AI-ervaringen in ruim 100 steden tegen het einde van 2023
* Toegang tot rekenkracht in de buurt van waar klantdata zich bevindt, conform lokale regelgeving
* Pay-as-you-go schaalbare rekenkracht voor AI-innovatie