
AI breekt uit de cloud
We zijn nog maar nauwelijks gewend aan de impact die generatieve AI op het dagelijks leven en werken hebben. Maar de ontwikkeling staat niet stil. Jarenlang leek het vanzelfsprekend: wie met AI werkt, doet dat via de cloud. De enorme rekenkracht die taal- en beeldmodellen nodig hebben, kon nergens anders terecht. Maar dat paradigma begint te kantelen. Nu laptops, tablets en zelfs telefoons hun eigen Neural Processing Unit (NPU) krijgen, schuift AI langzaam richting de rand van het netwerk, naar de plek waar de gebruiker zit.
De nieuwe generatie apparaten, waaronder de zogenoemde Copilot+-pc’s van Microsoft, kan compacte AI-modellen lokaal uitvoeren, zonder datacenters ertussen. Ook Apple, Qualcomm en Intel zetten in op diezelfde beweging. Het idee: als de hardware slim genoeg wordt, waarom zou je dan nog elke prompt door de cloud laten verwerken?
De groei van generatieve AI heeft een prijs. Volgens cijfers van de International Energy Agency kan het stroomverbruik van datacenters in 2030 verdubbeld zijn ten opzichte van nu. AI-modellen zijn daar een belangrijke aanjager van. In datacenters draaien GPU’s continu op volle kracht, met forse koelings- en energiekosten tot gevolg. Grote aanbieders investeren miljarden om hun infrastructuur bij te benen. Dat maakt elke inferentie – elke keer dat een model iets voorspelt of genereert – een dure operatie.
[...]