Mens tech-giganterne kappes om at bygge stadig større datacentre og sikre sig atomkraft til deres AI-infrastruktur, har et forskerhold på University of Cambridge taget en radikalt anderledes tilgang. De har udviklet en nanoelektronisk komponent baseret på modificeret hafniumoxid, der efterligner hjernens måde at behandle og lagre information på. Resultatet, publiceret i Science Advances, viser potentiale til at reducere AI-hardwarens strømforbrug med op til 70 procent.
Det er ikke bare et akademisk kuriosum. Globalt bruger datacentre allerede omkring 415 terawatt-timer (TWh) årligt, svarende til 1,5 procent af verdens samlede elforbrug. IEA forventer at tallet fordobles inden 2030, primært drevet af AI-workloads. I den kontekst er enhver teknologi der fundamentalt ændrer forholdet mellem beregningskraft og energiforbrug værd at holde øje med.
Problemet med von Neumann-arkitekturen
Traditionelle computere bygger på en arkitektur fra 1940’erne, hvor data konstant shuffles frem og tilbage mellem hukommelse og processor. Det er elegant som designprincip, men energimæssigt katastrofalt for de typer af parallelle beregninger som AI kræver. Hjernen derimod behandler og lagrer information det samme sted, i de samme neurale forbindelser. Det er derfor den kan køre på cirka 20 watt, mens en moderne GPU til AI-træning let trækker 700 watt.
Neuromorf computing, altså hardware der efterligner hjernens arkitektur, forsøger at lukke det gab. Og Cambridge-holdets nye memristor er et konkret skridt i den retning.
Hafniumoxid med et twist
En memristor er en elektronisk komponent der fungerer som en modstand med hukommelse. Den kan skifte mellem forskellige ledningsevne-tilstande og holde fast i dem, præcis som en synapse i hjernen styrker eller svækker forbindelser mellem neuroner. Problemet med eksisterende memristorer er at de typisk arbejder via såkaldte ledende filamenter, tynde tråde af atomer der dannes og brydes inde i materialet. Processen er uforudsigelig og energikrævende.
Dr. Babak Bakhit og hans team på Cambridge Department of Materials Science and Metallurgy valgte en anden vej. Ved at tilsætte strontium og titanium til hafniumoxid og bruge en specialiseret to-trins-aflejringsproces skabte de små elektroniske porte, kaldet p-n junctions, i grænsefladen mellem materialets lag. I stedet for at danne og ødelægge filamenter modulerer enheden modstanden ved at justere højden af en energibarriere ved grænsefladen.
Forskellen er dramatisk. Enheden opnår skiftestrømme der er cirka en million gange lavere end konventionelle oxidbaserede memristorer. Den producerer hundredvis af distinkte, stabile ledningsevne-niveauer, et centralt krav for analog in-memory computing. Og den har vist pålidelighed gennem titusindvis af skiftecyklusser.
Spike-timing plasticity: Når hardware opfører sig som neuroner
Et af de mest fascinerende aspekter er at enheden succesfuldt reproducerer spike-timing dependent plasticity (STDP), den biologiske mekanisme neuroner bruger til at styrke eller svække forbindelser baseret på timing. Det er fundamentet for læring i hjernen, og at se det repliceret i en simpel nanoelektronisk komponent er bemærkelsesværdigt.
“Energiforbrug er en af de centrale udfordringer i nuværende AI-hardware,” forklarer Dr. Bakhit. Succesfulde enheder kræver “ekstremt lave strømme, fremragende stabilitet og enestående ensartethed.”
Markedet er klar, men teknologien har stadig udfordringer
Cambridge-chippen lander i et marked der er ved at eksplodere. Neuromorf computing-markedet forventes at vokse fra 125 millioner dollar i 2026 til over 3,3 milliarder dollar i 2034, med en årlig vækstrate på over 50 procent. Intel har allerede lanceret Loihi 3 med 8 millioner digitale neuroner, og IBMs NorthPole-arkitektur har vist op til 25 gange bedre energieffektivitet end en H100 GPU til billedgenkendelse.
Men Cambridge-enhedens fabrikationsproces kræver temperaturer på omkring 700 grader Celsius, højere end standardtolerancerne i halvlederfremstilling. Dr. Bakhit brugte tre år på talrige mislykkede forsøg før gennembruddet kom i slutningen af 2024. At bringe temperaturen ned til et niveau der er kompatibelt med eksisterende chipfabrikker bliver den næste store udfordring.
Dataretention er også et åbent spørgsmål. De programmerede tilstande holder cirka et døgn, hvilket er fint til visse inferens-opgaver men utilstrækkeligt til langvarig datalagring. Det er et problem der skal løses før teknologien kan bruges bredt.
Hvad det betyder for branchen
Vi befinder os i en situation hvor virksomheder bruger milliarder på AI uden nødvendigvis at se afkastet. En stor del af omkostningerne er ren elektricitet. Enhver teknologi der kan reducere strømforbruget med 70 procent ændrer regnestykket fundamentalt.
Det er ikke realistisk at forvente neuromorf hardware i produktion inden for de næste par år. Men forskningsretningen er klar: fremtidens AI-chips vil i stigende grad efterligne hjernen frem for at skalere von Neumann-arkitekturen op. Cambridge-teamets arbejde med hafniumoxid-memristorer viser en konkret materialevidenskabelig vej derhen, med målbare resultater og publiceret i et peer-reviewed tidsskrift.
For udviklere og IT-arkitekter er det værd at holde øje med neuromorf computing som en emerging teknologi der potentielt kan flytte AI fra centraliserede GPU-klynger til edge-enheder. Når strømforbruget falder drastisk, åbner det for AI-inferens i alt fra smartphones til industrielle sensorer, uden afhængighed af cloud-forbindelse.
Kilder
- New computer chip material inspired by the human brain could slash AI energy use – University of Cambridge, april 2026
- Scientists develop brain-inspired chip for more efficient AI hardware, cut energy use by 70% – Interesting Engineering, april 2026
- Energy demand from AI – International Energy Agency, 2026