Notebookcheck Logo

20 jaar oud idee verhoogt de efficiëntie van AI met 1.000 keer

Nieuw type geheugen kan rekenen, is zeer aanpasbaar en buitengewoon efficiënt. (Afbeeldingsbron: UMN)
Nieuw type geheugen kan rekenen, is zeer aanpasbaar en buitengewoon efficiënt. (Afbeeldingsbron: UMN)
De denkbare besparingen komen overeen met het verbruik van een groot industrieland. Deze gigantische sprong in efficiëntie wordt mogelijk gemaakt door een volledig opnieuw ontworpen gegevensverwerkingssysteem.

Het is vooral de gegevensoverdracht die een groot deel van het energieverbruik veroorzaakt. Dit is nog meer het geval bij de enorme hoeveelheden gegevens waarmee algoritmen voor kunstmatige intelligentie werken.

Het weglaten van deze stap, die ook als een knelpunt tussen geheugen en logische processen wordt beschouwd, heeft daarom een enorme impact. En dit is precies waar een idee uit 2003 om de hoek komt kijken, dat destijds werd ontwikkeld aan de Universiteit van Minnesota.

Dit leidde tot een samenwerking tussen verschillende disciplines, van natuurkunde tot techniek en informatica. Het resultaat was een aantal schakelingen die vandaag de dag gebruikt worden in slimme horloges en geheugenelementen.

Computational Random Access Memory, of CRAM, was er ook bij betrokken. Hiermee kan de feitelijke berekening en uitvoering van parallelle processen direct in het hoofdgeheugen en daarin op elke willekeurige locatie plaatsvinden.

Meer dan alleen een nieuwe architectuur

Er werden tests uitgevoerd met zeven parallelle CRAM's. (Afbeeldingsbron: UMN)
Er werden tests uitgevoerd met zeven parallelle CRAM's. (Afbeeldingsbron: UMN)

Bovendien zijn dit geen conventionele circuits, maar magnetische tunnelcontacten die de spin van het elektron in plaats van de lading kunnen gebruiken om tussen 0 en 1 te schakelen.

In toepassingen gebaseerd op kunstmatige intelligentie resulteert dit in een stroomverbruik van een duizendste om uiteindelijk hetzelfde resultaat te bereiken als met de klassieke methode. Het huidige en voorspelde elektriciteitsverbruik van neurale netwerken wereldwijd laat zien hoe enorm deze hoeveelheid elektriciteit is. Volgens het Internationaal Energie Agentschap werd er in 2022 460 terawattuur gebruikt. Uiterlijk in 2026 zal dit naar verwachting 1.000 terawattuur zijn.

Met het gigantische besparingspotentieel van 99,9 procent zou er dan 999 terawattuur overblijven die niet meer nodig zou zijn. Dit komt overeen met het jaarlijkse elektriciteitsverbruik van Japan, de op drie na grootste economie met 126 miljoen inwoners.

Volgens het artikel zou dit niet eens het best mogelijke resultaat zijn. Verdere tests zouden het energieverbruik met een factor 1.700 of 2.500 kunnen verminderen. Deze extra toename in efficiëntie wordt mogelijk gemaakt door een gerichte aanpassing van de CRAM aan individuele algoritmen, die nog sneller en dus economischer berekend kunnen worden.

Please share our article, every link counts!
> Overzichten en testrapporten over laptops en mobieltjes > Nieuws > Nieuws Archief > Nieuws archieven 2024 08 > 20 jaar oud idee verhoogt de efficiëntie van AI met 1.000 keer
Mario Petzold, 2024-08- 9 (Update: 2024-08- 9)