Deze blogpost is oorspronkelijk gepubliceerd door Bitfury. Het is hier herdrukt met toestemming van Bitfury.
Discussies over de toekomst van kunstmatige intelligentie (AI) richten zich vaak op de ongelooflijke waarde die uit gegevens kan worden gehaald. Het idee dat “data de nieuwe olie is” werd voor het eerst toegeschreven aan wiskundige Clive Humby in 2006, gevolgd door aanvullende voorspellingen van The Economist, het World Economic Forum, Cisco, Hacker Noon en verschillende anderen.
De metafoor houdt redelijk stand als data als handelswaar wordt gezien. Gegevens zijn inderdaad waardevol en komen snel beschikbaar op een schaal die vergelijkbaar is met bronnen zoals olie. Net als bij olie moeten gegevens worden verfijnd om bruikbaar te zijn.
Wat in deze discussies echter ontbreekt, is een openhartige verantwoording van de milieu-impact van deze 'commodity'. Net als olie herbergen data een krachtige, destructieve bedreiging voor ons milieu. Er is geen klimaatnoodplan voor het naderende “tijdperk van supercomputing”, en het is hard nodig. Maar om dit te doen, moeten we de omvang en de factoren achter de onverzadigbare groei begrijpen.
Een tsunami van gegevens
De komst van internet en zijn wereldwijde connectiviteit gaf ons het 'tijdperk van informatie'. Die connectiviteit bracht ons in een wereld van mobiele telefoons, sociale media en slimme apparaten. Het bracht ons ook een absolute tsunami aan data. We worden overspoeld met informatie op een schaal die we nauwelijks kunnen herkennen, laat staan gebruiken. Tegen 2020 (in slechts een paar maanden) zal de mensheid jaarlijks 44 zettabyte aan gegevens produceren, wat betekent dat elke persoon op aarde ongeveer 1,7 megabyte aan gegevens per seconde zal creëren. Deze productie zal alleen maar versnellen dankzij de 125 miljard Internet of Things-apparaten die tegen 2030 verbonden zullen zijn.
Tot op heden is slechts ongeveer 2 procent van deze gegevens geanalyseerd. Bedrijven wenden zich nu tot AI en high-performance computing om in de andere 98 procent te duiken.
Onverzadigbare vraag naar AI
Ruwe gegevens alleen, zelfs in massale voorraad, zijn niet nuttig. Als gevolg hiervan investeren bedrijven zwaar in AI en high-performance computing om inzichten uit deze gegevens te halen. Dit is onbetwistbaar waardevol, zowel voor de bedrijfsresultaten als voor onze eigen levenskwaliteit. De positieve effecten zijn te talrijk om op te noemen, maar de “verfijning” van gegevens kan ons medische doorbraken, hypernauwkeurige weersvoorspellingen en gepersonaliseerde leerplannen opleveren, om er maar een paar te noemen.
Deze toename van rekenkracht is echter niet zonder negatieve effecten. Afgelopen juni werd een paper gepubliceerd waarin de verbazingwekkende ecologische voetafdruk van neurale netwerkverwerking (een soort AI-computing) werd onthuld. De Universiteit van Massachusetts ontdekte dat het trainen van een groot neuraal netwerk om patronen in gegevens te herkennen, meer dan 626.000 pond koolstofdioxide-equivalent kan uitstoten. Dit is bijna vijf keer de levenslange uitstoot van de gemiddelde Amerikaanse auto (inclusief de productie van de auto zelf). En deze “netwerken” verdubbelen ongeveer elke 18 maanden in omvang (naarmate er meer gegevens beschikbaar komen), wat betekent dat hun computervereisten ook toenemen.
Als gemeenschap moeten we nu verantwoordelijk handelen om ervoor te zorgen dat “de age of supercomputing” is ecologisch duurzaam. Het zal niet makkelijk zijn; de huidige computertechnologieën zijn niet goed geschikt voor de eisen van AI, en verschillende technologische krachten, waaronder de wet van Moore, zullen snelle vooruitgang in de weg staan.
Er zijn echter tal van manieren waarop we onmiddellijk verbeteringen kunnen aanbrengen.
De eerste op de lijst is het heroverwegen van onze datacenters. De koelsystemen in de meeste datacenters zijn verschrikkelijk inefficiënt en kunnen krachtige computers niet voldoende koelen of nieuwe technologieën zoals 5G ondersteunen. Recente ontwikkelingen in het ontwerp van datacenters, zoals immersiekoeling, zijn veel beter geschikt voor deze taak en kunnen gemakkelijk worden gecombineerd met duurzame energienetwerken.
Een andere stap die we kunnen nemen, is het gebruik van superieure hardware. Binnenkort zullen we computerchips hebben die heel weinig stroom nodig hebben (bekend als ultra-low voltage-chips), en nieuwe computerarchitecturen (zoals parallellisatie, waarover u hier meer kunt lezen) die de hoeveelheid stroom die nodig is om AI te verwerken aanzienlijk zullen verminderen toepassingen.
Deze innovaties kunnen onze ecologische voetafdruk aanzienlijk verkleinen en zullen binnenkort worden gevolgd door de beschikbaarheid van duurzame AI-computerproducten (waar Bitfury AI nu aan werkt).
Het goede nieuws is dat het nog vroeg in het tijdperk van supercomputing is. We kunnen nu een koers uitstippelen naar een duurzamere toekomst, misschien een waarin data minder op olie lijken en meer op hernieuwbare energie.