Sponseret indhold
Leif Elgaard Høj, Chief Technology Officer, Businessmann og BM TechX
Brug kunstig intelligens med omtanke
Dennis Bitsch Larsen, Chief Commercial Officer, Businessmann
Del på facebook
Del på linkedin
Del på twitter

Med klimaforandringer, stigende energiomkostninger og CO2-udslip samt politisk usikkerhed bør vi alle kigge på, hvordan vi som individer bruger energi, og om vi kan reducere det aftryk vi laver på jorden.

Også for virksomheder og industrier, som ellers er godt på vej med digitalisering af processer ved brug af cloud og kunstig intelligens til både at optimere og skabe nye forretningsmuligheder, gælder det at vi skal bruge cloud og de muligheder cloud giver os i forholdet til agilitet, skalering og adgang til nyeste teknologi. Men vi skal bruge dem med omtanke, og ved design af digitale løsninger er det ikke nok, at de bruger grøn energi. De skal også bruge mindre energi” siger Leif Elgaard Høj, Chief Technology Officer, Businessmann og BM TechX indledningsvis.

Sæt AI i centrum
I dag er kunstig intelligens allerede en af de mest ressourcekrævende og beregningstunge teknologier, og anvendelse af AI er i eksponentiel vækst. Behovet for at designe sin AI infrastruktur i en balanceret arkitektur imellem Edge og Cloud er derfor vigtigt for både ressourceforbrug, driftsomkostninger og ydeevne. Især kan det give god mening at afvikle beregningstunge applikationer lokalt og anvende cloud til at bruge resultaterne.

”Vi ser at vi i højere grad bruger cloud og digitalisering til både at spare penge på vores processer, som kan være omkostningstunge, og vi bruger digitalisering af processerne til at skabe nye forretningsmuligheder på tværs af flere forskellige forretningsområder. Men i sidste ende er der en energiregning, der skal betales. Skal man ud på den rejse, der handler om digital transformation, og i øvrigt være agil og skalerbar, kommer man ikke uden om cloud”, påpeger Leif Elgaard Høj.

Stor fokus på omkostninger ved dataflytning
I takt med at flere og flere applikationer flytter data til cloud stiger erhvervslivets omkostninger – alene til dataflytning – eksplosivt, fordi vi flytter mere og mere data. Når man alligevel er i gang med at digitalisere fabrikkens eller virksomhedens processer kan det give rigtig god mening at involvere kunstig intelligens.

”Ved at minimere data der skal flyttes, processeres og opbevares i Cloud, er der en potentiel gevinst der nemt kan udregnes i det normale regnskab. Men hvad med det grønne regnskab? Hvad med det samlede CO2 aftryk for IT-infrastrukturen? Den grønne regning for øget brug af AI i virksomheder vil fortsætte med at stige”, fastslår Dennis Bitsch Larsen, Chief Commercial Officer, Businessmann.

Husk CO2-regnskabet
CO2 regnskabet for en digital løsning kan være svært at estimere, selv med beregningsmotorer som disse Machine Learning CO2 Impact Calculator (https://mlco2.github.io/impact/#compute). Fremfor at bruge krudt på at analysere i hvor høj en grad at de store Cloud providere er energineutrale eller grønne, foreslår Businessmann at virksomheder bruger tiden på at designe hvordan man bruger Cloud rigtigt og med minimalt ressourceforbrug.

”I vores branche svirrer der mange (ofte modstridende) tal på datamængder > KWh > CO2 forbrug pr. gigabyte. Uanset hvilke tal man anvender, er én ting sikkert – datamængder, trafik stiger. Behovet for hurtig træning af machine learning modeller stiger hurtigere end Moores lov. Derfor er nyeste Cloud GPU teknologi oplagt når der skal trænes modeller. Nvidia er i gang med at etablere vandkøling på deres nyeste A100 GPU til datacentre og forventer at dette alene vil kunne spare 11 billioner watt i energiforbrug. Det er en forskel på næsten 30 % ved at ændre luftkølet GPU til vandkølet GPU i de store datacentre”, pointerer Leif Elgaard Høj.

Omvendt så er behovet for samme kraftige Cloud GPU ikke nødvendig, når modellerne bringes i anvendelse lokalt i en virksomhed. Skal man eksempelvis lave realtime object-detection, object-tracking eller anomaly detection i virksomheden, kan der leveres tilstrækkelig ydeevne til at lave realtime infrensing på en lille Edge device på f.eks 50 W. Til sammenligning bruger en almindelig gamer-PC 250-400 W.

”Derfor er vores anbefaling klar: Træn dine machine learning modeller I Cloud, hvor du også bygger din distribuerede applikation, men anvend så vidt muligt dine applikationer lokalt på mindre strømforbrugende GPU’er som f.eks nVidia Jetson. Med de nævnte data, er udregningsmodellen for at anvende ”AI on Edge” relativt simpelt at forstå og virksomheder bør lave deres eget regnestykke. Grundtanken er at vi IKKE ønsker at flytte, processere og lagre unødvendigt store mængder data i Cloud, men i stedet ønsker at processere og anvende data i realtime on Edge og herefter kun flytter og opbevarer de få procent data og relevante metadata til Cloud, som reelt er den viden vi har brug for, for at akkumulere og administrere ML modeller centralt. Vores AI budskab er simpelt. Design den rette balance imellem Edge AI og Cloud AI, udnyt fordelene ved begge og undgå at spilde værdifulde ressourcer”, råder Leif Elgaard Høj afslutningsvis.

Vidste du at:
Hver eneste søgning der foretages på nettet, har en omkostning, og omkostningen hvad end den er baseret på grøn eller mindre grøn energi er stigende, så meget at datacentre i dag på verdensplan bruger omkring 200 terawatt timer per år, med en projekteret stigning til det dobbelte i 2030.

Kilde: Nature 11. november 2018: how to stop data centres from gobbling up the worlds electricity

MEST LÆSTE