Vejen til ansvarlig AI går gennem test og afprøvning

Af:

AI har aldrig været så hypet, som det er lige nu. For blot et halvt års tid siden var det de færreste, der gjorde sig tanker om AI, men nu har emnet sneget sig ind i primetime-udsendelser på public service-kanaler eller i chefredaktørernes ledere, hvor etiske, juridiske og tekniske aspekter diskuteres.

Skrevet af: Andreas Holbak Espersen, digitaliseringspolitisk chef i DI Digital

Det har både sine fordele og ulemper. På den ene side er det godt, at flere bliver opmærksomme på, hvad AI kan skabe af muligheder, og at flere tager del i den fælles diskussion om, hvor begrænsningerne bør være. Samtidig må man også konstatere, at AI er kompliceret stof, og samtalen bliver hurtigt overfladisk og upræcis, og dermed skabes et forvrænget billede af, hvad AI kan bruges til og ikke bruges til.  Vi skal alle være en del af den demokratiske samtale om, hvordan transformerende teknologi skal påvirke vores samfund, og derfor er det også afgørende, at vi skaber et fælles fundament for den samtale – det har vi alle, og særligt interesseorganisationer, erhvervsliv, forskermiljøer og politikere, et ansvar for. 

AI på pause 
Kort før påske skrev Elon Musk, Steve Wozniak og 1100 forskere under på et åbent brev om en bekymring for AI’s udvikling, og med et opråb om, at vi som samfund bør sætte AI på pause, til vi er blevet klogere på mulighederne og begrænsningerne. Men hvis vi skal kunne skabe det førnævnte fundament for ansvarlig AI og sikre, at teknologien anvendes som vi ønsker, så er løsningen ikke at sætte AI på pause.

AI skal være med til at løse kapacitetsudfordringerne i vores sundhedsvæsen, accelerere den grønne omstilling, skabe et bedre arbejdsliv mv. Hvis det skal lykkes, så skal vi arbejde med AI og ikke imod. Det betyder ikke, at vi skal være blinde over for potentielle farer, der også kan ligge i at arbejde med AI. Det ville være naivt ikke at være opmærksomme på faldgruberne, men at sætte det på pause er ikke en løsning. Vi skal i stedet indføre gode og konstruktive værktøjer, der hjælper virksomheder, den offentlige sektor og borgerne med at udnytte det enorme potentiale, som AI har. 

Europæisk AI lovgivning
Den kommende AI lovgivning – EU AI Act – er et godt eksempel på et værktøj, som kan være nøglen til, at ansvarlig AI kan blive en europæisk styrkeposition. Formålet er at regulere AI med en risikobaseret tilgang, hvor man kigger på anvendelsesområderne og ikke på teknologien i sig selv. 

På den måde rettes fokus på AI systemer, der tages i anvendelse på områder, hvor der kan være alvorlige konsekvenser, hvis løsningerne ikke fungerer som forventet eller bruges forkert – såkaldt højrisiko AI. Hvis AI systemet bliver kategoriseret som højrisiko, vil der være en længere række krav og kriterier, som systemet og virksomheden skal leve op til. Eksempler på højrisiko er selvkørende biler, brug af biometriske data (særligt ansigtsgenkendelse) og AI til at udrede cancer. Ikke-højrisiko AI vil være langt de fleste anbefalingssystemer; chatbots i kundeservice, optimering af produktionsapparater mv. 

Test og afprøvning   
Test og afprøvning af fremtidens AI systemer bliver et afgørende supplement til EU AI Act. Det kan være med til at løse nogle af de tekniske og regulatoriske knuder, som virksomheder og offentlige myndigheder kan støde på i deres arbejde med AI systemer. I DI Digital arbejder vi p.t. på to initiativer, der skal hjælpe virksomheder og offentlige myndigheder med test og afprøvning. Det ene initiativ skal hjælpe danske aktører i første fase af arbejdet med AI. 

Initiativet kaldes en AI sandkasse og er et kontrolleret miljø, hvor det kan undersøges, hvordan systemerne agerer ift. regulering og de tekniske aspekter, inden systemerne udvikles endeligt. Det kunne fx være en life-science virksomhed, som vil bruge AI til behandling af persondata. Sandkassen kan benyttes, når ideen opstår, og hjælpe aktører med at komme videre både teknisk og regulatorisk. 

Det andet initiativ er en såkaldt TEF – Test and Experimentation Facility – som er et EU-finansieret initiativ, der skal hjælpe virksomheder med at teste ”cutting edge” AI inden for Smart City and Communities. Det vil altså være virksomheder, som allerede har udviklet ideen, men som har behov for at teste løsningen i et kontrolleret miljø. 

Vi mener, at Danmark og resten af Europa skal gå forrest, når det kommer til ansvarlig AI. Det er afgørende, at den kurs, der i sidste ende bliver udstukket, ikke baserer sig på frygt, men på erfaring. Erfaring, der er dannet under åbne forhold og ansvarlige rammer. De rammer kan lovgivningen samt test- og afprøvningsfaciliteterne være med til at skabe. 

DI Digital er et branchefællesskab i Dansk Industri for virksomheder inden for it, tele,
elektronik og kommunikation. DI Digital vil sikre, at Danmark bliver det foretrukne land at drive teknologivirksomhed i og ud fra for derigennem at skabe udvikling, vækst, velstand og velfærd.

www.danskindustri.dk

Mest læste på BusinessReview.dk

2N Pharma gruppebillede redigeret
”Hvis vi har ret, vil det forandre verden”
Mette Abildgaard--
Kvindelig intuition kan aflæses på bundlinjen
ejd 130624
Ejendomme Epaper
SKO_billede
Change of Control-klausulers betydning i ejendomstransaktioner
1 Thorbjørn og Slaven
Et nyt liv efter fedmeoperation og plastikkirurgi

Læs også

Datacenter interiør
Kunstig intelligens stiller store krav til fremtidens datacentre
At drive et datacenter handler om meget mere end blot at putte en masse servere ind i en bygning. Stigende krav til applikationer og...
Natasha Saxberg, Sep 2021, IT, IT-branchen
AI bliver anderledes end alle andre revolutioner
Hvor den industrielle revolution omkring 1800-tallet og automatiseringsbølgen i starten af 1900-tallet i høj grad påvirkede medarbejdere...
Chatbot chat AI concept, artificial intelligence Businessman usi
Standardbrugerflader mindsker frygten for kunstig intelligens
I it-virksomheden itm8 arbejder man blandt andet med at implementere kunstig intelligens i mellemstore virksomheder. Ifølge partner...