Kunstig intelligens og demokratisk digitalisering – et paradigmeskifte innen regulering.

Vi har vokst opp med begrepet «AI» (eller «KI») som et populært science fiction-motiv, men nå om dagen er begrepet blitt hyppig brukt og fått mye opperksomhet og mediedekningen i løpet av kort tid.

Hagen Echzell, leder for arbeidsgruppa for demokratisering digitialisering, holdt et foredrag om kunstig intelligens, personvern og digtial demokratisering eForvaltningskonferansen 22. mai. Under kan du lese hele foredraget, eller se videoen fra konferanse-strømmen.

AI – Mange begreper
i bare eN forkortelse

Begrepet kunstig intelligens har mange betydninger. Jeg vil forsøke meg på en liten analyse av hvordan disse ulike begrepene brukes, hvilke interesser de tjener, og hvem de kan skade hvis de misforstås. Vi skal fokusere litt på teknologimonopolene i Silicon Valley, men også om måter å regulere disse mektige aktørene og teknologier på.

Video fra presentasjonen til Echzell om kunstig intelligens 22.mai 2023

Bak begrepet «kunstig intelligens», eller AI (artificial intelligence), ligger det i utgangspunktet et nytt paradigme i måten datamaskiner programmeres på. I dette paradigmet er det ikke programmerere som utvikler et program etter bestemte regler. I stedet skal datamaskinene selv oppdage disse reglene basert på en stor mengde data. Fra et vitenskapelig perspektiv finnes det definerte begreper som beskriver ulike teknikker på dette feltet. Mange av dere har sikkert hørt om tilsvarende begreper som «kunstige nevrale nettverk», «deep learning» eller «transformers» (T-en i chatGPT).

I reklame og avisen brukes imidlertid et annet, mindre teknisk begrep: «AI» (eller KI). Det er vanskelig å definere «AI», særlig fordi ulike begreper blandes sammen her.

Med «generell AI» mener vi i hovedsak maskiner som kan løse alle tenkelige oppgaver som et menneske også kan løse. Generell AI er et populært science fiction-motiv, vi kjenner det fra filmer som The Terminator eller i form av romskipets datamaskin HAL 9000 fra Arthur C. Clarkes «Space Odyssey», som har en egen bevissthet og til slutt vender seg mot operatøren.

Begrepet «AI» som vi regelmessig leser i produktbeskrivelser i dag, er faktisk noe helt annerledes. Såkalt «svak» AI handler om å fullføre visse, avgrensede oppgaver, som tidligere bare ble antatt å være mulig for mennesker. For eksempel ble evnen til å spille sjakk lenge ansett som «intelligent». I dag er det en rekke problemer, som ansiktsgjenkjenning, autonom kjøring eller oversettelse av tekster, som tidligere var forbeholdt mennesker, men som nå allerede er i ferd med å bli overtatt av datamaskiner, i det minste i grunnleggende termer. Om man i det hele tatt kan snakke om intelligens med denne såkalte «svake» AI gjenstår å se. Jeg kommer senere tilbake til spørsmålet om hvilken kategori store språkmodeller som «chatGPT» faller inn i, som har dominert «AI»-mediedekningen i kort tid.

I alle fall håper jeg at dere er like skuffet som meg over vagheten og tvetydigheten i det dagligdagse begrepet «AI».

Hvordan kan kunstig intelligens brukes?

Dette bringer oss til spørsmålet om hvordan kunstig intelligens kan brukes. Også her kan man gi et litt mer teknisk svar, hvis man ønsker det. Den forrige taleren, Anders Løland, har allerede nevnt noen imponerende anvendelsesområder.

Det er imidlertid åpenbart at det er en mektig sektor (…) som ikke lenger er sikre på hva de faktisk selger og utvikler, og hvorfor.

Det andre svaret på spørsmålet om hvordan kunstig intelligens kan brukes, nemlig som et begrep som muliggjør investeringer, blir sjeldnere belyst. Her blir begrepets ullen karakter en fordel.

Det at vitenskapelige gjennombrudd gjennom «AI» kunngjøres overalt, kan for eksempel også tolkes som at bare bruken av begrepet «AI» åpner for tilgang til store EU-finansieringsprogrammer for vitenskapelig forskning. Jeg lurer ofte på om såkalt «AI» virkelig er den mest hensiktsmessige metoden for et gitt forskningsprosjekt, eller om bruken av den hovedsakelig bidrar til å skaffe den nødvendige finansieringen til datamaskiner og energi.

Også i offentlig forvaltning – spesielt i hjemlandet mitt, Tyskland – ser jeg av og til at moteord som «AI» brukes for å skjule at man henger etter i digitaliseringen. Det høres jo mye bedre ut å si «En kommune investerer millioner i toppmoderne blockchain AI» enn «Vi har digitalisert en administrativ tjeneste som vi kunne ha løst for lite penger for 20 år siden.»

Jeg kan bare spekulere i det nøyaktige omfanget av dette fenomenet innen vitenskap og administrasjon. Det er imidlertid åpenbart at det er en mektig sektor i samfunnet der moteord som AI med jevne mellomrom virvler opp så mye støv at investorene, CEOs, så vel som programmerere selv, ikke lenger er sikre på hva de faktisk selger og utvikler, og hvorfor. Velkommen til Silicon Valley!

Fra kundeorientering til Silicon Valley-modellen

Silicon Valley-modellen er grunnleggende forskjellig fra måten vi i Europa tradisjonelt utvikler forretningsmodeller på. Plutselig er den primære pengekilden for et ungt selskap ikke lenger kunden, men en investor som i utgangspunktet ikke er interessert i inntekt, men i vekst og fremtidige forventninger. Jobben til disse investorene er å bli fortalt i en kontinuerlig sløyfe, delt inn i 3-minutters «pitches», av de antatt smarteste gründere i verden, at du snart på en eller annen måte kan tjene mye penger med «AI», eller et annet moderne Silicon Valley-buzzword. En fellesnevner for denne ideologien er alltid at antallet brukere må økes, akkurat som mengden data som samles inn per bruker. Etter mange år med dyr «big data»-hype kommer «AI» på akkurat riktig tidspunkt. Alt som trengs nå er litt mer investering, sier den smarte gründeren, og AI vil skape «forretningsverdi» fra de enorme datasett. Det er gull i ørene til investorer og risikokapitalister. Slik har for eksempel Uber, den gigantiske taxitjenesten, vært i stand til å hente inn flere investeringer. Utnyttelse av taxisjåfører er ikke et vekstmarked, så Uber lovet å bli markedsleder innen selvkjørende bil. Så langt uten å lykkes. Nå ønsker Uber å levere mat og tjene penger på reklame i stedet.

Som vi ser, må kunngjøringer fra Silicon Valley tas med en klype salt. Spesielt vi europeere må være oppmerksomme på den kaliforniske «fake-it-til-you-make-it»-mentaliteten: Det betyr at selskapene ofte ikke har grunn til å anta at produktet deres noen gang vil kunne oppfylle brukernes forventninger. Det er akkurat her jeg ser farene: Arbeidet med selvkjørende bil har utvilsomt ført til bedre førerassistanseteknologier. Samtidig har Teslas avanserte assistansesystem kalt «Autopilot» blitt misforstått av noen brukere til å bety at bilen nå kan kjøre helt autonomt. Forskning har vist at brukere av Autopilot er mindre oppmerksomme, og sjåfører har allerede forårsaket flere dødsulykker med Autopilot aktivert.

Selv om jeg mener at produkter med såkalt «kunstig intelligens» ofte overvurderes, ser jeg fortsatt mange områder der den kan være nyttig. Jeg sier heller ikke at kunstig intelligens ikke er en fare og ikke bør reguleres. Jeg snakker imidlertid mye om de økonomiske interessene til de involverte aktørene for å kritisere de riktige problemer. Hva er disse problemer?

Skjermbilde fra video fra eForvaltningskonferansen.

Hva er problemene med kunstig intelligens?

I mediene finner vi en rekke skrekkscenarier om temaet kunstig intelligens. En vanlig fortelling er at dagens forskning på AI kan skape en supersmart, men farlig «generell» AI som har sin egen bevissthet og muligens forfølger andre interesser enn oss mennesker.

Spesielt chatGPT, en språkmodell som skal imitere en samtale med et menneske, skaper spenning i denne sammenhengen. ChatGPT er en fascinerende illusjon. Jeg ble selv overrasket over hvor menneskelig programmet virker ved første øyekast og kan forstå hvorfor mange lar seg rive med og drømmer om en slags intelligent datavesen. En nærmere titt avslører imidlertid teknologiens begrensninger: ChatGPT lar seg gjentatte ganger lure til å ytre fullstendig nonsens som antyder at språkmodellen ikke har noen som helst forståelse av de virkelige konseptene som representeres av ordene den bruker. Historien gjentar seg her: Allerede i 1966 presenterte Joseph Weizenbaum sitt program «ELIZA», som blant annet skulle simulere en samtale med en psykoterapeut. Selv om dette programmet var bygget etter de enkleste regler (det var tross alt 1966), overbeviste det en rekke brukere om at det var intelligent og kunne erstatte profesjonell terapi i fremtiden. Jeg har inntrykk av at vi oppfører oss ganske likt med chatGPT.

Kanskje er det mer realistisk at spesielt personer som for eksempel jobber med å skriver tekster, vil miste jobben på grunn av AI-drevet automatisering. På dette punktet bør det imidlertid påpekes at vedlikehold av AI-systemer også krever en betydelig mengde manuelt arbeid. Mens vi kan lese at ghostwriters i Kenya, dvs. folk som skriver andres bacheloroppgaver, for eksempel vil miste jobben på grunn av chatGPT, virker det kynisk at kenyanske klikkarbeidere ifølge en rapport i TIME skal trene chatGPT bort fra blant annet rasistisk og krenkende språk. Disse menneskene tjener ifølge rapporten maksimalt 2 dollar i timen. Så kanskje vi heller burde snakke om utnyttelse og fremmedgjøring enn om automatisering.

Bortsett fra noen få demo-eksempler, tviler jeg på om programmer som chatGPT virkelig er egnet til å erstatte, for eksempel en journalist, advokat eller lege, uten tap av kvalitet. Likevel er det også fristende for selskaper å bruke AI uten å tenke på hvem som er ansvarlig for beslutningene som tas. I Rotterdam ble det for eksempel brukt et statistisk system for å vurdere risikoen for svindel blant mottakere av sosiale ytelser. Det viste seg imidlertid at systemet, basert på historiske data, forsterket eksisterende diskriminering: visse kjennetegn, som å være alenemor eller ikke snakke det nasjonale språket, førte til en høyere risikovurdering. Nye former for diskriminering kan også tenkes. Selv om vi allerede har definert spesielle kategorier av personopplysninger i personvernforordningen som er spesielt beskyttet, for eksempel opplysninger om helse, seksuell legning eller religion, kan det tenkes at AI-systemer kan utvikle nye, mye mer komplekse, men fortsatt urettferdige former for diskriminering basert på dårlige data. Slike systemer har for eksempel allerede tidligere gitt dårligere skår til postnumre i nabolag med en høy andel innvandrere. Alle disse farene er høyst reelle, og blir stadig forsterket av overdrevne løfter og en viss ignoranse hos de involverte teknologiselskapene. Timnit Gebru, tidligere forsker på AI-etikk hos Google, publiserte en artikkel som advarte mot slike og lignende risikoer ved AI-systemer. Hun ble bedt om å forlate selskapet.

Det må alltid være klart at AI-systemer bare kan være verktøy og aldri kan erstatte en hel bransje med fagfolk. Ansvaret for bruken av dem må ligge hos brukeren, og brukeren må til enhver tid være klar over at systemet kan være feil. Hvorvidt og på hvilken måte bruken av kunstig intelligens er fornuftig, varierer fra bransje til bransje. I alle fall synes jeg personlig det er mer avslappende å kjøre bilen selv i stedet for hele tiden å overvåke en såkalt Autopilot som når som helst kan koste meg livet. Støtte fra et godt assistansesystem gjør derimot kjøringen min tryggere og bedre.

AI og innvirkningen på personvern

At bruk av kunstig intelligens kan være et stort personvernproblem, har vi allerede sett i eksemplet fra Rotterdam, der personopplysninger ble brukt til å diskriminere mennesker. Mangel på personvern er en trussel mot demokratiet selv uten bruk av kunstig intelligens: målrettet reklame basert på omfattende overvåking av nettatferd påvirker oss alle, og har også potensial til å sørge for skjevheter i den demokratiske meningsdannelsen. Vi husker Facebook/Cambridge Analytica-skandalen rundt mulig påvirkning av det amerikanske presidentvalget. Dette er en av grunnene til at vi fordrer et fullstendig forbud mot målrettet reklame, slik det – dessverre bare delvis – er inkludert i EUs «Digital Services Act», men også anbefalt av Personvernkommisjonen.

Vi kan ikke snakke om personvern uten å komme tilbake til teknologigigantene fra Silicon Valley: Det er Google, Microsoft, Facebook og mange andre som i årevis har misbrukt sin monopollignende posisjon til å samle inn stadig mer data fra stadig mer intime deler av brukernes liv, i tråd med ideologien i Silicon Valley-modellen. Mens Googles overvåknings- og analyseverktøy er innebygd på de fleste norske nettsteder for å lage profiler om befolkningens vaner og interesser, er selv en bilprodusent som Tesla flink til å forsyne seg av de innebygde kameraene i bilene. Selv om personvernforordningen siden 2018 tydelig har regulert vilkårene for når personopplysninger kan samles inn og behandles – eller ikke – er inntrykket at enkelte teknologigiganter heller vil betale en bot her og der i stedet for å gjøre forretningsmodellene sine grunnleggende lovlige.

Påstander om at AI-prosesser som bruker personopplysninger, til og med er en effektiv form for anonymisering, er vanligvis rett og slett uaktsomme.

Det er ikke tilfeldig at de samme teknologigigantene som allerede har gjort hele nasjoner og bransjer digitalt avhengige, delvis i strid med europeisk personvernlovgivning, nå ønsker å være pionerer innen kunstig intelligens. Microsoft har investert 10 milliarder dollars i chatGPT-oppfinneren openAI, Google og Facebook jobber med lignende prosjekter, mens Tesla-gründeren Elon Musk har snakket om selvkjørende biler i årevis.

Nå som kunstig intelligens lover å gjøre data om til penger for investorene, øker også insentivene til å hamstre enda mer personlige så vel som ikke-personlige data der det er mulig. Det vil utvide maskineriet for kommersiell overvåking ytterligere.

En del av løsningen ville være ganske enkel: i det minste når det gjelder personopplysninger må gjeldende personvernlovgivning, som GDPR, endelig håndheves effektivt. Etter den såkalte Schrems II-dommen finnes det ingen enkel måte å overføre personopplysninger uten ytterligere tiltak til USA, der de fleste teknologigigantene holder til. Selv om det var mulig, må datainnsamling og -behandling tjene et bestemt formål og ha et rettslig grunnlag. De tilsvarende samtykkeskjemaene som vi finner nesten overalt, oppfyller ofte ikke de rettslige minimumsstandardene på grunn av manipulerende utforming eller ufullstendig informasjon. Hvorvidt ens egne data til slutt brukes til AI-modeller, for eksempel for å trene ansiktsgjenkjenning, forblir ofte uklart.

Påstander om at AI-prosesser som bruker personopplysninger, til og med er en effektiv form for anonymisering, er vanligvis rett og slett uaktsomme. Særlig sensitive data, som helsedata eller biometriske data, må derfor beskyttes mot ukontrollert inngrep fra teknologigigantene. Her bør vi igjen i større grad følge konseptet med formålsdrevet dataminimering i stedet for å ta i bruk de kommersielle premissene for ureflektert og overdreven datamaksimering. Nøkkelen her ligger helt klart hos nasjonale personvernmyndigheter. Det norske Datatilsynet må styrkes betydelig for å ha kapasitet til å håndheve lover som allerede er på plass. Når det gjelder nye eller økte former for automatisert diskriminering, eller vurdering av samfunnsfarer fra ulike manifestasjoner av AI, liker vi ideen av et Algoritmetilsyn. En slik institusjon kan fungere som tilsynsmyndighet, men også koordinere forskningsinnsats, for eksempel validering av ikke-diskriminering.

Men vi trenger også nye lover på området for ikke-personlige data. Med «Digital Markets Act» og den foreslåtte «Data Acten» anerkjenner EU teknologigigantenes farlige markedsmakt. Utover spørsmål om personvern blir eksklusiv tilgang til data sett på som et konkurransefortrinn som truer markedet og sementerer monopolstrukturer. Selv om jeg anser mange datainnsamlinger for å være unødvendige, inneholder de store digitale selskapenes databaser også mye samfunnsnyttig informasjon, som kan b.a. brukes til å opplære AI-modeller, som bør gjøres tilgjengelig for et bredere publikum. I Norge har vi allerede lang erfaring med konsesjonsordninger, der selskaper som for eksempel selger vannkraft eller olje, underligger regulering og gir noe tilbake til samfunnet. Vi kjenner også til patentrettigheter som går over til allmenningen etter en viss tid. En digital konsesjonsordning, som vi etterlyser, kan få digitale selskaper til å gjøre samfunnsnyttige data tilgjengelig etter en viss periode, for å gjøre konkurranse mulig i utgangspunktet. Når data er samlet inn fra brukernes sluttenheter, som smarttelefoner, biler eller traktorer, bør makten om dataene uansett ligge hos eieren, ikke leverandøren. Særlig i landbrukssektoren har produsenter av maskinvare blitt mektige digitale plattformer som kan faktisk true matsuvereniteten. Å gjøre slike data tilgjengelige vil fremme etableringen av en lokal dataøkonomi og AI-industri. Den vil også redusere den strukturelle avhengigheten av amerikanske og kinesiske plattformleverandører.

Konklusjon

Jeg vil nå snart komme til slutten av talen og oppsummere. Vi har sett at utviklingen, men fremfor alt markedsføringen rundt temaet kunstig intelligens er tett knyttet til de kommersielle interessene til teknologigigantene, start-ups og gründerne i Silicon Valley. Under begrepet «Silicon Valley-modellen» har jeg forsøkt å vise at deres interesser noen ganger kan ligge langt unna kundenes, dvs. våre interesser. Spesielt teknologiske løfter bør tas med en klype salt, ettersom de ofte er mer tilpasset investorenes smak enn realistisk gjennomførbarhet eller faktiske fordeler for brukerne.

AI befinner seg her i et spenningsfelt, både som teknologi og som begrep. Visse teknologier som faller inn under AI-begrepet, har nyttige bruksområder og kan, når de brukes riktig, føre til økt produktivitet og kortere arbeidstid, økt sikkerhet eller bare mer behagelig arbeid. Utfordringen her er selvfølgelig for fagforeningene å se hvem som til syvende og sist drar nytte av disse produktivitetsgevinstene. Er det arbeidsgiverne eller arbeidstakerne? Eller er det Microsoft og andre som bruker dem til å øke sine marginer? Men farene lurer der gründere har lovet investorene sine ikke mindre enn en revolusjon. Teknologier som akkurat er «gode nok» for en veldig imponerende, overfladisk demonstrasjon, men som i daglig bruk kan kreve mer tilsyn enn de sparer i arbeidskraft, kan skade oss. I beste fall fører dette til at jeg må forholde meg til en dårlig bot på telefonhotlinen. I verste fall kan politikere naivt komme opp med ideen om å erstatte f.eks. grunnleggende helsetjenester med AI som ikke kan ta ansvar for feil beslutninger.

De økte insentivene til enda mer overdreven datainnsamling utgjør også en trussel mot både personvern og frihet fra diskriminering, og kan føre til en ytterligere styrking av markedsfiendtlige datamonopoler i den digitale sektoren.

Vi mener det er kan være nyttig å samle de relevante kompetansene under et Algoritmetilsyn (som gjerne kan underlegges Datatilsynet, det kan diskuteres.), å håndheve personvernlovgivningen gjennom et sterkt Datatilsyn og å etablere en konsesjonsordning som gjør alle nyttige landbruks-, trafikk-, klima- og andre viktige ikke-personlige data til en felles ressurs i stedet for å overlate dem til monopolistene.

Digitale teknologier er for viktige for samfunnet til å være underlagt selskapenes premisser. Det er opp til oss å utvikle, utforme og regulere digitale prosesser i Norge. Bare slik er en demokratisk digitalisering mulig.

Dette er utarbeidet tekst fra Hagen Echzell foredrag om kunstig intelligens, personvern og digtial demokratisering frA eForvaltningskonferansene 22. mai 2023.

Les mer om KI på vår temaside: Det du må vite om kunstig intelligens.

Hagen Echzell