Det du må vite om kunstig intelligens

Lei av selvoppnevnte «eksperter» og dystre spådommer om «kunstig intelligens»? Attac har jobbet for regulering av kunstig intelligens i mange år, og her gir vi deg en kjapp innføring i problemene og løsningene:

Kunstig intelligens er et hype-ord som blir brukt om flere ulike, men lignende, teknologier. De bakenforliggende teknologiene kalles ting som nevrale nettverk, maskinlæring og stordata.

Det er ikke faktisk intelligens, det er fortsatt et program som kjører på en datamaskin. Det er langt lettere å forstå hva teknologien faktisk er hvis man presist beskriver hva de gjør istedenfor å bruke det ullne begrepet kunstig intelligens.

Istedenfor kan vi snakke om tekst- og bildegeneratorer (slik som henholdsvis ChatGPT og Midjourney), bildeanalyse (f.eks. av røntgenbilder eller satelittfoto) og andre former for avansert databehandling (som plassering av reklame på nettet basert på hva du har søkt på hos Google eller hva du har likt i Facebook-feeden din).

Maskinlæring, den viktigste teknologien i det som kalles “kunstig intelligens”, er algoritmer (et slags avansert mattestykke), som kan brukes til å finne mønstre i data. Ved å “trene” på enorme mengder data kan de “lære” å kjenne dem igjen mønstre fra den virkelige verden. Når mønstrene er etablert, så kan det brukes til å kjenne igjen de samme mønstrene i nye sammenhenger.

Generatorene som nå får så mye oppmerksomhet bygger på innsamlet tekst og bilder åpent tilgjengelig på internett. På bakgrunn av det kan de lage tekst og bilder som ligner på det som allerede finnes. Det er altså først med kombinasjonen av data og algoritmer at mønstergjenkjenningen har noe for seg. 

Det som nå kalles kunstig intelligens har vært med oss lenge. Tekstgeneratorer er en videreutvikling av den samme teknologien som de fleste nå er vant til med autokorrektur og oversettelser (som Google Translate), og for den del søkemotorer. Det er en form for automatisering av standardiserte oppgaver, og de nye teknologiene vil åpne for enda større grad av automatisering.

Dette vil påvirke en rekke sektorer i samfunnet. Tekstgeneratorer er på vei inn i offentlig forvaltning,  juss, journalistikk og markedsføring , innen helsevesenet brukes bildeanalyse på røntgenbilder, i landbruket brukes dataanalyse til mer presis bruk av sprøytemidler.

Sosiale media og søkemotorer baserer seg allerede på en massiv innsamling av data for å kunne å lage målrettede annonser, og det er et press for å samle inn så mye data som mulig for å kunne lage nye «kunstig intelligens»-produkter. Målet er å automatisere  oppgaver som tidligere har vært for komplekse til å overlate til maskiner.

Markedsføringen om at teknologien vil erstatte hundretusenvis av arbeidsplasser er mest tomme løfter, men nye verktøy vil endre hvordan vi jobber. Automatiserte lager, slik blant annet Amazon benytter, har ført til protester fra «arbeidere som føler seg som roboter». Med automatisering i nye sektorer så vil nye grupper arbeidstakere risikere å bli «roboter» underlagt datastyrte prosesser. Det vil bli de som lager og styrer teknologien som setter premissene for hvordan dette skal skje.

Potensialet for slike teknologier er enormt, men potensialet for misbruk er nesten enda større.

At generert tekst kan brukes til juks i skoleoppgaver har fått mye oppmerksomhet, men et langt større problem er spam. Tekstgeneratorer som ChatGPT brukes til å lage spam som ser langt mer troverdig ut enn tidligere, og i nye former. Nettforum og sosiale medier oversvømmes med autogenererte tekster som ser troverdige ut, men som er billig, og ofte misvisende, reklame.

Tilsvarende lages det falske, men troverdige videoer (ofte kalt «deep fakes») som direkte desinformasjon, mens falske seksualiserte bilder og videoer brukes til hets og utpressing, spesielt mot kvinner.

Det er også risiko for annen misbruk, der teknologien kan brukes i mer avanserte former for svindel og juks . Uten innsyn i hvordan algoritmene fungerer og hvilke data de bygger vil det være umulig å avsløre.

Det er allerede en lang rekke eksempler på at kunstig intelligens forsterker diskriminering. Det har blitt brukt til å sortere og anbefale jobbsøknader, men fordi tidligere data viste at det som oftest er menn som blir ansatt valgte programmet systematisk menn foran kvinner.

I Rotterdam brukte myndighetene dataanalyser til avsløre trygdemisbruk. Fordi de som oftest ble avslørt som trygdemisbrukere var de sosialt mest utsatte, førte programmet til at en rekke uskyldige, men sosialt utsatte, ble beskyldt for trygdemisbruk og fratatt sosialhjelp.

I USA har man brukt tilsvarende analyser til straffeutmålinger, med samme resultat.

Uten tydelige kontrollmekanismer der man kan se hvordan de ulike algoritmene er bygd opp og hva slags data de bygger på, så vil såkalt kunstig intelligens føre til mer diskriminering.

Diskriminering er  bare den mest åpenbare faren med dårlige data. Alle steder der dataene som er brukt til «lære opp» algoritmene er misvisende og mangelfulle vil det føre til feil. Innenfor landbruk, helse, i offentlig forvaltning og andre steder hvor man tar i bruk  «kunstig intelligens» er det allerede eksisterende kunnskapshull, strukturelle skjevheter og diskriminering som fører til feil. En automatisering vil videreføre og forsterke de samme problemene.

Tekstgeneratorer som ChatGPT er ikke faktisk intelligente og har ikke noen form for bevissthet. Vi trenger altså ikke være redde for et science fiction-scenario der kunstig intelligens går til krig mot menneskeheten. Farene med såkalt kunstig intelligens er langt mer gjenkjennelige.

Den største faren at det vil føre til en enorm maktforskyvning til de største selskapene. Allerede er det en sterk tendens til monopolisering i teknologiselskapene, og med bruken av såkalt kunstig intelligens vil de samme selskapene bruke teknologien til å ytterligere styrke monopolene sine. De vil også bruke teknologien til å ekspandere inn i sektorer som landbruk, helse og offentlig forvaltning. Dette vil gi noen få selskaper enorm makt over hvordan disse sektorene skal se ut, og jo sterkere kontroll de har over bruken av teknologien jo mer profitt kan de hente ut.

I kombinasjonen av algoritmer og data som brukes for å utvikle denne teknologien så må dataene hentes fra den virkelige verden.

Å utvikle algoritmer krever kunnskap og ressurser, men de blir først til nyttige verktøy etter at de har «lært» fra data. Innsamlede data er derfor den viktigste ressursen for å utvikle såkalt kunstig intelligens. De som kontroller denne ressursen bestemmer dermed over teknologien og store datamengder er derfor en av de viktigste økonomiske ressursene i det 21. århundre.

For den enkelte av oss er data om oss selv relativt verdiløse. Det er først når det hentet inn fra mange og kan systematiseres at det blir til en økonomisk ressurs. Data handler derfor alltid om fellesskapet, og Attac mener derfor det skal være en felles ressurs, ikke noe som store teknologiselskaper kan kreve privat eierskap til.

Hva skal vi gjøre?

Attac har konkrete forslag for de største utfordringene som kommer med kunstig intelligens.