En av årets oversettelser fra Font Forlag ser nærmere på et av tannhjulene som får maskineriet i vårt moderne samfunn til å gå rundt: algoritmene.

Det er utfordrende å forstå hvordan livene vi lever «online» og livene vi lever «offline» henger sammen. Hverdagen vår er et sammensurium av fysiske og digitale handlinger, samtaler og møter – under koronapandemien i større grad enn noensinne. Samtidig kan det være vanskelig å skjønne hvordan internett og ny teknologi faktisk fungerer og påvirker oss i det daglige.

Uklarheten i skillet mellom de digitale og fysiske livene våre kom til syne i rettsaken mot mennene bak fildelingsnettstedet The Pirate Bay (vist i dokumentaren «TPB AFK» fra 2013). Der stilte aktor tidligere talsperson for The Pirate Bay, Peter Sunde, spørsmålet om når han møtte resten av gjengen: «Når møttes dere for første gang IRL?». Sunde besvarte ikke spørsmålet, men påpekte at de ikke brukte uttrykket IRL (altså In Real Life), men heller AFK (Away From Keyboard) for aktiviteter «utenfor skjermen». Sundes begrunnelse var at det som skjer på internett også skjer i virkeligheten. I dag, ti år senere, er holdningen til aktoratet fortsatt utbredt: det som skjer på nettet, er ikke en del av virkeligheten. Når sannheten er at internett er virkeligheten.

Det finnes utallige eksempler som synliggjør vårt manglende overblikk over hvor sammenflettet den nye teknologien er med hverdagen vår. Nylig avslørte NRK hvor enkelt det er å kjøpe «anonyme» datasett og identifisere enkeltindivider og deres bevegelser i nærmiljøet. Dette fordi apper som du kan laste ned «gratis» ofte lar deg betale for bruken med informasjon om deg selv. Noe så uskyldig som at en offiser i forsvaret laster ned en app for å spille et spill med et familiemedlem kan i ytterste konsekvens føre til at noen, hvis de planlegger en krig mot Norge, kan gjøre et målrettet angrep mot denne offiserens hjem for å sette hen ut av spill.

Tillit er noe vi har mye av i Norge. Dette kommer ikke særlig godt med i møte med teknologiselskaper som legger ned enorme ressurser i å forstå hvordan hjernen vår fungerer, og tilbyr systemer som på overflaten gjør en ting (for eksempel lar oss holde kontakten med venner i andre land eller underholder oss mens vi venter på bussen) og i bakgrunnen gjør en annen ting (for eksempel henter ut og analyserer informasjon om oss og selger den videre, eller bruker den på en måte som er gunstig for selskapet selv). De glatte, brukervennlige duppedittene våre skjuler komplekse strukturer, både teknologiske og sosiale. For bak enhver teknologibedrift står en drøss med mennesker som prøver å forme utviklingen i tråd med sine interesser. Landskapet er mildt sagt vanskelig å navigere i – og det endrer seg fra dag til dag.

Et av tannhjulene som får maskineriet i vårt moderne samfunn til å gå rundt er algoritmene. I sakprosaboka «Hallo, verden – Hvordan være menneske i en verden styrt av datamaskiner» gir den engelske matematikeren og programlederen Hannah Fry en lettfattelig og underholdende innføring i hva algoritmer er og kan gjøre. Enkelt forklart: «En algoritme er rett og slett en serie logiske instrukser som viser hvordan man skal utføre en oppgave fra begynnelse til slutt.»

Så langt, så godt. Men vi er ikke helt i mål. Fry forklarer videre at algoritmer vanligvis refererer til matematiske objekter. «De tar en sekvens matematiske operasjoner – bruker ligninger, aritmetikk, algebra, matematiske analyser, logikk og sannsynlighetsberegning – og oversetter dem til datakode.»

Algoritmene kan prioritere, klassifisere, assosiere eller filtrere, skriver Fry. Og grovt sett kan de deles opp i to grupper: regelbaserte algoritmer – som følger logikken i en kakeoppskrift, først ingrediens A, så ingrediens B, deretter prosess C – og maskinlæringsalgoritmer, der du gir algoritmen «data, et mål og feedback når den er på riktig spor». I det siste tilfellet er det opp til maskinen å finne ut hvordan den skal nå målet.

Selv om dette kan virke abstrakt og teknisk, er algoritmene overalt rundt oss. Når vi lytter til musikk på internett beregner de seg fram til hva slags musikk vi liker å høre på og foreslår nye låter som ligner. I rettsvesenet kan de hjelpe oss å beslutte hvem som er skyldige og hva slags dom de fortjener. I helsevesenet kan de sette diagnoser og foreslå behandling. Inne i bilene våre kan algoritmer blant annet kalkulere risiko. Men disse systemene er på ingen måte nøytrale. I «Hallo verden» blir vi kjent med dilemmaene som kan oppstå når vi overlater mer kontroll og styring til maskiner.

Forfatteren er fullt klar over at algoritmer ikke er perfekte, men påpeker at det samme gjelder mennesker. Fry trekker fram hvordan rettsdommere ofte dømmer annerledes før og etter lunsj. Hvordan en dommer av kjøtt og blod mest sannsynlig ikke vil gi samme straff i flere saker på rad (selv om det kanskje er det mest rettferdige).

Hovedargumentet til Fry er at vi ikke kan la automatiske prosesser diktere beslutningene våre, men at vi må finne ut hvordan algoritmene kan utfylle vår rolle. Alt kan potensielt gjøre skade, det er hvordan noe brukes som er av betydning, skriver hun. Det høres vel og bra ut, menneske og maskin som går opp i en høyere enhet, men vi har noen utfordringer.

I kapittelet om kriminalitet går Fry gjennom algoritmer som politiet bruker for å forutsi i hvilke områder det mest sannsynlig vil oppstå en situasjon som politiet må hanskes med. En av disse, PredPol, markerer hvor i byen det bør patruljeres den kvelden. Her stiller Fry spørsmål ved en generell svakhet hos algoritmer: de baserer sine beslutninger på informasjonen de blir matet med. Dette betyr at de vil kunne videreføre fordommer og skjevheter ut ifra hva denne informasjonen opplyser og vektlegger, og da informasjonsmaterens interesser. I en prediktiv algoritme for lovbrudd er det lett å havne i et selvforsterkende mønster, for hvis politiet blir sendt til det samme området vil de naturlig nok oppdage mer kriminalitet der og dermed sendes oftere tilbake. Dette kan ramme allerede utsatte områder og diskriminerte grupper.

Fry skriver: «[…] dessverre er det umulig å være sikker på om PredPol klarer å unngå disse selvforsterkende mønstrene helt og holdent, eller om den faktisk opererer mer generelt, for PredPol er en privateid algoritme, så koden er ikke tilgjengelig for offentligheten, og ingen vet nøyaktig hvordan den fungerer.»

Her kommer vi til en annen svakhet ved algoritmer, eller snarere politikken som omgir dem. For i mange tilfeller holdes det hemmelig hvordan algoritmene rundt oss fungerer. Og hvordan skal vi kunne holde dem, eller dem som har laget dem, ansvarlige da?

Norge har siden slutten av mai 2019 forhandlet om en datahandelsavtale i Verdens handelsorganisasjon (WTO). Avtalen vil forby at myndighetene kan kreve innsyn i kildekoden til programvaren, slik at de ikke kan kontrollere hvordan teknologien virker. Dette vil være et enormt hinder for enhver regulering av teknologi i alle sektorer. Sofistikerte regnskapsprogrammer kan, for eksempel, lages for å unngå skatt uten at det oppdages og ulovlig overvåkning av ansatte på arbeidsplassen eller spionasje på viktige samfunnsfunksjoner vil være mulig.

Dette gjør Frys visjon hakket mer komplisert. Hun er allerede bevisst hvordan hemmeligholdet rundt algoritmer kan vanskeliggjøre en offentlig diskusjon og kontroll. At det i tillegg vil være forbudt for myndighetene å kreve innsyn, vil gi oss et samfunn der teknologiselskapene alene får sette premissene for samfunnsutviklingen – i henhold til deres egne interesser og motiver. For å si det med Fry: «Men i iveren etter å automatisere, i hastverket med å løse mange av verdens problemer, ser det ut til at vi har erstattet ett problem med et annet.»

Algoritmer kan være unøyaktige og de kan ødelegge livene til folk. Men vi kan ikke klandre dem. Det er menneskene bak algoritmene som må sørge for at de tar rettferdige beslutninger, og holde øye med når de ikke gjør det. Samtidig kan vi ikke la det være opp til hvert enkelt menneske og selskap å sette grenser for dette selv. Det vi trenger er demokratiske spilleregler for den digitale politikken  som setter befolkningens rettigheter først.

Victoria Durnak