Hvis bare en algoritme kunne sporet koronasmittedes bevegelser og sett hvilke andre som hadde oppholdt seg på samme sted. Da kunne vi effektivt bestemt hvem som burde holde seg hjemme og fått kontroll over viruset på nulltid. Men hva hvis denne algoritmen baserte seg på annen og ukjent data om helsen vår også? Og hva hvis den i tillegg videresendte informasjonen vår til politiet?

Kinesiske myndigheter krever nå at innbyggerne installerer en app på telefonen som ved hjelp av en algoritme skal kunne forutse risikoen for hver enkelt å pådra seg, samt være smittebærer av, korona-viruset. Innbyggerne blir tildelt en fargekode som klassifiserer dem, men det er ukjent hvordan denne algoritmen fungerer og hva slags data som ligger til grunn for vurderingene.

Foto: Macau Photo Agency / Unsplash

Likevel dikterer appen hvilke innbyggere som må isolere seg, hvem som har tillatelse til å kjøre offentlig transport, besøke kjøpesentre og andre offentlige steder. Alt dette uten noen form for begrunnelse. The New York Times melder at appen i tillegg deler informasjon med politimyndighetene, noe som «lager en mal for nye former for automatisert sosial kontroll som kan vedvare lenge etter at epidemien avtar». Politimyndighetene i landet er faktisk en av de viktigste partnerne i utviklingen av dette systemet. Maya Wang, som gransker Kina for Human Rights Watch, sier til The Times at det ikke vil være første gang Kina i ly av en større samfunnsmessig hendelse iverksetter nye masseovervåkningsverktøy. Det samme skjedde blant annet under OL i Bejing i 2008.

Nyttig nok kan appen slå sammen din lokasjonsdata med myndighetenes oversikt over andre korona-smittedes bevegelser, noe som raskt kan bidra til å oppdage mulige smittede. Samtidig er det problematisk at appen sender din fysiske plassering til en server hver gang koden din skannes. På denne måten kan myndighetene holde et øye med hvor du ferdes over tid, og det vil være så lett som ingenting å slå ned på uønsket aktivitet for det autoritære regimet.

Dette er skremmende. Selv for ikke-autoritære land som Norge så er alltid mer overvåkning fristende for å kunne ha en større mengde bedre data og forstå mer om hvordan ting henger sammen. Samtidig så er ikke dette den eneste faren med algoritmene.

For det er ikke bare Kina som tyr til automatiserte prosesser i forbindelse med helsespørsmål. Over hele verden benyttes algoritmer i økende grad i helsevesenet. I USA kan algoritmene i mange tilfeller avgjøre hvem som får helseforsikring og hvor mye. I Arkansas brukes algoritmer til å avgjøre hvor mange timer hjelp syke mennesker i offentlige program kan få. Da dette ble innført i 2016 ble antallet timer drastisk kuttet for mange, på bakgrunn av at algoritmen hadde glemt å ta med diabetes og celebral parese i beregningen.

Foto: Michael Dziedzic / Unsplash

Dette viser en av mange svakheter med bruken av algoritmer for å ta beslutninger på vegne av oss og vår helse. For selv om en perfekt algoritme kanskje kan ta gode valg, så finnes ikke den perfekte algoritmen. Algoritmene som tolker dataen er ikke nøytrale og objektive, de designes av mennesker av kjøtt og blod som prioriterer noen verdier og interesser over andre. Hvilke data som samles inn om oss og hvordan de brukes er derfor politikk.  Selskapene som eier data, kontrollerer teknologien som utvikles og får dermed makt over samfunnsutviklingen.

Det er en rekke etiske og politiske spørsmål som i dag blir tatt i helsevesenet: Er det rettferdig at folk med usunn livsstil skal betale mer av helsekostnadene sine selv? Selv om livsstil henger tett sammen med inntekt og utdanning? Skal den sosiale bakgrunnen din avgjøre hvor mye, eller lite, du skal betale for å bli frisk? Eller om livet ditt er verdt å redde med en respirator?

Å overlate dette til automatiserte prosesser og kunstig intelligens gjør ikke spørsmålene enklere, men flytter avgjørelsen over til de som utvikler teknologien. Når det skjer uten en bred debatt er det farlig for hele samfunnet. Hvis vi i tillegg ikke sørger for at vi kan regulere teknologien og endre den hvis vi vil ha andre svar eller andre løsninger så er det virkelig farlig. Dessverre er det akkurat det som skjer nå med datahandelsavtalen i WTO.

Victoria Durnak