Hjem » Artikler » Blogg » Når algoritmer ansetter og sparker

Når algoritmer ansetter og sparker

Politikere og eksperter vier svært lite oppmerksomhet til hvordan data blir brukt – og potensielt misbrukt – i forhold til arbeid. Fagforeningene må forsøke å fylle dette hullet i lovverket og sette arbeidstakernes datarettigheter på dagsordenen.

Tenk deg om et øyeblikk og vurder om du ville fått jobben din hvis en algoritme var ansvarlig for å ansette deg? Tenk på alle opplysninger om din økonomi, dine helsedata og dine venner på sosiale medier. Er du medlem av en fagforening? Har du en smart sportsklokke, som for eksempel Fitbit? Hvordan er dine handlevaner og hva gjør du på fritiden? Og så spør du deg selv: Hvordan vil alt dette påvirke arbeidslivet ditt? Vil du bli ansatt, sparket, disiplinert eller forfremmet?

Det som virker som et bisart spørsmål, er faktisk noe som vi alle trenger å tenke over og reagere på.

«Management-by-algorithm» sprer seg. Flere og flere data fra mange forskjellige kilder brukes i forbindelse med HR-oppgaver (som for eksempel ansette, utvikle og gi sparken til de menneskelige ressursene i en organisasjon).  Kritisk nok er det, over hele verden (med et visst unntak i Europa), svært få bestemmelser som beskytter mot misbruk av arbeidstakeres personopplysninger i og av bedrifter. Fagforeningene må forsøke å fylle dette hullet i lovverket og sette arbeidstakernes datarettigheter på dagsordenen. Dette for både å kunne holde bedriftsledelsene og regjeringene ansvarlige.

Hva er dette med data?

Foto: Marvin Meyer / Unsplash

Den siste Facebook/Cambridge Analytica-skandalen viste altfor tydelig verdien av (personlige) data. For reklame, profilering og markedsføring er viktigheten av vår data så høy at den tilbys og selges for et ukjent beløp hvert år. I 2014 ble verdien av datastrømmer anslått å være 2,8 billioner amerikanske dollar. Se nå dette enorme tallet i forhold til det faktum at World Economic Forum tre år senere anslo at 90 prosent av alle dataene i 2017 hadde blitt produsert siden 2015. Vi kan bare prøve å forestille oss hva verdien av dagens datastrømmer egentlig er.

Vi etterlater dataspor hele tiden: fra våre profiler i sosiale medier, våre likes og innlegg, til telefonsamtaler med kundeservice, våre legebesøk, bruk av GPS i bil eller på mobil, eller kontantuttak fra banken. Vi gir gjerne vekk våre navn og e-postadresser når vi logger på gratis internett på kafeer, flyplasser eller togstasjoner. Vi har også mer eller mindre blitt så vant til «gratis» digitale tjenester at vi nesten blir irritert når en mobilapp koster penger. Saken er at ingenting er gratis. Det vi har gjort og fortsatt gjør er, fritt og ofte frivillig, å gi bort vår plassering, våre vaner, aktiviteter og meninger. Med andre ord betaler vi med våre data.

Men hvem kjøper faktisk disse dataene? Hvem leser, analyserer og selger dem? Det korte svaret er at vi ikke vet, og vi kan heller ikke vite det.

Folk på innsiden som UNI har snakket med, estimerer at de store teknologibedriftene som Google, Amazon, Facebook, Apple, Microsoft og Alibaba eier mer enn 70 prosent av verdens samlede data.

Konsentrasjonen av denne verdifulle ressursen, setter disse selskapene i en uakseptabel posisjon når det kommer til økonomisk, digital, sosial og politisk makt.

Arbeidere over hele verden har svært få juridiske rettigheter til å kreve innsikt i og innflytelse over bruken av deres personopplysninger. Vi vet at det eksisterer såkalte datameglere, firmaer som lever av å kjøpe og selge data. Vi vet at bedrifter driver datautvinning fra arbeiderens data. Selger de dem også? I så fall, til hvem? Hvem får vite hva dine helsedata inneholder, eller hvor produktiv en algoritme eller et selskap mener at du er? Hvordan blir disse dataene – som tilsynelatende er lett tilgjengelig for alle som har råd til å betale – brukt av bedrifter til å styre arbeidstakere?

Overvåkning, manipulasjon og algoritmisk kontroll

Vi har delvis fått opp øynene, på grunn av erfaringer fra hvordan data har blitt brukt til å målrette og manipulere velgere, som i USAs presidentvalg og i Brexit-avstemmingen. Men politikere og eksperter vier svært lite oppmerksomhet til hvordan data blir brukt – og potensielt misbrukt – i forhold til arbeid. Det er en kraftig økning i bruk av algoritmer, data og kunstig intelligens (KI) i forbindelse med HR-oppgaver og produktivitetsplanlegging. Det popper opp bedrifter som tilbyr kostnadsbesparende KI-løsninger, som blant annet kan sortere jobbsøkere og søknader, måle produktivitet gjennom bruk av omfattende data, måle de ansattes humør og holdninger, finne ut hva som motiverer dem, og mye mer.

Mens noe av dette kan ha positive effekter, er det stor risiko for arbeidernes privatliv og det er stor risiko for at vi blir målt mot en digital norm. Blir du ikke bli forfremmet på grunn av dine helsedata? Vil du ikke få en jobb fordi du er et fagforeningsmedlem, har spesielle venner, eller har personlige egenskaper som algoritmen har blitt fortalt å avvise?

Dette kan høres hypotetisk ut, men dessverre er det ikke det. I UNI Global Union ser vi allerede hvordan disse autonome systemene har en skadelig effekt på arbeidstakere. Spesielt på ikke-organiserte arbeidsplasser, hvor det ikke er noen maktutjevnende mekanismer eller muligheter til å oppnå avtaler for å rette opp misligheter.

I et tilfelle ble bankansatte i et kundesenter innlemmet i et system som målte kundenes og arbeidernes toneleie og humør. Systemet ga deretter arbeiderne råd om hva de skulle si og gjøre, og overvåket at de lykkes med å gjøre «det rette». For disse ikke-organiserte arbeidstakerne var systemet katastrofalt. Vurderingen ble knyttet til deres ytelse, men systemet klarte ikke å gjenkjenne kvinnelige stemmer like godt som mannlige og ga dem med aksent (her definert som etnisk minoritetsaksent i forhold til hvite menn) lav poengscore. Selv om arbeiderne kunne gå gjennom innspillingene med ledelsen, ble feilene sjelden rettet. I tillegg ble all denne dataen lagt til arbeidstakernes digitale fotavtrykk, noe som ikke bare kunne skade dem i den nåværende jobben, men potensielt også gjøre det vanskeligere for dem å finne en annen jobb.

Det er mange andre eksempler: Et selskap ga alle arbeidstakere en FitBit for å delta i en konkurranse for å bli et sunnere selskap. Deretter brukte de GPS-dataen som grunnlag for å gi en advarsel til en overvektig ansatt, som tilsynelatende ikke beveget seg mye på fritiden, om at han kunne bli en byrde for selskapet. Vi har lagerarbeidere, hvis hver minste lille hånd- og armbevegelse spores for å granske hvor effektivt de pakker varer, hjemmesykepleiere som får advarsler fordi de bruker for mye tid på en bruker og arbeidere som får sparken fordi en algoritme sa at de burde det.

Fagforeningenes svar

Foto: Pop Zebra / Unsplash

Det er ingen tvil om at fagforeningene må handle nå. Vi må organisere, organisere og atter organisere. Vi må bygge allianser med likesinnede og kreve en del av datarikdommene. Vi må tette de regulative gapene og kreve gode datarettigheter for arbeidstakerne. Dette må gjøres på alle nivåer: fra kollektive avtaler, til nasjonal og internasjonal lovgivning, og nye konvensjoner. Vi må mobilisere den internasjonale arbeidsorganisasjonen (ILO), FNs menneskerettighetsråd, nasjonale myndigheter, sivilsamfunnet og selskapene selv.

UNI Global Union jobber med disse problemene over hele verden. Vi diskuterer hvordan vi, fagforeningene, kan forstå viktigheten av datasamlinger og dra nytte av innsikten de kan gi. Vi motsetter oss monopolisering av dataeierskap og spør om data skal gjøres til et felleseie. Et offentlig gode, tilgjengelig for alle. Det er en ting å beskytte våre grunnleggende rettigheter, det andre er å ta dette et skritt videre og kreve et kollektivt eierskap til data. Begge deler er like viktig.

Vi har også skrevet to sentrale dokumenter, nemlig «Topp ti prinsipper for arbeidernes personvern og beskyttelse» og «Topp ti prinsipper for etisk KI». Dokumentene bygger på hverandre og lister opp de mest vesentlige kravene vi må stille for å unngå en fremtid hvor arbeidstakere blir utsatt for algoritmiske beslutningsprosesser utenfor menneskelig kontroll og innsikt.

Disse prinsippene dekker de viktigste spørsmålene om adgangsrett, innflytelse og konsultasjon. I all hovedsak fastsetter de at arbeidere må:

  • bli informert før databehandling
  • ha rett til forklaring i forbindelse med algoritmisk beslutningstaking
  • ha rett til dataportabilitet (dvs. arbeidere må ha lov til å ta med seg dataene sine når de forlater et selskap) og
  • ha rett til å motsette seg og stille spørsmål ved databehandling

I tillegg bør selskapene forplikte seg til dataminimaliseringsprinsippet, og enda viktigere, å være åpne og ansvarlige i sin databruk. Dette siste punktet er avgjørende og bemerkelsesverdig fraværende i EUs personvernforordning.

Etisk KI

Begrepet «kunstig intelligens» dekker her alle automatiserte/semi-automatiserte systemer, inkludert algoritmisk beslutningstaking. Her dekker våre prinsipper viktige spørsmål som åpenhet, ansvar og kontroll. For det første må vi kreve at autonome systemer kan spores, noe som betyr at dataene som brukes i algoritmen, kan identifiseres.

Alt for ofte sier dataeksperter at det ikke er mulig å forklare en algoritme. Dette er helt uakseptabelt. Forestill deg hva det innebærer: at verken ledelsen eller arbeidstakerne kan kreve å vite på hvilket grunnlag (data) et algoritmisk utfall er bygget på. Dette kan i sin tur føre til en situasjon hvor ledelsen enten bevisst eller utilsiktet underordner kontrollen og ansvaret til en algoritme, med alle de risikoer og farer dette fører til, ikke bare for arbeidstakerne, men samfunnet generelt. Vi må aldri havne i den situasjonen av ledelsen helt enkelt kan trekke på skuldrene og si: «Algoritmen sa at jeg skulle sparke deg, men jeg vet ikke hvorfor.»

Mennesker må til enhver tid ha kontroll over systemet, ikke omvendt. Vi må heller ikke gi etter for ideen om at autonome systemer (roboter, algoritmer) kan ansvarliggjøres. Roboter er ting. De er varer, og må aldri tilskrives juridisk ansvar.

Det haster

Det er tvingende nødvendig nå: Fagforeninger over hele verden må adressere disse grunnleggende problemene. Vi kan rett og slett ikke stole på at andre vil gjøre det. Den digitale teknologien utvikler seg med stor hastighet, og våre etiske krav til den må være tydelige. Vi kan ikke risikere at folk blir forhindret i å jobbe eller trives på arbeidsmarkedet på grunn av en algoritme som ingen hevder å kontrollere, og ingen kan rette opp.

UNI Global Union mener at kollektivt eierskap til data, etisk kunstig intelligens og arbeidernes datarettigheter er sentrale saker for fagforeningene. Vi må forplikte bedriftsledelsene og regjeringene til å ta ansvar. Bare ved å gjøre det, kan vi sikre et digitalt arbeidsliv som bemyndiger, er inkluderende og åpent for alle.

Denne artikkelen ble opprinnelig publisert av Internasjonalt senter for fagforeningsrettigheter i International Union Rights Journal  (Fokus på Industri 4.0 – Vol. 25/3 Oktober 2018) og oversatt til norsk i GNIST 02/2019.

De følgende to fanere endrer innholdet under.
Christina Colclough
Christina Colclough er antakelig den internasjonal fagbevegelsens fremste ekspert på data og digitalisering, og er en svært mye brukt foredragsholder globalt. Hun arbeider i UNI Global Union som organiserer alle fagforbund for servicearbeidere i privat sektor, pluss alle postens fagforbund.
Christina Colclough

Siste innlegg fra Christina Colclough (se alle)