98 prosent av de 500 største selskapene i verden benytter seg av automatiserte rekrutteringssystemer, men teknologien holder ikke det den lover og reguleringene for bruken er fraværende.
Vi må innta en ansvarlig føre-var-holdning ved innføringen av kunstig intelligens i næringslivet og offentlige virksomheter. Dette etterlyser forskerne Kristine Bærøe og Torbjørn Gundersen i Aftenposten tidligere denne uka. De mener at det mangler en mer omfattende farevurdering og grundigere implementeringsplan for etikk i regjeringens strategi for kunstig intelligens. Bærøe og Gundersen understreker at kunstig intelligens kan komme til å utfordre våre vilkår for etisk handling og påvirke grunnlaget for våre sosiale systemer.
En føre-var-holdning bør innebære å se på teknologiutviklingen utenfor våre landegrenser. I USA og Sør-Korea benyttes kunstig intelligens i stor grad i forbindelse med ansettelsesprosesser. Firma som HireVue hevder at deres algoritmer kan analysere videointervjuer med kandidater og, på bakgrunn av ansiktsuttrykk og holdning, avgjøre hvem det vil være mest gunstig å ansette. De siste årene har det også dukket opp flere norske firma som leverer løsninger med kunstig intelligens til bruk i ansettelsesprosesser.
Problemet er bare, melder MIT Technology Review, at mange av forskerne som har utviklet teknologien, som blant annet analyserer mikrouttrykk og stemmevariasjoner, er skeptiske til den kommersielle bruken av den. Forskerne vil at teknologien skal reguleres av myndighetene og sier at algoritmene, som bedriver såkalt følelsesgjenkjenning, ikke egentlig kan gjøre det som de kommersielle selskapene hevder at de kan gjøre. Teknologien kan ikke trekke konklusjoner om en persons indre liv og påfølgende hvor egnet personen er til å gjennomføre en jobb. Teknologien kan bare anslå hvordan en persons følelser kan oppfattes av andre.
Det skal mye mer til enn en persons ansiktsuttrykk for å beregne hvordan hen føler seg – som for eksempel en analyse av kroppsspråk, ganglag og andre karaktertrekk. I tillegg vil det være nødvendig å bruke biometriske sensorer og gjennomføre grundig lydanalyse for i det hele tatt å danne seg et noenlunde tydelig bilde. Det er også viktig å huske at algoritmer for ansiktsgjenkjenning ofte tolker ansikter med mørkere hudtoner som sintere og mindre glade enn dem med lysere hudtoner, og at sorteringsalgoritmer i flere tilfeller har favorisert menn framfor kvinner.
Likevel markedsfører firma som HireVue seg med påstanden om at de, «fair and fast», kan fastsette en persons kompetanse og egnethet, basert på analyse av dennes videointervju. Algoritmene de bruker vil, ifølge HireVues nettsider, vise hvem kandidaten er «på en måte de ikke kan i CV-en».
Å fastsette din personlighet utenfor CV-en kan også omfatte en analyse av din aktivitet i sosiale medier. Flere av selskapene som tilbyr automatiserte rekrutteringsprosesser bruker programvare som analyserer hva du har publisert i dine sosiale kanaler, hva du har likt og delt. Programvaren har beviselig en stor utfordring: den sliter med å forstå og kategorisere humor og sarkasme. Følgelig kan vurderingen av deg og dine interesser bli både uriktig og urimelig.
Forrige uke besøkte fagforeningskjempen Christina Colclough Oslo for blant annet å delta på arrangementet «Dine, mine og våre data» i regi av Handelskampanjen, Fagforbundet og Attac Norge. I et intervju med FriFagbevegelse sier Colclough at hele 98 prosent av de 500 største selskapene i verden benytter seg av automatiserte rekrutteringssystemer. Hun understreker at digitalisering ikke må reduseres ned til et teknisk eller et økonomisk spørsmål, men at digitalisering handler om politikk som får konsekvenser for arbeidstakere.
Statssekretær Paul Chaffey oppgir til FriFagbevegelse at han ikke kjenner til at automatiserte rekrutteringsprogrammer er på trappene i staten. Men ettersom flere aktører i norsk næringsliv allerede benytter kunstig intelligens i ansettelsesprosesser, er det på høy tid å få på plass kollektivavtaler rundt arbeidernes datarettigheter. Ikke minst må vi få vite hvordan teknologien som tas i bruk fungerer. Dette for å få innsikt i kriteriene vi vurderes etter og for å forhindre at algoritmene tar beslutninger som diskriminerer på bakgrunn av kjønn eller etnisk/sosial/politisk tilhørighet.
Vi må se til utlandet og være forberedt på at nye teknologiske tjenester, som blant annet involverer såkalt følelsesgjenkjenning og analyse av vår aktivitet i sosiale medier, kan få enda større utbredelse her. For å sikre et demokratisk og rettferdig arbeidsliv må vi i møte med kunstig intelligens være – som Bærøe og Gundersen påpeker – føre var.