Meredith Whittaker advarer mot teknologibransjens makt, men forklarer hvorfor det er verdt å tenke positivt akkurat nå.

Forbundskansler Helmut Schmidt-stiftelsen deler for tredje gang ut sin Fremtidspris for «innovative bidrag innenfor demokrati, samfunn og teknologi». Årets prisvinner er Meredith Whittaker, som får den «for sitt engasjement for en human utvikling av kunstig intelligens til fellesskapets beste». Whittaker er leder for Signal-stiftelsen, som lager den kjente krypterte meldings-appen Signal. Helmut Schmidt var blant annet forbundskansler i Vest-Tyskland (1974-1982) for de tyske sosialdemokratene.

Attac Norge har fått lov å publisere takketalen hennes på norsk. Talen oppsummerer mange punkter rundt hvordan kunstig intelligens, overvåkningskapitalisme og nyliberalisme er tett knyttet sammen, og får katastrofale følger som bruken av kunstig intelligens i drapsmaskiner i Gaza.



Kjære venner, publikum, arrangører og alle menneskene i livet mitt, som med støtten og visdommen sin har gjort at jeg står her i dag – tusen hjertelig takk. Det er en stor ære å motta Helmut Schmidts Framtidspris for 2024, og jeg er svært takknemlig overfor juryen for denne anerkjennelsen, og til deg, Francesca, for utrolig tankevekkende bemerkninger i den rosende hyllesten din. Jeg er en stor beundrer av ditt arbeid, så det gjør dette enda mer spesielt for meg.

Jeg mottar denne prisen på et kritisk tidspunkt i historien. Vi ser den globale regel-baserte ordenens bærebjelker stønne, svaie og bukke under for økende illiberalt press. Med dette i tankene ber jeg om tilgivelse for at jeg kommer med en akutt oppfordring i en sammenheng som vanligvis er reservert for anerkjennelser, takk og optimistiske visjoner.

Ikke misforstå meg – jeg er optimistisk – men optimismen min er en oppfordring til analyse og handling, ikke til å lene seg tilbake og være ukritisk til den pågående utviklingen.

Med dette i tankene ønsker jeg å starte med noen definisjoner for å sikre at vi alle leser fra de samme notene. Fordi altfor ofte, i denne hype-baserte diskursen, gjør vi ikke det – og for sjeldent tar vi oss tid til de grunnleggende spørsmålene der svarene endrer perspektivet vårt fundamentalt. Spørsmål som, hva er kunstig intelligens? Hvor kommer det fra? Og hvorfor er det overalt, med løfter om allvitenhet, automatisert bevissthet, og det som bare kan beskrives som magi?

Kunstig intelligens (KI) er et markedsføringsbegrep, ikke et teknisk begrep.

Vel, for å starte med det første svaret: Kunstig intelligens (KI) er et markedsføringsbegrep, ikke et teknisk begrep. Begrepet «kunstig intelligens» ble oppfunnet i 1956 av informatikeren og kognitiv-forskeren John McCarthy – omtrent et tiår etter at de første proto-nevrale nettverksarkitekturene ble skapt. I senere intervjuer er McCarthy veldig klar på hvorfor han oppfant begrepet. For det første ønsket han ikke å inkludere matematikeren og filosofen Norbert Wiener i en workshop han arrangerte den sommeren. Wiener hadde nemlig allerede laget begrepet «kybernetikk,» paraplybegrepet som forskningsfeltet ellers organiserte seg under. McCarthy ønsket å skape sitt eget felt, ikke bidra til Norberts – som er hvordan man blir «far» i stedet for en pliktoppfyllende disippel. Dette er en kjent dynamikk for de av oss som er kjent med «name and claim» i akademisk posisjonering. For det andre ønsket McCarthy bevilgningspenger. Og han mente at uttrykket «kunstig intelligens» var fengende nok til å tiltrekke seg slik finansiering fra den amerikanske regjeringen, som på den tiden kastet betydelige ressurser inn i teknisk forskning til tjeneste for den kalde krigens dominans i etterkrigstiden.

I løpet av begrepets over 70 år lange historie har «kunstig intelligens» blitt brukt om et stort og heterogent utvalg av teknologier som har lite til felles. I dag, og gjennom hele historien, antyder det mer ambisjon og markedsføring enn en sammenhengende teknisk tilnærming. Bruken av begrepet har gått av og på moten, i takt med finansieringsprioriteringer og syklusen fra hype til skuffelse.

Så hvorfor er KI overalt nå? Eller, hvorfor dukket det opp i det siste tiåret som «det neste store»?

Svaret på det spørsmålet er å konfrontere den giftige overvåkingsbaserte forretningsmodellen – og de store teknologimonopolene som bygde sine imperier på den.

Clinton-administrasjonen satte spillereglene for det profittdrevne internettet i 1996.

Røttene til denne forretningsmodellen kan, slik Matthew Crains arbeid viser, spores tilbake til 1990-tallet. I en bølge av entusiasme for å kommersialisere data-nettverk, satte Clinton-administrasjonen spillereglene for det profittdrevne internettet i 1996. Da begikk de to store synder – synder vi fortsatt betaler for i dag.

For det første, selv om Clinton-administrasjonen ble advart av forkjempere og sine egne etater om truslene mot personvern og sivile rettigheter som en uhemmet datainnsamling gjennom usikre nettverk ville skape, satte de INGEN restriksjoner for kommersiell overvåking. Ingen. Private selskaper ble sluppet løs for å samle inn og skape så mye intim informasjon om oss og livene våre som de ønsket – langt mer enn det som var tillatt for regjeringer. (Regjeringer fant selvsagt på måter å få tilgang til denne gullgruven av kommersiell overvåking, slik Snowden-dokumentene avslørte). Og i USA mangler vi fortsatt en føderal personvernlov i 2024. For det andre omfavnet de helt eksplisitt reklame som forretningsmodellen for det kommersielle internettet – og oppfylte slik ønskene til reklamebransjen som allerede dominerte trykte medier og TV.

Denne kombinasjonen var – og er – giftig. For selvfølgelig er imperativet til reklame «kjenn din kunde,» for å identifisere de menneskene som mest sannsynlig vil bli overtalt til å kjøpe eller gjøre de tingene du vil at de skal gjøre. Og for å kjenne din kunde trenger du å samle inn data om dem. Dette ga insentivet til dagens masseovervåking, som mater myndigheter og privat sektor langt utenfor annonsering, der sterk kryptering er en av våre få meningsfulle vern mot denne dynamikken.

Selskapene som var tidlig ute med denne giftige modellen kunne sikre seg monopolmakt.

På dette giftige grunnlaget, etablerte teknologigigantene seg gjennom søk, sosiale medier, markedsplasser, annonsebørser og mye mer i løpet av 2000-tallet. De investerte i forskning og utvikling for å muliggjøre raskere og større datainnsamling og -prosessering, og å bygge og maksimere regnekraft og teknikker som kunne legge til rette for slik innsamling og “bruk» av data. Stordriftsfordeler, nettverkseffekter og de selvforsterkende dynamikkene til kommunikasjonsinfrastrukturer gjorde at selskapene som var tidlig ute med denne giftige modellen kunne sikre seg monopolmakt. Dette ble hjulpet fram av den amerikanske regjeringens bruk av myk makt, handelsavtaler og imperialistisk dominans for å sikre at EU og andre jurisdiksjoner tok i bruk det amerikanske paradigmet.

Denne fortellingen forklarer hvorfor majoriteten av verdens store teknologiselskaper er basert i USA, mens resten kommer fra Kina. USA fikk et forsprang gjennom militær infrastruktur, nyliberal politikk og investeringer, mens Kina bygde et selvforsynt marked, som kunne ha sine egne plattformer med sine egne normer for innhold som ytterligere begrenset utenlandsk konkurranse. Dette betyr også at fortellingen om at EU «kveler innovasjon med regulering», både er feil og mistenkelig knyttet til egeninteresser når den kommer fra teknologigiganter og deres hype-menn.

Her tar du kanskje en pause, reflekter, og spør … «men hva har denne møkkete fortellingen å gjøre med KI?» Vel, den har alt å gjøre med kunstig intelligens.

I 2012, akkurat mens overvåkingsplattformene befestet sin dominans, publiserte forskere en svært viktig artikkel om bildeklassifisering med kunstig intelligens som sparket i gang det nåværende KI-gullrushet. Artikkelen viste at en kombinasjon av kraftige datamaskiner og enorme mengder data kunne betydelig forbedre ytelsen til KI-teknikker – teknikker som i seg selv ble skapt på slutten av 1980-tallet. Med andre ord, det som var nytt i 2012 var ikke tilnærmingene til KI, men metodene og prosedyrene. Det som «endret alt» gjennom dette siste tiåret var de svimlende, og nylig tilgjengeliggjorte, regne- og dataressursene som kunne gi nytt liv til gamle tilnærminger.

Med andre ord, den nåværende KI-galskapen er et resultat av denne giftige overvåkingsbaserte forretningsmodellen. Det skyldes altså ikke nye vitenskapelige tilnærminger som – slik som trykkpressen – skapte et fundamentalt paradigmeskifte. Selv om nye rammeverk og arkitekturer har dukket opp gjennom dette tiåret, holder dette paradigmet fortsatt: det er data og regnekraften som bestemmer hvem som «vinner» og hvem som taper.

Dette paradigmet holder fortsatt: det er data og regnekraften som bestemmer hvem som «vinner» og hvem som taper.

Det vi i dag kaller kunstig intelligens vokste fram fra denne giftige modellen – og må først og fremst forstås som en måte å markedsføre avledete produkter fra masseovervåking og konsentrert plattform- og regnekraftmakt. For øyeblikket er det bare en liten håndfull selskaper – basert i USA og Kina – som har ressursene til å skape og distribuere storstilt kunstig intelligens fra start til slutt. Dette er sky- og plattformmonopolene som etablerte seg tidlig på bakgrunn av den overvåkingsbaserte forretningsmodellen. Alle andre leier infrastruktur, jakter på data, og strever med å finne plass i markedet. Dette selv om de ikke har gigantiske skyer der KI kan lisensieres til kunder eller store plattformer hvor KI kan innlemmes som en funksjon eller tjeneste som når milliarder av mennesker.

Dette er grunnen til at selv de mest vellykkede KI-oppstartsbedriftene – Open AI, Mistral, Inflection – til slutt ender opp som påheng på skroget til Big Tech-skipet – Microsoft-skipet, i deres tilfelle. Det er hvorfor Anthropic må forstås som et slags datterselskap av Google og Amazon.

I tillegg til de nåværende teknologiene som kalles «kunstig intelligens,» må vi også se på KI-fortellingen i seg selv. Fortellingen som gir liv til markedsføring og hype i dag – hvordan brukes dette markedsføringsbegrepet? Ved å ta i bruk kvasi-religiøse fortellinger om bevisste datamaskiner, kunstig generell intelligens, små alver som sitter i lommen vår og, som tjenere, oppfyller alle ønskene våre, har massive selskaper banet vei for en dominans uten sidestykke.

Ved å fremstille produktene og tjenestene sine som toppunktet i «menneskelig utvikling» og «vitenskapelige fremskritt», utvider disse selskapene og deres støttespillere sin rekkevidde og kontroll til nesten alle livets områder, i nesten alle regioner på jorden. De leverer infrastrukturen for regjeringer, selskaper, media og militæret. De selger avleggere av den giftige overvåkingsbaserte forretningsmodellen som om det var et resultat av vitenskapelig innovasjon.

De selger avleggere av den giftige overvåkingsbaserte forretningsmodellen som om det var et resultat av vitenskapelig innovasjon.

Og de jobber for å overbevise oss om at sannsynlighetssystemer som gjenkjenner statistiske mønstre i enorme mengder data er objektive, intelligente og sofistikerte verktøy som kan utføre nesten hvilken som helst funksjon vi kan forestille oss. I hvert fall bedre enn oss – vi vanlige dødelige. Dermed bør vi tre til side, og overlate vår virksomhet til dem.

Dette er utrolig farlig. Den hurtigspredende aksjeeier-kapitalistiske jakten på endeløs vekst og profitt som i bunn og grunn driver disse enorme selskapene avviker ofte fra veien mot en levelig fremtid.

Det er mange eksempler som illustrerer hvor farlig det er å overlate våre kjerneinfrastrukturer og sensitive styringsbeslutninger til disse få sentraliserte aktørene. Forskere som Abeba Birhane, Seda Gürses, Alex Hannah, Khadijah Abdurahman, Jathan Sadowski, Dan McQuillian, Amba Kak og Sarah Myers West, blant mange andre, har forklart slike eksempler i nøye detalj.

Her vil jeg ta en pause og reflektere over en spesielt urovekkende trend, som etter min mening avslører den farligste tendensen av dem alle. Disse massive overvåkings-KI-selskapene er nå på vei til å bli forsvarsleverandører, som leverer våpen og overvåkingsinfrastruktur til militære og regjeringer de velger å bevæpne og samarbeide med.

Vi har alle opplevd annonser i feeden vår for yogabukser (selv om du ikke driver med yoga) eller en scooter (selv om du nettopp har kjøpt en), eller hva som helst annet. Vi ser disse fordi overvåkingsselskapet som driver annonsemarkedet eller den sosiale plattformen har bestemt at dette er ting «folk som oss» antas å ville ha eller være tiltrukket av, basert på en adferdsmodell bygget ved hjelp av overvåkingsdata. Siden andre mennesker med datamønstre som ligner dine kjøpte en scooter, vil du, ifølge logikken, sannsynligvis kjøpe en scooter (eller i det minste klikke på en annonse for en). Derfor blir du vist en annonse. Vi vet hvor unøyaktig og tilfeldig slik målretting er. Når det er en annonse, er det ikke en krise hvis den er treffer litt feil.

Men når det er mer alvorlig, er det en annen historie.

Vi kan følge denne historien til USAs dronekrig etter «9/11», med konseptet «Signature Strike». Et «Signature Strike»-angrep bruker samme logikk som annonsemålretting, og bestemmer mål for døden, ikke basert på kunnskap om målet eller sikkerhet om deres skyld, men basert på datamønstre og overvåking av adferd som USA, i dette tilfellet, antar er assosiert med terroraktivitet. «Signature Strike» dreper folk basert på deres dataprofiler. Og KI, og de storskala overvåkingsplattformene som mater KI-systemer, forsterker denne evnen på utrolig farlige måter.

I stedet for å vise annonser, plasserer Lavender automatisk folk på en dødsliste.

Vi kjenner til et sjokkerende eksempel, takket være undersøkende journalistikk fra den israelske publikasjonen 972, som rapporterte at den israelske hæren, etter angrepene 7. oktober, bruker et KI-system kalt Lavender, sammen med en rekke andre, i Gaza. Lavender bruker logikken til de mønstergjenkjenningsdrevne «signaturangrepene», popularisert av USA, kombinert med masseovervåkingsinfrastrukturer og KI-målrettingsteknikker. I stedet for å vise annonser, plasserer Lavender automatisk folk på en dødsliste basert på likheten av overvåkingsdatamønstre med datamønstrene til mulige militante opprørere – en prosess vi, som eksperter, vet at er svært unøyaktig. Her har vi den samme KI-drevne logikken for annonsemålretting, men brukt for å drepe. Ifølge 972s rapportering vil det si at om en person er på Lavender-dødslisten, er det ikke bare denne som blir målet, men bygningen hen (og familien, naboer, kjæledyr, hvem som helst) bor i blir merket for bombing, særlig om natten når de sikkert er hjemme. Dette er noe som burde få alarmene til å ringe hos oss alle.

Mens et system som Lavender kan bli distribuert andre steder og av andre militære, er det enkelte forhold som begrenser hvem som kan praktisere det. For å iverksette et slikt system trenger du først eksakt overvåkingsdata på befolkningsnivå, av den typen som den israelske regjeringen samler inn og skaper om palestinere. Denne masseovervåkingen er en forutsetning for å skape “dataprofiler”, og sammenligne millioner av individers datamønstre mot slike profiler for å automatisk kunne bestemme om disse menneskene skal legges til på en dødsliste. Implementering av et slikt system krever til slutt kraftige infrastrukturer og tekniske evner – av den typen teknologisk kapable regjeringer som USA og Israel har tilgang til, akkurat som de massive overvåkingsselskapene. Få andre har slik tilgang. Derfor kan vi, basert på det vi vet om omfanget og bruken av Lavender KI-systemet, konkludere nesten helt sikkert med at systemet er avhengig av infrastruktur levert av store amerikanske skyselskaper for overvåking, databehandling, og muligens KI-modelljustering og -produksjon. Fordi innsamling, opprettelse, lagring og behandling av denne typen og mengden data nesten alltid krever Big Tech-skyinfrastrukturer, de er «slik man gjør det» nå til dags. Denne subtile, men viktige detaljen peker også på en dynamikk hvor innfallene til Big Tech-selskaper, sammen med de fra gitte amerikanske regjeringer, bestemmer hvem som kan og ikke kan få tilgang til slike våpen.

Denne typen og mengden data krever Big Tech-skyinfrastrukturer.

Dette er også grunnen til at det er viktig at vi gjenkjenner masseovervåking – ikke minst forretningsmodellen bygd på det – som roten til den storskalateknologien vi nå kaller «kunstig intelligens.»

Dette bringer oss til politisk økonomi – selvfølgelig. Fordi denne overgangen til forsvarsleveranser som de store teknologiselskapene har tatt, er en nøkkelkomponent i inntektsmodellen deres. Undersøkelser gjort av Tech Inquiry avslørte nylig at de fem største amerikanske militærkontraktene, til store teknologiselskaper mellom 2019 og 2022, har tak på 53 milliarder dollar. Og det er de vi kjenner til. På grunn av kombinasjonen av militær sikkerhetsgradering og forretningshemmeligheter – er åpenhet – for ikke å snakke om ansvarlighet – svært vanskelig å finne.

Bruken av sannsynlighetsberegning for å bestemme hvem som fortjener å dø – uansett hvor de brukes – er for meg, det mest skremmende eksempelet på de alvorlige farene ved det nåværende sentraliserte KI-industriøkosystemet, og på de svært materielle risikoene ved å tro på de bombastiske påstandene om intelligens og nøyaktighet som brukes til å markedsføre disse unøyaktige systemene. Og for å rettferdiggjøre blodbad under banneret «databasert sofistikasjon». Som FNs generalsekretær António Guterres sa: “maskiner som har makten og skjønnet til å ta menneskeliv, er politisk uakseptabelt, moralsk frastøtende, og bør forbys av internasjonal lov.”

Det er på grunn av dette at jeg slutter meg til det Tyske forumet av informatikere for fred og sosialt ansvar i kravet om “praksiser med målrettede drap med støttesystemer må forbys som krigsforbrytelser.”

Spesielt sett i lys av den svært reelle muligheten for en mer autoritær regjering i USA, hvor disse selskapene har sitt hjem – et sted hvor høyresiden i landet allerede har kringkastet planer om å bringe de to store teknologiregulatorene i USA – Federal Trade Commission og Federal Communications Commission – under direkte presidentkontroll i fremtiden. Hvor fire av de fem største sosiale medie-plattformene er lokalisert, sammen med skygiganter som nå kontrollerer 70 prosent av det globale skymarkedet. Og hvor et føderalt abortforbud er på høyresidens agenda, sammen med pågående kampanjer for bokforbud og sensur av LHBTQ- uttrykk som allerede påvirker lovgivningen på delstatsnivå.

Ingenting av dette gir grunn til å miste håpet! Det er fortsatt tid til å skape en vakker og levelig fremtid.

Men! Ingenting av dette gir grunn til å miste håpet! Jeg jobber hver dag, holder taler som dette istedenfor myk takk og ros, fordi jeg har håp. Jeg har håp – men jeg nekter å plante mitt håp i det grunne jordsmonnet av illusjoner og falsk komfort.

Det er fortsatt tid til å skape en vakker og levelig fremtid. Til å stille spørsmål ved disse fortellingene og kontrollen de gir disse monopolistiske aktørene. Vi kan bryte ned denne giftige overvåkingsbaserte forretningsmodellen, og dens KI-avleggere som presses inn i nervesystemet til våre liv og institusjoner. Det er tid, for eksempel, til å undersøke og forstå EUs avhengighet av amerikanske overvåkings-KI-giganter, og å bane fram en bedre vei fremover.

Fordi en slutt er begynnelsen på noe annet. Og å innse at noe ikke fungerer – enten det er et forhold, en jobb, eller et helt teknologisk paradigme – er punktet hvor en ny verden kan begynne å bli født. Med sløret revet bort og med den pene retorikken til de store teknologiselskapene avslørt som å være mer markedsføring enn virkelighet, kan vi begynne for alvor å revidere og gjenoppbygge vår teknologiske fremtid.

Det trenger ikke være slik! Datateknologi er kult, det kan være fantastisk, og det kan ta mange, mange, mange former.

Vi trenger ikke å konkurrere med gigantene på deres vilkår. Hvorfor la dem sette vilkårene til å begynne med? Vi kan lage våre egne vilkår! Fra sosialt støttet infrastruktur som fremmer mer lokaltstyrte applikasjoner og kommunikasjonsplattformer, til en redefinisjon – eller gjenerobring – av begrepet KI, bort fra overvåkingsavhengige «større-er-bedre-tilnærminger», mot mindre modeller bygget med formålsopprettede data som tjener reelle sosiale behov. Vi trenger åpne, ansvarlige og delte kjerneinfrastrukturer som, i stedet for å bli forlatt og utsugd, blir støttet og pleiet.

Vi trenger åpne, ansvarlige og delte kjerneinfrastrukturer.

Det er her Signal kan presentere en alternativ modell. Og jeg er så beæret og stolt over å kunne dedikere tiden og energien min til å pleie og ta vare på Signal. Verdens mest brukte virkelig private meldingsapp, og det eneste kule teknologiselskapet.

Signal er et kraftig eksempel som beviser at teknologi kan gjøres på en annen måte. Signals massive suksess demonstrerer at teknologi som prioriterer personvern, avviser overvåkings-KI-forretningsmodellen, og som står til ansvar overfor menneskene som bruker den, ikke bare er mulig – men kan blomstre og trives som en «nonprofit», støttet av menneskene som er avhengige av den, ikke av annonsekroner og militærkontrakter.

Så, som jeg sa, jeg er optimistisk. Min optimisme driver meg. Og jeg er spesielt inspirert av de unge menneskene her i dag, og dem jeg snakket med tidligere i ettermiddag. Deres energi og visjon skaper det lederskapet vi trenger for både å møte og håndtere de alvorlige utfordringene vi står overfor, samtidig som vi (gjenopp)bygger og gjenoppfinner teknologi som reflekterer verden vi ønsker, ikke verden overvåkingsannonseringsmonopolene forteller oss at vi sitter fast i.

Takk!


Foto (fra Web Summit i Rio, 2023) Piaras Ó Mídheach/Web Summit Rio via Wikimedia Commons

Meredith Whittaker