Samfunn

Fra hvilken historie drømmer fremtiden?

tekst: Axel Haraldsen-Sverre

Spørsmålet «fra hvilken historie drømmer fremtiden» gjentas flere ganger i løpet av dokumentaren. Det lyder svevende. Hvem er det som drømmer? Hvilken fremtid er det de referer til? En mulig tolkning er at spørsmålet kan forstås som en problematisering av tekno-optimisters tiltro til kunstig intelligens. I boken Algorithms of Oppression: How Search Engines Reinforce Racism viser professor Safiya Umoja Noble ved universitetet i Sør-California hvordan maskinlæringssystemer i stor grad reproduserer eksisterende sosiale skjevheter i et samfunn, som for eksempel i utvelgelsen av jobbsøkerkandidater. Dette skyldes til dels brukernes egne fordommer, men også skjevhetene i det historiske materialet maskinene trenes på. Disse sistnevnte effektene utforskes i dokumentaren.

Framsteg, men for hvem? 

Sosiologen Sarah Brayne, fra Universitetet i Texas, uttalte nylig at: «Teknologi virker objektivt, ukontroversielt, kvantitativt.» (min utheving, Morgenbladet 22.10.21). Theo Anthonys dokumentar undersøker nettopp denne effekten, som Brayne referer til. Kravet om at politimenn skulle bære kameraer kom opprinnelig fra sivilsamfunnet og aktivister. Det skulle fungere som en forsikring mot korrupte betjenter og skape mer likeverdige vitnemål mellom parter i ujevne maktposisjoner. Braynes forskning finner derimot at overvåkningen i USA skaper en negativ sirkel, hvor minoriteter og folk i fattige områder oftere havner i politiets systemer, noe som produserer data som rettferdiggjør enda mer politinærvær og overvåkning: «Before these machines, the world becomes a resource for the extraction of data» – All Light, Everywhere (2021).

Som en parallell til øyets fysiske blindsone utforsker dokumentaren kamerateknologiens politiske blindsoner. En idé i dokumentaren er at ny teknologi ikke hjelper oss å se verden slik den faktisk er, men snarere har en medierende makt som skaper nye, alternative verdener. Hvordan påvirker autoritet og makt teknologiens blikk? Ofte ved å gjøre selve makten usynlig i prosessen, og som fortellerstemmen konstaterer: «Where seeing meets the ‘seeing’ of the world, we are blind. It is in this blind spot that power sets its agenda». Hvilken agenda kan det her være snakk om?

Norsk politi møter Silicon Valley

Her hjemme skulle det norske politiets bruk av en ny programvare, med det illevarslende navnet Omnia – latin for alt, muliggjøre utveksling av biometrisk informasjon med andre vestlige land. Motivasjonen bak investeringen var et ønske om et mer effektivt politiarbeid, gjennom troen på potensialet i kunstig intelligens. Derimot hadde dette programmet, som ved dets avslutning hadde kostet over 100 millioner kroner, ifølge daværende justisminister Monica Mæland ikke gitt noen resultater. Fagfolk hadde advart om programvarens manglende evne til å ivareta personvern, og systemene lot seg vanskelig integreres – men hvem kan vel klandre politiet for sin optimisme? Systemet var jo tross alt levert av et Silicon Valley-selskap oppkalt etter de magiske synesteinene i Ringenes Herre, med evne til å se inn i fremtiden.

Det er forlokkende å tro at ny kamerateknologi og kunstig intelligens kan gi fullverdige løsninger på problemer de introduseres for å løse. Selskapet Axon, som produserer det amerikanske politiets kroppskameraer, har i dag en markedsandel på 85 prosent. Dette er samme selskap som oppfant taseren, det kjente elektrosjokkvåpenet. Selskapet Palantir, som leverer Omnia, har en estimert markedsverdi på over 40 milliarder dollar. Grunnleggeren Peter Thiel er en ihuga, kristenkonservativ republikaner som støttet Donald Trumps presidentkampanje. Dette er altså en voksende storindustri med politisk makt, som også fungerer ved å reprodusere mange av de samme sosiale og politiske skjevhetene de hevder å løse. At ingen hos det norske politidirektoratet tenkte på å stille spørsmålstegn ved hva slags runddans de hadde kastet seg inn i, er urovekkende.

Teknologiens blikk

Dokumentaren viser hvordan kamerateknologien muliggjør produksjonen av ulike narrativ som retroaktivt rettferdiggjør maktbruk. De fleste politiavdelingene i USA tillater for eksempel at offiserene ser gjennom opptakene på nytt, før de kommer med svorne uttalelser i rettssaker der slike opptak blir vist. Kameraene lover også å visualisere bærerens blikk og bruker derfor ikke infrarød teknologi. Selskapets CEO gir et hypotetisk scenario for å illustrere årsaken til dette: Dersom en offiser trodde han eller hun så en ekte pistol, mens det infrarøde opptaket av samme situasjon derimot viste at den mistenkte bar en vannpistol, ville juryen fått et veldig annet bilde av hva offiseren visste om pistolen, og offiserens handlinger ville kunne skremme dem. I et slikt scenario ville infrarød teknologi rett og slett gjøre det vanskeligere å sympatisere med offiserens bedømmelse av situasjonen i ettertid.

En annen scene i dokumentaren viser et treningsseminar hvor politiet opplæres til å bruke Axons kroppskameraer. Her viser instruktøren en video av en mistenkt som faller over ende og anklager offiseren for å ha dyttet ham – selv om dette ikke var tilfellet. Gruppen diskuterer deretter hva de akkurat har sett. Noen av offiserene er tydelig opprørt, mens andre ser ned i mobilene sine. Selv om ikke alle følger med, forteller instruktøren for opplæringsseminaret at dette er et tydelig eksempel på hvordan kamerateknologien holder alle involverte parter ansvarlige. I scenen fra politiets seminarrom virker det likevel som at det er spesielt den mistenkte som skal stilles til ansvar.

I en annen, lengre sekvens, vises et opptak tatt av en person som går rundt på et kjøpesenter. Kameraet sitter antagelig festet på vedkommendes mage, men personen selv er ikke synlig. Det filmer langt nedenfor bærerens ansikt, og de som blir filmet virker høye og ruvende. Vidvinkellinsen gjør bevegelsene raskere, og Axon-logoen i hjørnet gir et autorativt inntrykk. Til sammen skaper dette en fortolkningsramme rundt opptakene – en forventning om at noe er i ferd med å skje. Kjøpesenteret blir en scene for en potensiell kriminell hendelse, menneskene blir personer av interesse. Mediet militariserer blikket: alltid beredt, alltid alert – men ingenting skjer.

Ansvarliggjorte mediebrukere

Scenen er et spenstig dokumentarisk grep som trekker oppmerksomheten mot de forventningene og fortolkningsrammene som man sitter med som seer, og som er innebygget i all programvare og teknologi. Dokumentaren er gjennomgående preget av slike eksperimentelle og utfordrende sveip. Når instruktøren for en fokusgruppe som brukes til å trene ny politi-AI programvare spør en av deltakerne: «Så du noe mønster i bildene», fungerer spørsmålet også som en kommentar til oss seere. Den skaper en bevisstgjøring om vårt fortolkningsrom, og hvilket ansvar det medbringer.

At de samme problemene som gjelder politiets nye teknologier, også gjelder dokumentaren i seg selv, er filmskaperne høyst bevisst. Gjennom å aktivt problematisere sjangerforventninger retter de et kritisk søkelys mot sin egen dokumentariske stil, og utfordrer samtidig ideen om tilskueren som en passiv mottaker av informasjon. Det er et friskt pust som står i sterk kontrast til mye av vårt øvrige mediekonsum. Heller enn å forvente at vi alltid skal mates med objektiv og ny informasjon, burde vi minnes om våre begrensninger og forutinntattheter. Hvis ikke, kan vi risikere å havne i flere dårlige drømmer produsert av Silicon Valley.

 Axel Haraldsen-Sverre: (*1995), studerer master i statsvitenskap, Universitetet i Oslo