Nyheter

Slik kan teknologien lure deg

Generativ KI-teknologi spres raskere og raskere og har potensielt svært skadelig effekt både for enkeltpersoner og samfunnet som helhet. Eksperter er bekymret for utviklingen og etterlyser politisk vilje til å ta grep.

Antallet såkalte deepfake-videoer i sirkulasjon dobles hver sjette måned, i henhold til den nederlandske organisasjonen Sensity. Spesielt utsatt er land der det holdes valg, avslører Sumsub – en bedrift som selger teknologi som kan avdekke deepfakes.

Trusselen deepfake-videoer representerer for demokratiet er godt dokumentert, men likevel sliter lovgivere med å komme problemet til livs. I fjor trådte riktignok EUs forordning som skal regulere KI i kraft – det er imidlertid ikke nok hevder flere eksperter.

Fakta:

«Deepfakes» er en avansert form for digital forfalskning. Begrepet brukes ofte for å beskrive video, bilder og lyd som er fremstilt ved hjelp av kunstig intelligens. Modellene som brukes refereres ofte til på engelsk som «GAN». Det står for «Generative Adversarial Networks» og beskriver modeller som bruker tilgjengelig informasjon, variabler, til å generere nytt innhold.

Federica Russo er filosof og leder for det EU-finansierte prosjektet Solaris, som skal analysere risikoen knyttet til såkalte GAN-deepfakes og foreslå måter å bekjempe problemet på. Russo sier at hovedansvaret for å bekjempe deepfakes så langt er blitt lagt på befolkningen, uten  en tilsvarende innsats fra politisk hold.

– Vi blir fortalt at slike falske videoer finnes og at vi må vite hvordan gjenkjenne og beskytte oss mot dem. Men vi bruker ikke lovverket godt nok for å bekjempe deepfakes, understreker Russo, som kritiserer politikken for å ikke ta moralsk ansvar i møtet med ny teknologi.

Federica-Russo_Foto-Harold-van-de-Kamp-aspect-ratio-9-16
Federica Russo_Foto Harold van de Kamp

Federica Russo er filosof og leder for det EU-finansierte prosjektet Solaris. Foto: Harold van de Kamp.

Må kanalisere utviklingen i ønsket retning

– Politikerne mangler fremtidsvisjoner. Vi er blendet av en idé om at den teknologiske utviklingen ikke lar seg stanse, men det er jo vi som bærer den fremover. Akkurat nå reagerer vi etter at problemet har manifestert seg, men da er det for sent.

Russo mener vi må tenke over hvordan teknologien kan brukes og understreker at det ikke handler om å stanse utviklingen, men å kanalisere den i den retningen vi ønsker.

Russo argumenterer for et lisenssystem, der mennesker som ønsker å få tilgang til enkelte typer teknologi, må bevise at de har den ballasten som skal til for å bruke den på en ansvarlig måte, på samme måte som for eksempel våpenlisenser.

– Du ville ikke lagt en kniv i hånden på en tiåring, men vi har ingen problemer med å gi hvem som helst fri tilgang til potensielt svært skadelig teknologi, understreker Russo.

Russo sier at Solaris-prosjektet så langt har vist at store medieorganisasjoner har gode sjanser for å oppdage deepfakes, men at slike videoer likevel påvirker samfunnsdebatten fordi de spres via sosiale medier, der brukerne ofte ikke har kritisk sans nok til å innse at en video kan være falsk. Én av strategiene det jobbes med i kampen mot deepfakes, er derfor utviklingen av teknologi som kan påvise om en video er falsk eller ikke.

Du ville ikke lagt en kniv i hånden på en tiåring, men vi har ingen problemer med å gi hvem som helst fri tilgang til potensielt svært skadelig teknologi

– Det finnes teknologi som kan identifisere deepfakes, men det finnes ikke ett system som kan brukes mot alle typer falskt innhold, forklarer Gabriella Pasi, professor i informatikk og viserektor i internasjonalisering ved Universitetet i Milano-Bicocca.

Ifølge Pasi er teknologiske systemer gode til å identifisere falske bilder og videoer, men ikke tekster – noe som er vanskelig også for mennesker.

Gabriella-Pasi_Foto-Universita-Milano-Bicocca_Privat-aspect-ratio-9-16
Gabriella Pasi_Foto Universita' Milano-Bicocca_Privat

Gabriella Pasi, professor i informatikk og viserektor i internasjonalisering ved Universitetet i Milano-Bicocca. Foto: Universitetet i Milano-Bicocca.

Ingen ny teknologi

Som Federica Russo i Solaris, mener Pasi at utviklingen og spredningen av KI-teknologi ikke har vært håndtert på en ansvarlig måte. Hun forklarer at KI-begrepet først ble tatt i bruk i 1956, mens de første chatbotene og automatiske oversettelsesmaskinene kom på 1960-tallet, da IBM også utviklet den første søkemotoren.

– Det er altså ingen ny teknologi vi snakker om. Det som har skjedd er at mengden digital informasjon har eksplodert, mens datateknologien er blitt mye kraftigere, understreker Pasi.

Ifølge Pasi var det de store teknologiselskapene som begynte å dele KI-teknologien, inkludert generativ KI, med allmennheten, skjønt uten å ta høyde for teknologiens begrensninger.

– Dette er en teknologi som er basert på statistikk, på sannsynlighet. Det finnes ikke noe element av intelligens i ordets rette forstand i dette, forklarer hun.

Hun forteller videre at når en chatbot generer en tekst, baserer den seg på en analyse av tusenvis av allerede eksisterende tekster, men uten å forstå semantikken i det den produserer. Mangelen på semantisk forståelse gjør at chatboter av og til kan generere innhold som er fullstendig falskt – et fenomen som er kjent som hallusinering.

Morder og overgrepsmann – ifølge ChatGPT

Pasi viser blant annet til hvordan nordmannen Arve Hjalmar Holmen i august i fjor anmeldte ChatGPT fordi chatboten hadde generert en tekst der den hevdet at Holmen hadde drept sine to sønner. En liknende sak oppstod i Tyskland, der en journalist som dekket kriminalsaker i nærmiljøet, ble beskrevet som overgriper av ChatGPT.  Disse og andre saker er inkludert i en «AI Incident Database» – en database som registrerer saker der KI-generert innhold har forårsaket eller vært nær ved å forårsake skade på mennesker og samfunn.

Som Federica Russo, etterlyser også Pasi reell politisk vilje til å ta kontroll med utviklingen.

– I EU har vi nå en KI-lovgivning, men i USA, der de største selskapene har base, har de ikke gjort noen ting på politisk nivå. De store teknologiselskapene samler inne en masse informasjon om oss, informasjon som kan brukes og manipuleres, for eksempel i valgkamper. Slike databaser burde vært administrert i henhold til regler som er bestemt på politisk nivå, sier Pasi.

Ifølge Eskil Grendahl Sivertsen ved Forsvarets Forskningsinstitutt (FFI) har falskt innhold påvirket holdningen vår til medier og mediebruk på en helt grunnleggende måte.

Eskil_Sivertsen.-foto-FFI-scaled-aspect-ratio-9-16
Eskil_Sivertsen. foto FFI

Eskil Grendahl Sivertsen ved Forsvarets Forskningsinstitutt. Foto: FFI.

– Jeg tror bare det faktum at generativ KI finnes og er allment utbredt har en negativ innvirkning på samfunnsdebatten, i den forstand at alt vi ser på en skjerm i teorien kan være falskt, og ekte innhold kan avvises som fake. Vi tilpasser oss og blir mer skeptisk til alt, og mister tillit til digitalt innhold. Bilde, lyd og video har ikke lenger dokumentarisk verdi på samme måte, understreker han.

Umulig å beskytte seg fullstendig

For Sivertsen er sterke, redaktørstyrte medier enda viktigere enn før, det samme er tydeligere regler for bruk av teknologien.

– Plattformene og KI-verktøyene må reguleres på en fornuftig måte og syntetisk innhold må merkes. Samtidig trenger vi også bedre verktøy for deteksjon og kanskje regler for politisk og kommersiell bruk, sier Sivertsen, som også understreker at det er viktig å øke dømmekraften i befolkningen.

Sivertsen tror likevel ikke at merking og reguleringer vil kunne beskytte oss helt mot de negative konsekvensene falskt innhold kan ha.

– Selv om KI-innhold merkes, viser forskning at det fortsatt kan ha betydelig effekt fordi vi trigges av emosjonelle responser. Det er mange eksempler på at KI-generert innhold skaper konflikt og spres når det treffer en emosjonell nerve – selv om det er merket som KI-generert, forklarer han.