kunstig intelligens

Kunstig stemme i podkasten «Teknologitrender» – Og ingen har merket noe ennå

Hvor går grensen mellom autentisk og kunstig innhold, og hva betyr det for vår tillit til det vi eksponeres for?

Så langt denne sesongen av podkasten min, «Teknologitrender», har jeg benyttet meg av en syntetisk versjon av stemmen min – skapt ved hjelp av verktøyet Eleven Labs. Overraskende nok har jeg ennå ikke fått en eneste tilbakemelding fra lytterne som har stilt spørsmål ved om dette virkelig er min stemme eller ikke.

Det i seg selv er imponerende, tankevekkende, men også ganske skremmende. For om ikke engang mine egne faste lyttere kan avsløre at det ikke er meg som faktisk sitter der og snakker, hva sier det om hvor langt AI-teknologien har kommet, og hvor vanskelig det nå har blitt å skille ekte fra falskt?

Du finner Teknologitrender på din favoritt podkast-spiller, som blant annet AcastApple PodcasterOvercastTuneIn RadioSpotifyGoogle Podcasts, Podimo og PodMe.

 

Ekstrem utvikling i løpet av 2024

Bakgrunnen for dette prosjektet og eksperimentet er å belyse nettopp dette – hvor sofistikert kunstig intelligens har blitt i løpet av 2024. I dag er det langt fra opplagt om innholdet vi leser, ser eller hører på, er produsert av mennesker eller maskiner. Det er nettopp denne gråsonen som kan undergrave tilliten vi har til digitale medier, til hverandre og det samfunnet vi er en del av. Når vi ikke lenger kan stole på at det vi hører, leser eller ser, kommer fra den avsenderen vi tror det gjør, står også ytringsfriheten vår på spill. Vi beveger oss raskt mot et landskap der tillit er i ferd med å bli en knapp resurs. 

«Professional Voice Clone» fra Eleven Labs

For å skape min syntetiske stemme lastet jeg opp omtrent tre timer med innhold fra tidligere podkastepisoder til Eleven Labs. De brukte lydmaterialet til å utvikle en «Professional Voice Clone» – en falsk utgave av stemmen min som er så troverdig at ikke engang jeg selv klarer å skille mellom min ekte stemme og den syntetiske. Denne teknologien er på mange måter et dobbeltkantet sverd. På den ene siden gir den meg muligheten til å spare tid – nå trenger jeg bare å skrive manuset, legge det inn i Eleven Labs, laste ned lydfilen med min syntetiske stemme, og legge på intro- og outro-musikken. Vips, en ny episode er klar til å bli lastet opp til Acast.

Etisk forsvarlig?

Effektiviteten har økt betraktelig, og til nå har eksperimentet vist at den syntetiske stemmen min er mer enn god nok for lytterne. Det gir meg mye frihet i produksjonsprosessen. Jeg kan lage flere episoder på kortere tid, og fokusere mer på selve innholdet fremfor innspilling og redigering. Men jeg står også overfor et etisk dilemma: Er det riktig av meg å bruke en kunstig stemme uten å informere om det? 

Det åpenbare svaret på det er nei. Selvsagt ikke, og derfor vil jeg selvsagt også fremover merke hver episode fremover hvor jeg har benyttet meg av den syntetiske stemmen min. Det handler om åpenhet og transparens, og om å sikre at tilliten mellom meg og lytterne mine forblir intakt. Men dette er ikke bare noe jeg kan eller bør gjøre på eget initiativ. Det bør være et krav fra myndighetenes side – for å beskytte tilliten, ytringsfriheten og demokratiet.

Alt må merkes tydelig

Derfor vil jeg også runde av denne episoden med en klar og tydelig oppfordring til myndighetene; Det er på høy tid at dere kommer på banen og krever tydelig merking av syntetiske stemmer, både i podkaster, på sosiale medier og i andre digitale medier. Når det er så lett å forfalske stemmer og skape innhold som fremstår autentisk, risikerer vi å miste fullstendig tillit til hverandre. En tillit som allerede er tynnslitt som følge av alt det andre falske, digitale innholdet vi blir bombardert med daglig. La oss påse at denne teknologien brukes med ansvar og åpenhet, for å bevare den digitale offentligheten som et trygt og troverdig sted for oss alle.

Og i tilfelle du lurer, det er ikke min autentiske stemme som er brukt i denne episoden heller, men min syntetiske og falske utgave. 

Lykke til.

 

Bilde: Midjourney