kunstig intelligens

Kan du bruke ChatGPT med god samvittighet?

The New York Times har gått til søksmål mot OpenAI og Microsoft for hvordan de utnytter deres opphavsrettsbeskyttede innhold. Dommen kan få store konsekvenser for oss, selv om vi må forholde oss til EUs AI Act, når den trer i kraft i 2025.

Kunstig intelligens må reguleres

For ett år siden skrev jeg om behovet for å få på plass skikkelige reguleringer av kunstig intelligens, for å påse en utvikling og adopsjon som både var trygg, ansvarlig og bærekraftig. 

Poenget mitt da, som det er ett år senere, var at – og jeg siterer meg selv; lar vi utviklerne få lov til å utvikle kunstig intelligens på sine egne premisser, kan jobben med å regulere i ettertid fort komme for sent. Når teknologiutviklingen skjer i et eksponentielt omfang, er det ikke lenger nok å planlegge for det beste. Vi må også være forberedt på det verste. 

Ett år senere har våre folkevalgte politikere ikke gjort noe som helst for å forberede oss på det verste. De har ikke skapt noe ny politikk for å regulere verken utviklingen eller adopteringen. De har lagt planer og strategier, men ikke satt ut ett eneste tiltak for å sikre en trygg, ansvarlig og bærekraftig utvikling. Det er påfallende, men ikke overraskende. 

Du finner Teknologitrender på din favoritt podkast-spiller, som blant annet AcastApple PodcasterOvercastTuneIn RadioSpotifyGoogle Podcasts, Podimo og PodMe.

//Artikkelen fortsetter etter annonsen//

 

Oppsummering av hele artikkelen, ifølge ChatGPT:

For ett år siden fremhevet forfatteren nødvendigheten av å regulere kunstig intelligens for å sikre en trygg og ansvarlig utvikling. Siden da har lite blitt gjort av politikere for å adressere disse bekymringene. Forfatteren reflekterer over behovet for å være tydeligere om økonomisk ansvar og opphavsrett i konteksten av AI, spesielt i lys av OpenAIs bruk av opphavsrettsbeskyttet innhold for å trene sine modeller og The New York Times sitt søksmål mot OpenAI og Microsoft for økonomisk kompensasjon. Forfatteren diskuterer også EUs kommende AI Act og dens potensielle påvirkning på bruk av AI, samtidig som det stilles spørsmål ved det etiske og juridiske ansvaret ved bruk av AI-tjenester i lys av mangel på politisk handling og regulering. Til slutt reflekterer forfatteren over sitt eget ansvar og praksis i bruk av AI-verktøy, og viktigheten av å merke innhold skapt med slike verktøy.

 

The New York Times har saksøkt OpenAI og Microsoft

Av mine ni forslag på hva som bør reguleres nevnte jeg blant annet det økonomiske ansvaret. For der hvor noen tjener penger, vil andre kunne tape. Her burde jeg vært mye tydeligere om copyright, opphavsrett og åndsverksloven. For der hvor OpenAI laster ned opphavsretts-basert innhold for å trene sine store språkmodeller, for deretter tjene penger på at du og jeg kan spørre om alt mulig, taper potensielt de som har skrevet de samme ordene som språkmodellene trener seg på.

Det er også bakgrunnen for at The New York Times har saksøkt OpenAI og Microsoft. 

Avisen vil ha en økonomisk kompensasjon for at det innholdet som deres journalister skriver, og som koster penger, skal OpenAI betale for å både trene på, men ikke minst la oss som kunder få lov til å bruke. Men et søksmål i USA vil ikke ha så mye å si for oss i Europa, eller i Norge som sådan, fordi våre respektive lover hva gjelder opphavsrett og åndsverk, skiller seg veldig fra hverandre. 

«Fair Use Act» vs sitatretten

Mens amerikanerne har sin “fair use act” har vi ikke et tilsvarende lovverk. Den nærmeste loven, som blir relevant relatert til store språkmodeller og generativ kunstig intelligens, er sitatretten.

«Fair Use»-loven tillater, på samme måte som sitatretten, begrenset bruk av materiale som er beskyttet av opphavsretten, uten tillatelse fra den som har rettighetene til innholdet under visse omstendigheter. Disse omstendighetene inkluderer kritikk, kommentar, nyhetsrapportering, undervisning, stipend og forskning. 

«Fair use» vurderes basert på fire faktorer:

//Artikkelen fortsetter etter annonsen//

Norge og Europa har ingen «fair use»

Sitatretten tillater bruk av innhold som er beskyttet av åndsverksloven, men denne retten er mye mer begrenset enn “fair use”. Sitatretten krever at bruken er i tråd med god skikk og i den grad det er berettiget for formålet. Mengden av det siterte materialet satt opp i mot det totale arbeidet og formålet med bruken spiller også en rolle. 

Sitatretten er mye strengere enn “fair use”-loven i USA, et søksmål fra for eksempel Schibsted, ville med stor sannsynlighet endt med at OpenAI ville tapt. I USA, og i saken mellom The New York Times og OpenAI/Microsoft, vil partene sannsynligvis fokusere på forskjellige prinsipper fra “fair use”-loven. 

Dette vil søksmålet sannsynligvis handle om

Mens OpenAI og Microsoft sannsynligvis vil argumentere for at deres bruk av innholdet til The New York Times er av transformativ art, og at deres språkmodeller skaper noe vesentlig nytt og annerledes fra det opprinnelige materialet, og at det derfor ikke kan vurderes som kopiering. OpenAI vil antakelig også fokusere på at deres bruk av store språkmodeller, spesielt den delen som er brukt i forsknings- og utviklingsøyemed, ikke er kommersielt. I tillegg vil nok også OpenAI hevde at deres bruk ikke undergraver eller erstatter det originale markedet for innholdet som opprinnelig er beskyttet av åndsverksloven, men at deres løsning heller komplementerer og utvider innholdet. 

//Artikkelen fortsetter etter annonsen//

 

The New York Times på sin side kan argumentere for at bruken av deres innhold ChatGPT er en direkte trussel som undergraver deres marked ved å erstatte behovet for det originale materialet, noe som kan skade deres potensielle inntekter. De kan også velge å fokusere på det enorme omfanget av det opphavsrettsbeskyttede materialet som er brukt av den kunstige intelligensen til OpenAI og Microsoft. Og siden både OpenAI og Microsoft tjener milliarder av dollar på deres bruk av GPT-teknologien, vil nok også The New York Times argumentere for at bruken ikke faller inn under de tradisjonelt aksepterte «fair use»-kategoriene som forskning, kritikk, nyhetsrapportering eller undervisning. 

Utfallet av rettssaken mellom The New York Times og OpenAI/Microsoft kan få enorme konsekvenser, men da mest av alt i USA. Her til lands, og i større geografisk forstand, vil det ikke ha noe å si rent juridisk. Men det kan selvsagt få konsekvenser hva gjelder kostnaden for å bruke for eksempel ChatGPT og kvaliteten på tjenesten i seg selv, om for eksempel OpenAI blir pålagt å betale milliarder av dollar til de mediene de henter innhold fra for å trene opp språkmodellene sine. 

Norge må vente ett år til

Her hjemme må vi nok vente på EUs AI Act, som nylig ble vedtatt, men som ikke vil bli iverksatt før i 2025. I den nye loven heter det seg at “skapere av generativ AI vil måtte offentliggjøre bruk av opphavsrettsbeskyttet materiale som brukes til å trene grunnleggende AI-modeller”. Lovgivningen vil ta en risikobasert tilnærming til regulering av kunstig intelligens, hvor verktøy vil bli klassifisert basert på deres oppfattede risikonivå for kunstig intelligens. Dette omfatter en rekke tiltak, inkludert krav om åpenhet om hvordan AI-verktøy fungerer og er trent, spesielt i høyrisiko-anvendelser som biometrisk overvåking eller beslutninger som påvirker helse eller juridiske spørsmål​. 

Så, hva skal vi gjøre? VG har på sin side valgt å fjerne tilgangen til innholdet deres for OpenAI. Samtidig benytter VG seg av ChatGPT til å lage korte oppsummeringer av sine artikler, samt at de også bruker ChatGPT til å skrive «VG Morgenoppdatering». VG har også utviklet et eget AI-verktøy for å transkribere lyd og har nylig begynt å ta i bruk Antropic til å bidra med journalistikken. 

På den ene siden kunne jeg valgt å følge mitt etiske og moralske kompass, og fjernet alt av generative AI-tjenester fra min arbeidshverdag, til EUs AI Act trådte i kraft, av hensyn til de som har skapt opphavsrettsbeskyttet innhold.

På den andre siden gjør jeg ikke noe galt så lenge jeg ikke bryter sitatretten og utover det følger de gjeldende lover og reguleringer. Og hvorfor skal jeg heve meg over det etiske og moralske kompasset til våre politikere?

God samvittighet?

Så lenge verken justisministeren, næringsministeren, finansministeren eller statsministeren advarer på et juridisk eller etisk nivå mot å bruke AI-tjenester som ChatGPT med flere, kan jeg vel bruke de samme verktøyene med god samvittighet? 

Eller? 

Jeg burde vel kunne stole på at våre folkevalgte politikere vet hva de driver med, og at de har valgt å ikke lage ny politikk knyttet til kunstig intelligens fordi det ikke er nødvendig? 

Eller?

Når justisministeren juger om sitt eget bruk av kinesiske apper fra talerstolen på Stortinget og kjøper seg deretter enda en telefon for å fortsatt få lov til å bygge sin egen “fame” på TikTok, til tross for mange advarsler om alt fra nasjonal sikkerhet til den mentale helsekrisen som appen fører med seg, så bør jeg vel stole på at justisministeren vet best.

Eller? 

At verken Forbrukertilsynet eller Digitaliseringsministeren mener det er viktig å merke nytt innhold som er skapt av generative AI-tjenester, som har benyttet seg av eksisterende – og gjerne opphavsrettsbeskyttet innhold – skal vel heller ikke jeg, eller du, ha dårlig samvittighet for at vi benytter oss av slike tjenester, uten å nevne det eller merke innholdet på noen som helst måte. 

Eller? 

Og siden det ikke finnes noen reelle alternativer til de amerikanske aktørene, verken norske eller europeiske, så bør jeg vel ikke ha dårlig samvittighet for at jeg potensielt er med på å undergrave opphavsrettsbeskyttet innhold, så lenge jeg betaler for tjenesten, og får god hjelp i hverdagen min til å bli enda litt mer produktiv, effektiv og konkurransedyktig. 

Eller?

Jeg har vært svært tydelig i over ett år nå hva jeg mener om reguleringer og viktigheten av å både ha en digitaliseringsminister – som vi endelig fikk på tampen av 2023 – og en aktiv politikk som tar ansvar for å bevare demokratiske verdier. Kunstig intelligens kan i verste fall bidra til det motsatte, noe mediene – ikke overraskende – elsker å skrive om. Frykt selger bedre enn fryd, hat selger bedre enn kjærlighet, krig selger bedre enn fred, osv. 

//Artikkelen fortsetter etter annonsen//

 

Vi bør frykte AI og falske nyheter i 2024

Som for eksempel VG så fint skriver 15. januar: Dette bør vi frykte mest i 2024: Kunstig intelligens og falske nyheter. Jeg er ikke uenig her med VG, og frykten blir ikke redusert når vi har politikere som til de grader ikke tar dette på alvor, som kun planlegger for det beste og ikke forbereder seg på det verste. Politikere som gjerne lager strategier, men ikke eksekverer. Som gjerne snakker, men ikke handler. Nå har det gått ett år med mange og tydelige advarsler, og så langt har vi kun fått tilbake at dette kan ta tid”. Det er ikke godt nok. 

Selv vil jeg fortsette å merke mitt innhold, når jeg har benyttet meg av generative AI-tjenester, om det er til å lage musikk, bilder, videoer eller tekst. I tilfellet denne episoden har jeg benyttet meg av både ChatGPT og WriteSonic til å hjelpe meg med research og tekst, i tillegg til at jeg har benyttet meg av Dall E3 og Midjourney til å lage illustrasjonsbildet til episoden og artikkelen. Artikkelen er i sin helhet skrevet i Google Docs, som bruker kunstig intelligens til å rette opp i grammatiske feil. Og Adobe Podcast Enhance er benyttet til å forbedre lydkvaliteten av opptaket, for å gi en så god lytteropplevelse som mulig.