ChatGPT

ChatGPT kan bli forbudt

Det italienske datatilsynet mener OpenAI bryter flere personvernregler ved å høste personinformasjon fra millioner av brukere. OpenAI svarer med å forby ChatGPT i Italia. Et forbud i EU kan bli resultatet. 

Da OpenAI lanserte ChatGPT 30. november 2022, ble vi vitne til et Jesus-øyeblikk, tilsvarende da Apple og Steve Jobs lanserte iPhone tilbake i 2007. Selv om mange av oss ikke helt forstod all teknologi bak den generative kunstige intelligensen, var det mange som raskt forstod at dette ville forandre alt. Og det veldig raskt.

Du finner Teknologitrender på din favoritt podkast-spiller, som blant annet AcastApple PodcasterOvercastTuneIn RadioSpotifyGoogle Podcasts, Podimo og PodMe.

//Artikkelen fortsetter etter annonsen//

Flere brudd på GDPR

OpenAI hadde skapt en menneskelignende samtale-robot, basert på informasjon som var høstet fra millioner av nettsider. Inkludert personinformasjon, noe som fikk det italienske datatilsynet til å reagere. 31. mars stengte OpenAI ChatGPT i Italia fordi OpenAI hadde brukt personopplysninger til millioner av italienere som en del av treningsdataene, noe ingen italienere hadde samtykket til. Derfor kan hele EU følge etter, fordi OpenAI har brutt en grunnleggende del av GDPR. 

Italias svar på Datatilsynet mener ChatGPT har fire utfordringer relatert til personvernforordningen, eller GDPR: 

  1. OpenAI har ingen kontroll på hvorvidt personer under 13 år bruker ChatGPT eller ikke. 
  2. ChatGPT kan spre falske nyheter
  3. Ingen har gitt OpenAI et aktivt samtykke om at de kan bruke personinformasjon om dem, og 
  4. Det finnes ikke et juridisk grunnlag for å samle inn personopplysninger i det omfanget OpenAI har brukt for å trene slike store språkmodeller som ChatGPT. 

Det italienske tilsynsorganet har ikke kun tatt for seg OpenAI, men også chatboten Replika, en kunstig intelligens-tjeneste som skal bli din digitale avatar-venn. Nå ser det ut til at dette er  starten på en rekke saker som vil undersøke og ta stilling til hvordan OpenAI og tilsvarende selskaper skal måtte gå frem for å få tilgang til all treningsdata som kreves. 

Personvernutfordringer for alle store språkmodeller

Personvernforordningen er satt opp slik at selskaper med base i Europa kan velge ett land som skal håndtere alle klager, som er årsaken til at Google, Twitter og Meta blir håndtert i Irland. I OpenAI sitt tilfelle har ikke selskapet et eget selskap i Europa, og derfor kan alle land som vil åpne opp klager mot selskapet. 

Garante, som er det korte navnet på det italienske tilsynsorganet, sin sak mot OpenAI er ikke bare starten på å avklare hvordan dagens og morgendagens store språkmodeller skal kunne basere sin kunnskap på, rent juridisk, men forhåpentligvis også etisk og moralsk, og da ikke bare for store språkmodeller og generativ kunstig intelligens, men for all kunstig intelligens. Derfor håper jeg dette kan være nettopp starten på å få på plass reguleringer som har til hensikt å sikre en trygg, ansvarlig og bærekraftig utvikling. Pandoras boks er uansett åpnet og ingen av teknologiene vil forsvinne, men vokse i omfang og bruk.