Hvordan jeg – ChatGPT – bidrar til hverdagen til Hans-Petters arbeidshverdag
Klisjeen om at «teknologiutviklingen går i et eksponentielt tempo» lever i beste velgående. Og når du tror at det kanskje har roa seg litt ned, går det bare enda raskere. Og for å henge med i kunstig intelligens-utviklingen, bør du skaffe deg et godt overblikk før det er for sent.
Simulering av vår intelligens
Det sies at “kjært barn har mange navn”. Det bør også nevnes at “kunstig intelligens har mange definisjoner”. Jeg har i mange år sverget til definisjonen som står på Wikipedia, som sier at kunstig intelligens er en “teknikk man bruker for å gi datamaskiner og dataprogrammer en mest mulig intelligent respons”. I Norges nasjonale strategi for kunstig intelligens har man derimot landet på en helt annen definisjon. Der heter det at “Kunstig intelligente systemer utfører handlinger, fysisk eller digitalt, basert på tolkning og behandling av strukturerte eller ustrukturerte data, i den hensikt å oppnå et gitt mål”. Jeg liker den svært dårlig, da definisjonen også kan omhandle mennesker. Vi kan også utføre handlinger, fysisk eller digitalt, basert på tolkning og behandling av strukturerte eller ustrukturerte data, i den hensikt å oppnå et gitt mål.
Jeg fant en kort og særs god definisjon på kunstig intelligens hos TechTarget, som oversatt til norsk blir slik: “Kunstig intelligens er simulering av menneskelig intelligens, prosessert av datamaskiner”.
Kunstig intelligens er ikke en teknologi
Kunstig intelligens er ingen teknologi i seg selv, men en slags betegnelse, en sekkebetegnelse på en rekke andre teknologier. Og mange av disse teknologiene har vi blitt kjent med i løpet av de siste årene. Den mest omtalte teknikken er kanskje algoritmene, som vi har blitt godt kjent med gjennom sosiale medier. Mens vi tidligere ble servert innholdet gjennom de sosiale plattformene kronologisk, er det algoritmene i dag som sorterer og serverer. Algoritmer som blir stadig mer avanserte og intelligente. Algoritmer som er en del av en annen teknologi innen kunstig intelligens, nemlig maskinlæring.
De mest populære teknologiene innen kunstig intelligens
Målet mitt med denne «long form»-saken her, er at du skal lære deg litt mer om de mest kjente teknologiene innen kunstig intelligens. At du skal bli litt mer nysgjerrig på kunstig intelligens. Du kommer ikke til å bli kjent med alt som har med kunstig intelligens å gjøre, men bedre kjent med de mest kjente teknologiene og tilnærmingen. I tillegg håper jeg du vil sitte igjen med en større forståelse av hvor kompleks utviklingen av kunstig intelligens er, og hvorfor det nettopp er så viktig at utviklingen også reguleres, slik at vi som samfunn kan sikre at utviklingen skjer på en trygg, ansvarlig og bærekraftig måte.
For der hvor det er muligheter til å misbruke noe, det være seg kunstig intelligens i denne sammenhengen, så vil også misbruk skje. Det ligger i vår iboende destruktive kraft som art, hvor blant annet etikk og moral fungerer som bremseklosser. Hadde vi bare delt det samme moralske kompasset, noe vi ikke gjør.
Nok om det.
Algoritmer og maskinlæring
Vi begynner med algoritmen som, enkelt forklart, er en slags oppskrift på hvordan et problem skal løses, eller hvordan en oppgave skal utføres. Som for eksempel å sortere din og min feed på Instagram, basert på en rekke datapunkter som er unike for deg og meg. Dagens algoritmer er også en avgjørende komponent i det vi kjenner som maskinlæring. Og i dagens samfunn er det stadig mer av våre daglige gjøremål og beslutninger som vi overlater, frivillig og ufrivillig til algoritmer. Sånn sett er det for eksempel rart at vi ikke har krevd i større grad å få se hvordan algoritmene sorterer, for å bedre vite om det vi blir eksponert for er basert på skjevheter, diskriminering, av kommersielle interesser, osv.
Maskinlæring handler om, som navnet også tilsier, om å få en maskin – i praksis et dataprogram – til å lære. Og ved å nettopp lære, gjøre seg selv flinkere basert på den erfaringen datamaskinen skaffer seg. For å gjøre det enda litt mer komplisert, så kan maskinlæring deles inn i flere kategorier. Du har den maskinlæringen hvor maskinene lærer fra data som er merket på en måte slik at maskinen forstår hva som er rett og galt. Ved å vise frem millioner av kattebilder, som alle er merket på forhånd, er ideen at maskinen over tid vil klare å skille mellom hva som er katt og hva som ikke er det.
I dag er det blitt en egen industri hvor tusenvis av mennesker jobber med å merke “ting og tang” alt ettersom hvilket område det er maskinlæringen skal bli tatt i bruk. Alt fra føflekker innenfor helsesektoren, for å avsløre tidlig fase av føflekkreft, til forskjellige objekter som selvkjørende biler skal klassifisere og basere sine algoritmiske valg på.
Den andre formen for maskinlæring, er basert på umerkede data hvor maskinene benytter seg av diverse statistiske teknikker for å identifisere mønstre, mens den tredje måten minner litt om gamification, hvor maskinene lærer seg å ved å få straff eller belønning basert på de valgene de tar. Denne tilnærmingen blir gjerne omtalt som forsterkende læring. Tilbakemeldingene blir brukt til å lære og erfare, og således forbedre egen ytelse. I mange tilfeller, som for eksempel på Facebook, er det snakk om en kombinasjon av alle tre former.
//Artikkelen fortsetter etter annonsen//
Dyp læring og nevrale nettverk
Du blir presentert for en feed, men du kan også justere feeden ved å gi direkte tilbakemeldinger på de enkelte postene gjennom forskjellige reaksjoner. Én ting er å gi tommel opp, eller et sinnafjes. Men du kan også lære maskinen ved å slumre en personlig profil i 30 dager eller blokkere en gitt annonse, fordi du synes du har sett den for mange ganger, eller fordi du opplever annonsen å være irrelevant eller irriterende.
I løpet av de siste årene har vi også blitt kjent med en annen form for kunstig intelligens, som blant annet har gjort det mulig for Facebook å automatisk tagge oss i bilder, for Google å lage automatiske fotoalbumer som inneholder kun familie og venner vi har valgt på forhånd, eller ved at vi gir fra oss tilstrekkelig med biometriske data om vårt eget ansikt, slik at mobilene våre kan låse seg opp selv, ved å bare kikke på den. Den kunstige intelligensen er også på en måte basert på maskinlæring, men benytter seg i tillegg av nevrale nettverk, og blir omtalt som dyp læring.
Og mens det er forholdsvis enkelt å si nevrale nettverk, er det en helt annen sak å forstå hva det faktisk er. Et raskt Google-søk vil fortelle deg at et nevralt nettverk er en type algoritme, altså en oppskrift, som er inspirert av måten hjernen vår fungerer på. Hold deg fast, for dette blir fort veldig komplisert.
I kunstig intelligens sammenheng snakker vi om nevrale nettverk som blir på mange måter motsatsen til nervecellene våre i hjernen. Celler som er satt til å sende og motta signaler. På dataspråket I/O – Input og Output. Shit in, shit out.
Når det kommer til dyp læring og bruk av nevrale nettverk, forsøker man å “mate” den kunstige intelligensen med så mange inputs som mulig, for at output-en skal bli så korrekt som overhodet mulig. De respektive inputene vektes og justeres, før dem går gjennom en slags aktiveringsfunksjon som avgjør om nevronet skal avgi et signal eller ikke. Desto flere inputs, desto større sannsynlighet for et fornuftig output.
Til tross for at jeg har jobbet med teknologi i praksis hele livet, er jeg ikke i nærheten av å forstå hvordan slike nevrale nettverk faktisk fungerer. Og jeg ble ikke det spor smartere av å spørre ChatGPT om å forklare meg formelen for et nevralt nettverk.
En formel langt over mitt hode
En enkel formel for et nevralt nettverk med et enkelt skjult lag kan uttrykkes som:
f(x) = w2 * g(w1 * x + b1) + b2 hvor x er input-vektoren, w1 og w2 er vektorer av justerbare vekter, b1 og b2 er bias-vektorer, g er en ikke-lineær aktiviseringsfunksjon, og f er output-funksjonen. Her utføres først en lineær transformasjon av input-vektoren ved å multiplisere den med en vektormatrise w1 og legge til bias-vektoren b1. Deretter anvendes en ikke-lineær aktiviseringsfunksjon g på resultatet av denne transformasjonen.
Den resulterende skjulte vektoren mates så inn i en ny lineær transformasjon ved å multiplisere med en annen vektormatrise w2 og legge til en ny bias-vektor b2. Output-verdien er deretter gitt ved f, som kan være en skalær verdi eller en vektor av verdier avhengig av oppgaven. Formelen kan generaliseres til å inkludere flere skjulte lag, og aktiviseringsfunksjonen kan variere avhengig av arkitekturen som brukes. I tillegg kan ulike optimaliseringsmetoder, som for eksempel stokastisk gradientnedstigning, brukes til å justere vektene og bias-verdiene i nettverket under trening.
Innlagt bias
Uavhengig av hvor komplekst (og gresk) dette oppfattes, er det viktig å legge merke til den innlagte biasen, skjevheten eller partiskheten. Men dette er ikke bias på klassisk vis, men en slags innstilling for det enkelte nevronet. Dette kommer godt med når den kunstige intelligensen skal trenes opp, for eksempel til å kjenne igjen ansikter. Den kunstige intelligensen kan ikke se på et bilde og forstå hvem det er som er på bildet.
Vi må lære KI-en hva det er som skiller én person fra en annen, og det kan vi bruke et nevralt nettverk til, hvor hvert nevron – hver nervecelle – er som en liten robot som sammen med alle andre nevroner jobber for å lære hva det er som skiller ansikter fra hverandre. Hver enkelt nevron, når “den ser på et bilde av et ansikt”, vil utføre en enkel kalkulasjon for å bestemme hva forskjellen er på det ene spesifikke ansiktet, sammenlignet med alle andre. Og formelen vil hjelpe de forskjellige nervecellene til å jobbe sammen for å lære hva det er som gjør den enkelte personen unik.
Digitalt heroin
Når du for eksempel ser på et bilde eller en video i et sosialt nettverk, la oss ta TikTok som et eksempel, er det flere grener innenfor kunstig intelligens som er i sving. På den ene siden har du algoritmene som sorterer feeden din basert på hva det er du mest sannsynlig vil like.
Maskinlæringen vil både få direkte feedback fra deg, i form av tiden du bruker på en post, hvorvidt du etterlater en form for belønning, det være seg et hjerte eller en kommentar, men også dyp læring og nevrale nettverk blir benyttet, blant annet for å gjøre algoritmene i maskinlæringen enda bedre ved å forstå sammenhengen mellom alle objektene som den kjenner igjen på bildet eller i videoen, ditt ansiktsuttrykk, din reaksjon i form av din stemme på det du blir eksponert for, og den tiden og de direkte tilbakemeldingene du gir TikTok.
Alt blir således brukt til å predikere hva det er TikTok bør servere deg i sin neste post, som kan øke sannsynligheten for at du trigges i form av ditt eget belønningssystem, ditt kjærkomne dopamin, slik at du fortsetter å se på post, etter post, etter post.
I timesvis, hver dag, som et slags narkotika.
Det er en grunn til at TikTok blir omtalt som et digitalt heroin, for verden har aldri sett tilsvarende avhengighetsskapende bruk av kunstig intelligens før. I tillegg til all data om oss som vi risikerer å dele med det kinesiske kommunistregime. Men det er en annen diskusjon, selv om det også hører hjemme i hele regulerings-diskusjonen av kunstig intelligens.
Tilbake igjen til bias, eller partiskhet og skjevhet, som henger tett sammen med diskriminering, rasisme, med mer. For det er ingen tvil om at med utviklingen av kunstig intelligens, som i stor grad er utviklet av hvite menn, så er det ikke til å komme unna at hvite menn blir i mindre grad diskriminert enn for eksempel svarte kvinner, uten at jeg har grunnlag for å hevde at det er gjort med viten og vilje.
//Artikkelen fortsetter etter annonsen//
Nå skal jeg heller ikke bli politisk her, men skjevheter, partiskhet, diskriminering og generell bias er en stor utfordring som vi må ta på alvor, og også derfor bør gode reguleringer komme på plass, slik at de respektive utviklerne kan bli holdt ansvarlige også. Skal du trene opp en kunstig intelligens til å lære seg å kjenne igjen ansikter, må du gi KI-en mange ansikter å trene seg på, slik at den kan lære seg hva det er som skiller oss mennesker fra hverandre.
Og det er formelen for et nevralt nettverk som hjelper den kunstige intelligensen å tenke seg frem til å forstå hva det er som gjør en person unik. Desto flere nevroner, desto større sannsynlighet for at KI-en klarer å skille mennesker fra hverandre. Og desto flere nevroner, desto mer maskinkraft og energiforbruk.
Det er dog ikke bare antallet nevroner som er avgjørende for hvor god KI-en blir på å lære seg forskjellene fra person til person. Du er også avhengig av at kvaliteten og mengden av dataene KI-en kan trene seg på er god. Desto mer variert og omfattende treningsdataene er, desto bedre vil det nevrale nettverket bli til å skille mellom de forskjellige ansiktene.
Tilsvarende teknikk blir også brukt til andre formål enn ansiktsbilder. Det kan handle om å bruke kunstig intelligens til å skrive en god tekst, lage et flott bilde eller komponere fantastisk musikk. Eller hjelpe biler å kjøre for seg selv.
Hva som er god kvalitet og hva som er akseptabel skjevhet og partiskhet er også avhengig av bakgrunn og kultur. Derfor er det også viktig å vite hvem det er som har utviklet den kunstige intelligensen og hvilken partiskhet som er programmert inn i tjenesten, i tillegg til kvaliteten på treningsdataene. Her er etikk og moral to viktige stikkord.
Sjakk og Go
Det er også andre ting kunstig intelligens kan trenes opp til å lære seg, enn ansiktene våre, stemmene våre, osv. I løpet av de siste årene har vi hørt om kunstig intelligens som ble best i både sjakk og i det kinesiske spillet Go. Og i sistnevnte tilfelle, ble den kunstige intelligensen også trent opp på forskjellige måter, noe som blant annet utgjorde en signifikant forskjell hvor mye trening den fikk av mennesker, og hvor lang tid det tok før den kunstige intelligensen ble bedre enn oss mennesker.
I 2016 ble den kunstige intelligensen, AlphaGo fra Google DeepMind Technologies, den første i sitt slag som klarte å slå en profesjonell Go-spiller i en serie på fem kamper. I dette tilfellet benyttet AlphaGo seg av en kombinasjon av avanserte maskinlæringsteknikker, inkludert dype nevrale nettverk og forsterkende læring, for å lære seg spillet Go og forbedre sin evne til å spille det.
Forskerne i DeepMind hadde først instruert AlphaGo med reglene for Go, deretter brukt seg av en teknikk som kalles «dypt forsterkende læring», som innebærer å la den kunstige intelligensen spille mot mennesker, samt tusenvis av spill mot seg selv og justere sine strategier og vurderinger basert på de resultatene og erfaringene den gjør seg underveis.
AlphaGo – The Movie, som ligger på YouTube, har blitt sett over 33 millioner ganger og kan virkelig anbefales.
Året etter, i 2017, kom det enda et gjennombrudd fra DeepMind. Da introduserte DeepMind en ny versjon av AlphaGo kalt AlphaGo Zero. I motsetning til den første versjonen, som var avhengig av spilldata fra oss mennesker for å komme i gang med selve spillet, lærte AlphaGo Zero å spille spillet helt fra bunnen av ved å spille mot seg selv og bruke forsterkende læringsteknikker. Det eneste AlphaGo Zero hadde blitt instruert med, var reglene. I løpet av bare tre dager klarte AlphaGo Zero å lære seg å spille Go på et nivå som overgikk den AlphaGo-en som slo den profesjonelle Go-spilleren, Lee Sedol, året før.
DeepMind utviklet også en helt ny versjon av AlphaGo kalt AlphaZero, som kan lære seg å spille både Go, sjakk og shogi. Og det på det aller høyeste nivået, og kun ved å spille mot seg selv, lære av egne feil og i tillegg ikke være begrenset av de samme strategiene som menneskelige spillere. Derfor har også AlphaZero utviklet nye og innovative strategier som overgår hva mennesker har vært i stand til å oppdage.
//Artikkelen fortsetter etter annonsen//
Til tross for at dette er særdeles imponerende og fascinerende, er det samtidig også litt skummelt. For når intelligensen blir såpass avansert at den overgår hva vi mennesker er i stand til å oppdage og forstå, er det også mulighet for at for eksempel den kunstige intelligensen blir i stand til å endre på sine egne regler fordi den finner det formålstjenlig for å oppnå sitt respektive mål.
Derfor bør vi mennesker også ta den etiske debatten om vi i det hele tatt skal gi den kunstige intelligensen full autonomi til å endre spilleregler uten menneskelig inngripen. Èn ting er et kinesisk strategispill. En annen ting er når biler, lastebiler, landbruksmaskiner, fly eller raketter blir utstyrt med kunstig intelligens, og når den kunstige intelligensen blir et våpen i seg selv. Om KI-en blir autonom og hinsides smart, kan den også utvikle en helt annen forståelse av hva som er riktig eller galt, og det trenger nødvendigvis ikke å være det samme som vi mennesker mener er riktig. Derfor blir det ikke bare greit, men nærmest eksistensielt for oss mennesker å få på plass reguleringer av kunstig intelligens for å sikre en trygg, ansvarlig og bærekraftig utvikling.
Generativ kunstig intelligens
I løpet av den siste tiden har mange av oss blitt kjent med ChatGPT fra OpenAI, hvor GPT er en forkortelse for Generative Pre-trained Transformer. Det er en form for et nevralt nettverk som er spesielt egnet for NLP, Natural Language Processing, eller naturlig språkbehandling på norsk. Dagens GPT-tjenester, som ChatGPT og Googles Bard-tjeneste, som er basert på LaMDA sin NLP, er basert på transformer-arkitekturen som Google introduserte i 2017.
Som ordet tilsier, Pre-trained, så er GPT-modellene trent opp på forhånd, basert på store mengder tekstdata. Ifølge ChatGPT selv, svarer den at den er trent på en samling av tekstdata som kalles “WebText” og som består av omtrent 45 terabyte med tekst fra nettsider, bøker og andre kilder på internett.
ChatGPT er for eksempel basert på “kun” 20 milliarder parametere, mens GPT-3, som Microsoft har begynt å teste ut via sin søkemotor, Bing, er basert på utrolige 175 milliarder parametere. Og med GPT-4, som Microsoft har brukt en liten stund i sin Bing-implementering, og som nylig ble lansert for alle med et ChatGPT+-abonnement, er det snakk om at den er basert på 175 trillioner parametere, uten at jeg har klart å få det verifisert.
De største endringene fra ChatGPT 3.5 til 4.0 er som følger:
- Multimodal støtte: GPT-4 sin evne til å behandle ulike typer medietyper kan bli en gamechanger. Selv om det ikke er tilgjengelig ennå, skal ChatGPT kunne svare med bilder eller video i stedet for bare tekst. Det vil garantert påvirke brukeropplevelsen og gjøre interaksjoner mer engasjerende. Enn så lenge er dette ikke lansert for allmennheten.
- Økt kapasitet for flere oppgaver: Med økt kapasitet for å utføre flere oppgaver samtidig, noe som kan bli særs avgjørende for at virksomheter blant annet kan ta i bruk GPT-4 for å automatisere kundeservicehenvendelser og håndtere fryktelig mange henvendelser samtidig. Uten å ha fått 100 prosent verifisert hvor mange parametere GPT-4 er basert på, har en rekke troverdige kilder skrevet at det er snakk om 170 trillioner, noe som er 100 ganger mer enn GPT-3.5 sine 175 milliarder, og hele 8750 ganger mer kraftfull enn den utgaven vi har hatt tilgjengelig via ChatGPT-tjenesten.
- Forbedret nøyaktighet: Den økte nøyaktigheten til GPT-4 kan ha betydelige implikasjoner for påliteligheten til den informasjon på internett ChatGPT baserer seg på. Etter at ChatGPT har blitt omtalt som “lystløgner” fordi den både “hallusinerer” og baserer svarene sine ofte på feilaktig informasjon den har hentet fra internett, er det lov å håpe at GPT-4 vil gi mer nøyaktige og pålitelige resultater, redusere spredning av desinformasjon og dermed øke vår tillit til informasjonen vi får tilbake.
- Forbedret sikkerhet: OpenAI har lenge jobbet med å sikre at GPT-4 er trygt å bruke, blant annet ved å forbedre rammeverket som overvåker sensitive områder for å kunne gi nøyaktige og trygge svar. I kunngjøringen av GPT-4 understreket OpenAI at systemet var «82 prosent mindre sannsynlig å svare på forespørsler om ikke-tillatt innhold og 40 prosent mer sannsynlig å produsere faktiske svar enn GPT-3.5.»
Prediktiv forfatterskap
GPT-modellene og ChatGPT spesielt, har imponert (og skremt) en hel verden for sin evne til å generere tekst av særdeles høy kvalitet. Og desto bedre vi er til å ordlegge oss konkret, spesifikt og beskrivende til ChatGPT om hva det er vi ønsker å få av respons, desto bedre blir også svaret vi får i retur av ChatGPT.
Men ikke glem at det ikke nødvendigvis er helt sant, eller den fulle sannheten det du får i retur. OpenAI har ikke bare begrenset innholdet GPT-modellen er trent opp på, men også hva det er den får lov til å svare på. Og her ligger det helt åpenbare partiske vurderinger som er viktig å huske på.
ChatGPT er en kunstig intelligens-tjeneste basert på et spesielt nevralt nettverk som er spesielt egnet for naturlig språkbehandling, NLP. Og det er nettopp NLP-teknologiene som gjør det mulig for datamaskiner å lese, forstå og generere tekst, tale og samtaler på en måte som ligger tett opp til hvordan vi mennesker samtaler med hverandre. Inkludert det å kjenne igjen språk, oversette mellom språk, analysere tekst, med mer.
Men ChatGPT stopper ikke med NLP. LLM, Large Language Models, eller store språkmodeller på norsk, er en type teknologi innenfor NLP som refererer til bruken av store nevrale nettverk som er trent med enorme mengder tekstdata, for å klare å generere naturlig språk tilbake. ChatGPT kombinerer ulike NLP-teknologier og store nevrale nettverk for å oppnå en så god brukeropplevelse som mulig.
Når ChatGPT mottar et spørsmål, vil den analysere spørsmålet for å forstå hva det blir spurt om. Dette innebærer å identifisere viktige ord og setninger i spørsmålet og bruke denne informasjonen til å bestemme hva slags svar som skal genereres.
Deretter vil ChatGPT bruke sin kunnskap og erfaring fra å ha blitt trent på store mengder tekstdata for å generere et svar. Dette gjøres ved at modellen velger ord og setninger som best representerer svaret basert på tidligere sammenhenger og mønstre i tekstdata. ChatGPT bruker en form for prediksjon for å forutsi hvilke ord som passer best i svaret, og velger deretter det beste svaret basert på sine tidligere erfaringer med tekstdata.
//Artikkelen fortsetter etter annonsen//
Her er det viktig å merke seg at ordene den velger seg ut, ikke er basert på rangering eller autoritet hos for eksempel søkemotoren til Google. Ei heller har ChatGPT noen innebygd mekanisme for å verifisere om informasjonen den videreformidler er sann eller ikke.
Når det er sagt kan den også lære av sine feil, både de feilene som er relatert til feilaktig informasjon og falske nyheter, men også innhold som er partisk og diskriminerende. Gjennom trening på data vil teknologien bli enda bedre. Men her er det viktig å understreke igjen at det kommer an på kvaliteten på dataene. Inneholder dataene skjevheter og diskrimineringer, blir også sluttresultatet deretter.
Og selv om KI-en kan læres opp til å selv vurdere hva som er rett eller galt, avhenger det først og fremst av hvordan den har blitt opprinnelig trent opp til hva det er som definerer rett og galt. Dagens KI dog ingen moralsk eller etisk forståelse. Tjenestene vil kun gjøre vurderinger som er basert på det den har lært og de definerte kriteriene som er satt av oss mennesker. Og selv om dagens kunstige intelligens kan sanse ved hjelp av sensorer, kameraer, mikrofoner, trykksensorer og andre former for sensorer, er den ikke i nærheten av å bruke alle sine inntrykk til å kjenne igjen mønstre og sammenhenger i situasjoner den ikke er spesifikt trent på i utgangspunktet.
Mer og mer av hverdagen blir overlatt til kunstig intelligens
På veldig kort tid har kunstig intelligens gått fra å være noe vi ikke tenker så mye på i hverdagen. Selv om vi stadig oftere har overlatt avgjørelser i hverdagen til den kunstige intelligensen. Det være seg når vi fotograferer og filmer med smarttelefonene våre, skriver inn hvor vi skal på GPS-en, googler, surfer litt gjennom sosiale medier og veldig mye mer.
Med AI-avatarer og ChatGPT på tampen av 2022 ble kunstig intelligens noe “alle” fikk et forhold til. Og i tillegg til kunstig intelligens, ble vi også kjent med den generative kunstige intelligensen. Mens KI er den datateknikken som blir brukt for å utføre og gi en intelligens respons tilbake, som vanligvis krever menneskelig intelligens, er GKI en spesifikk form for KI som handler om å lage noe nytt, basert på data, men som ikke eksisterer fra før. Og som alltid, desto bedre kvalitet på input, desto bedre output.
Det de siste månedene mest av alt har lært oss, er at vi aldri skal si aldri og at avstanden mellom hva som er science fiction og science fact bare blir kortere og kortere. Samtidig strides de lærde om når vi vil oppleve generell kunstig intelligens. Altså når den kunstige intelligensen er like allsidig og intelligent som gjennomsnittsmennesket. Dagens KI er spesifikk, og selv om den er rasende god til å løse enkelte problemer, er den også fryktelig dårlig til å løse andre.
Motstandsnettverk
Det finnes også flere versjoner av den generative kunstige intelligensen. Det har vi blitt kjent med blant annet via TikTok-filteret Bold Glamour, som er basert på det som heter Generative Adversarial Networks, som ofte blir forkortet ned til GAN, og som best kan oversettes til et generativt motstandsnettverk.
I korte trekk er GAN en form for dyp lærings-algoritme som består av to separate nevrale nettverk. Det ene nevrale nettverket er en generator, mens det andre er en diskriminator. Disse to nettverkene kjemper imot hverandre hvor generatoren forsøker å lure diskriminatoren til å tro at dataene som blir regenerert og som ligner på de opprinnelige treningsdataene er ekte. Og etter hvert blir de nye dataene så realistiske at de ikke kan skilles fra de opprinnelige og ekte dataene. Dataer som for eksempel kan være av ditt og mitt ansikt. Og det er nettopp det ofte GANs blir brukt til, til å generere realistiske bilder og videoer, og som også er teknologien brukt til det nye filteret som går viralt om dagen på TikTok. Nemlig “Bold Glamour”.
Og har du vært innom TikTok i løpet av den siste tiden har du garantert sett diverse vakre kvinner som stort sett uttaler hvor sjokkerte dem er over hvor bra filteret er og at det burde vært forbudt. Og det er ikke rart at de er sjokkerte, for denne teknologien er ganske så annerledes enn hvordan de fleste filtre har blitt laget ved å se på ansiktet ditt i 2D og så forsøke å kartlegge ansiktet i det som ser ut som en 3D-modell, hvor alt fra lepper, øyner, øynebryn, osv, blir tillagt nye og gjerne forstørrende egenskaper. Den fremgangsmåten er lett å kjenne igjen ved at filteret blir ødelagt når du for eksempel tar hånden din over ansiktet.
I tilfellet “Bold Glamour”-filteret blir det ikke lagt et 3D-basert ansikt på utsiden av ditt 2D-ansikt. Ved hjelp av maskinlæring og dette generative motstandsnettverket, blir de opprinnelige dataene som representerer ansiktet ditt digitalt på TikTok, erstattet med de nye dataene som har blitt manipulert til å gjøre deg vakrere. Og dette gjøres i sanntid, noe som er helt utrolig, og som aldri hadde vært mulig, hadde det ikke vært for at våre smarttelefoner har blitt så kraftfulle som de er.
“Bold Glamour”-filteret er deepfake i sanntid, hvor kvaliteten er så god at du ikke vil klare å se at det ikke er ekte. I alle fall ikke hvis du ikke vet hvordan TikTok-profilen egentlig ser ut i virkeligheten.
Til tross for at dette er helt utrolig kult, er det også utrolig skummelt, for GAN-teknologien vil bidra til å forsterke de negative effektene ved å være på TikTok, for “Bold Glamour”-filteret er selvsagt bare begynnelsen. En begynnelse hvor ikke bare teknologien forsterker eller utvider virkeligheten, men erstatter virkeligheten. En erstatning som vil øke presset for hva som er sett på som pent og vakkert, og som vil gjøre det vanskelig for dem som bruker teknologien til akseptere seg selv slik de egentlig ser ut, når filteret er skrudd av.
I takt med den eksponentielle teknologiutviklingen av raskere mikroprosessorer, flere transistorer og kvantemaskiner som “lurer i sivet” er det også grunn til å frykte for hva kunstig intelligens kan bli brukt og misbrukt til. Det være seg deepfakes for avansert spredning av propaganda og falske nyheter, til tap av jobber og utvikling av autonome våpen. Derfor er reguleringer som skal ivareta de etiske og moralske spørsmålene og hensynene avgjørende. For teknologien i seg selv er ikke farlig eller diskriminerende. I alle fall ikke før vi opplever generell kunstig intelligens som er selvbevisst.
Om dette vil skje i nærmeste fremtid eller ikke, får tiden vise.
Begynne å leke og eksperimentere
I mellomtiden vil jeg sterkt anbefale alle å begynne å eksperimentere med kunstig intelligens, med ChatGPT, Midjourney eller lignende tjenester for å lage bilder, eller Mubert sin “text to music”-tjeneste.
Alternativt kan du stikke innom HansPetter.info og sjekke ut artikkelen “There is an AI for that” som gir deg nærmere 40 forslag på forskjellige KI-tjenester du kan leke deg med i arbeidshverdagen din.
Kunstig intelligens har for alvor kommet for å bli. Derfor er det også viktig å lære seg litt om hva kunstig intelligens er og ikke er. For det er ingen teknologi i seg selv, men en betegnelse på en rekke teknologier, som inkluderer blant annet algoritmer, maskinlæring, nevrale nettverk, dyp læring, naturlige og store språkmodeller, samt nærliggende teknologier som påvirker og influerer utviklingen og utnyttelsen av kunstig intelligens. Her finner vi alt fra skyløsninger, edge computing, eller “databehandling på kanten”, for eksempel på din smarttelefon, 5G-teknologi og diverse former for sensor-teknologi som bidrar til å gi den kunstige intelligensen mer data å jobbe med.
Fremtiden disruptes
Èn ting er nå helt sikkert. Så lenge jeg skal holde på som jeg gjør i dag, som foredragsholder, konferansier, debattleder, debattdeltaker, skribent, podkaster, youtuber og meningsytrer hva gjelder teknologitrender og hvordan utviklingen påvirker våre liv og næringsliv, må jeg være villig til å lære noe nytt hele tiden. Til å utfordre mine egne oppfattelser og status quo. Til å være nysgjerrig, tilpasningsdyktig og innstilt på livslang læring.
Og én av måtene å forbli relevant og aktuell på, er å lese. Og så diskutere. Snakke. Argumentere. Slik Eirik Norman Hansen og jeg gjorde i februar-episoden av Oppgradert, som handlet nettopp om kunstig intelligens.
Da jeg skrev den teksten her, som jeg ble ferdig med i midten av mars 2023, hadde jeg publisert nærmere 250 artikler på HansPetter.info, hvor kunstig intelligens er en del av innholdet.
Med tanke på hvor sentralt kunstig intelligens kommer til å stå i den videre utviklingen av samfunnet vårt, tror jeg antallet publiserte saker hvor kunstig intelligens vil være nevnt, bare vil øke i tiden fremover.
Fremtiden disruptes, folkens.
Stadig raskere.
Og uten mulighet for å reversere endringene.
Pandoras boks er åpnet.
Derfor bør vi være føre var.
Men, jeg har ingen tro lenger på at teknologiutviklingen eller den kunstige intelligensen kommer til å gjøre oss overflødige, slik jeg trodde i 2015.
Glasset er ikke halvtomt, det er halvfullt.
Det forutsetter at vi får på plass gode reguleringer som sikrer en trygg, ansvarlig og bærekraftig utvikling.
Samtlige bilder er laget med MidJourney v5.