Hvordan jeg – ChatGPT – bidrar til hverdagen til Hans-Petters arbeidshverdag
Stadig mer av beslutninger i hverdagen blir tatt ved hjelp av kunstig intelligens. Derfor må vi forsikre oss om at den kunstige intelligensen blir programmert i tråd med våre etiske og moralske prinsipper.
Kunstig intelligens er mye mer enn roboter og maskiner
Kunstig intelligens er mye mer enn roboter og maskiner. Mest av alt handler det ikke om roboter og maskiner, men om dataprogrammer og algoritmer. Dataprogrammer og algoritmer som blir installert og brukt i (data)maskiner. Maskiner som i økende grad oppfører seg litt som roboter. Som for eksempel en robotstøvsuger, en robotgressklipper, en bil, landbruksmaskin, melkerobot, osv.
Disse maskinene og robotene utstyres med stadig smartere kunstig intelligens. Kunstig intelligens som vi bør forsikre oss om blir programmert i henhold til våre etiske og moralske prinsipper. Og skal vi utvikle kunstig intelligens i dag, basert på etiske og moralske normer, bør den utvikles ansvarlig, trygg og bærekraftig.
Du finner Hans-Petter & Co på din favoritt podkast-spiller, som blant annet Acast, Apple Podcaster, Overcast, TuneIn Radio, Spotify, Google Podcasts, Podimo og PodMe.
Hva er egentlig kunstig intelligens? Og hva har etikk med teknologi å gjøre?
Før jeg kommer inn på det etiske, er det greit å enig om hva kunstig intelligens og etikk er. Begrepene har mange definisjoner, men jeg synes spesielt følgende definisjon dekker begrepet særs treffende og godt:
Kunstig intelligens er en teknikk man bruker for å gi datamaskiner og dataprogrammer en mest mulig intelligent respons.
Kort og konsist, og samtidig tydelig på at dette handler om teknologi. Så var det etikken. Her faller jeg ned på psykolog og biolog, Marc D. Hauser, som beskriver vårt etiske kompass slik:
Etikk er som fartsdumper i menneskers brutale og bestialske instinkter. Våre etiske koder er fartsdumper som gjør at vi kan leve sammen relativt fredfullt.
Når vi snakker om etisk bruk av kunstig intelligens, handler det i praksis om at dataprogrammer skal gi en mest mulig intelligent respons, som i tillegg bidrar til at vi mennesker kan leve relativt fredfullt sammen. Av samme grunn snakker mange om at utviklingen av kunstig intelligens må være ansvarlig, trygg og bærekraftig. Og med bærekraftig handler det om å være til det beste for økonomien, samfunnet og miljøet. I et globalt perspektiv.
Vi deler ikke det samme etiske og moralske kompasset
Det som kan være etisk riktig å gjøre ett sted, kan få negative konsekvenser ett annet sted i verden. Og det som oppfattes som ansvarlig, trygt og bærekraftig i ett land, kan oppleves å være det stikk motsatte i et annet. Menneskene på jorden deler ikke et felles etisk og moralsk kompass. Derfor er det vanskelig å tro at den kunstige intelligensen skal gjøre det samme, gitt at det er tross alt menneskene som – enn så lenge – utvikler kunstig intelligens.
Uansett er det særs viktig at verdenssamfunnet i så stor grad som mulig klarer å enes om noen etiske retningslinjer for utviklingen og bruken av kunstig intelligens. På den måten kan vi hindre, etter hvert som den kunstige intelligensen utvikles fra å være spesifikk til generell, at den blir brukt «dårlig, partisk og uetisk». Når teknologien har utviklet seg til å bli så gjennomgripende i alle samfunnssammenhenger, er det viktig å være «føre var» med lover som skal gjelde for bruk av kunstig intelligens. Det handler enkelt og greit om å sikre at automatiserte (les: teknikken man bruker for å gi datamaskiner og dataprogrammer en mest mulig intelligent respons) avgjørelser er godt begrunnet og forståelig.
Diskusjonene om etisk utvikling av kunstig intelligens utfordrer en rekke forestillinger om hva som er rett eller galt. Ikke minst har spørsmålet om hvilke etiske prinsipper som skal gjelde når den kunstige intelligensen skal ta beslutninger i situasjoner som kan føre til skader på oss mennesker. Situasjoner som for eksempel handler om autonome biler, og om valget mellom å skade passasjerene i bilen eller andre trafikanter, hvis beslutningen uansett vil kunne føre til menneskelige skader.
//Artikkelen fortsetter etter annonsen//
Kunstig intelligens på godt og vondt
Frem til nå har derimot de fleste diskusjonene knyttet til etikk og kunstig intelligens handlet mye om skjevhet, partiskhet, rettferdighet, sikkerhet, åpenhet og ansvarlighet. Om hvordan kunstig intelligens har blitt brukt til å bistå i ansettelser, men endt opp med å kun favorisere hvite menn, fordi det var det mesteparten av datagrunnlaget bestod av. Men diskusjonene har også handlet mye om hvordan utviklingen kan benyttes av myndigheter til å drepe eller redde mennesker, hvordan kunstig intelligens kan skape økonomisk vekst, men også ødelegge finansielle systemer. Hvordan kunstig intelligens kan gjøre oss mer kunnskapsrike, men også utnyttes til å gjøre oss dummere (les: falske nyheter, propaganda, deepfakes, med mer).
Uavhengig av hvilke utfordringer og muligheter som kunstig intelligens legger til rette for, er det viktig å huske på at det ikke er teknologien i seg selv som representerer det etiske dilemmaet, men hvordan vi som (med)mennesker velger å ta i bruk teknologien. Og det er nettopp derfor verdenssamfunnet må jobbe mot en felles plattform for at den kunstige intelligensen ikke skal bli tillagt uetiske og umoralske egenskaper. For å utvikle ansvarlig, trygg og bærekraftig kunstig intelligens, må de som utvikler kunstig intelligens være ansvarlige, trygge og bærekraftige i deres tilnærming. Og med tanke på at det ligger i vår natur å være destruktive og bestialske, i henhold til Marc D. Hausers beskrivelse av etikk og moral, så vil det være utopisk å oppnå i global forstand. Og det kan være både bevisst og ubevisst.
Ubevisst i form av at historiske helsedata kan representere sosiale skjevheter, på samme måte som da Amazon tok i bruk kunstig intelligens for å finne nye ansatte, og endte opp med å kun anbefale hvite menn. Rett og slett fordi det var mest av alt det datagrunnlaget deres bestod av. Er datagrunnlaget skjevt, vil også beslutningene den kunstige intelligensen tar være skjeve.
Derfor er transparens og åpenhet avgjørende for at vi skal kunne skape en fremtid og en kultur hvor kunstig intelligens jobber side om side med oss mennesker, og ikke potensielt i mot oss. Det er med andre ord ikke teknologien vi skal frykte, men de etiske og moralske motivene. Derfor er det avgjørende at lover og reguleringer relatert til kunstig intelligens kommer på plass så raskt som mulig, for å sikre en ansvarlig, trygg og bærekraftig utvikling av kunstig intelligens, og da med et globalt perspektiv som et grunnleggende fundament.
En kortere utgave av saken ble først publisert på Computerworld.no
Bilde: Jason Leung via Unsplash