fbpx
kunstig intelligens

Etisk kunstig intelligens

Forståelse av menneskelig atferd kan være den største fordelen med kunstig intelligens, men bare hvis det hjelper oss å finne måter å redusere konflikter og leve bærekraftig.

I tiden før vi hadde kraftige datamaskiner og mulighetene som ligger i å utnytte data og bruk av kunstig intelligens, utviklet vi systemer som fulgte reglene til de som programmerte dem. Fremskritt innen teknologi har imidlertid ført til utvikling av helt nye tilnærminger. De etiske bekymringene rundt disse fremskrittene fokuserer blant annet på bruk av kunstig intelligens i militære droner eller risikoen for at kunstig intelligens kan styrte globale økonomiske systemer.

Frykter kunstig intelligens

På hjemmebane har kunstig intelligens vekket frykt for arbeidsledighet, ettersom autonome systemer truer med å erstatte millioner av sysselsatte. Bortsett fra disse større sosiale og økonomiske betraktningene, har dataforskere reelle bekymringer for skjevhet, etisk implementering av teknologi og hvordan interaksjoner mellom kunstig intelligens og mennesker vil utarte seg. Kunstig intelligens bør baseres på våre beste sosiale normer og menneskelig moral. I praksis betyr dette at vi må være oppmerksom og aktive når det gjelder å bestemme hvordan kunstig intelligens-algoritmer er designet og hvilke data som brukes til å trene maskinene. Vi må også overvåke og korrigere atferden som kunstig intelligens-systemene lærer av dataene over tid.

Lovlige, etiske og robuste

I henhold til retningslinjene må kunstig intelligens-systemene være lovlige, etiske og robuste for å være pålitelige. Med andre ord, kunstig intelligens-systemer må overholde alle gjeldende lover og regler så vel som etiske prinsipper og verdier. Og kunstig intelligens-systemer må fungere robust, ikke bare fra et teknisk synspunkt, men også med tanke på hele det sosiale miljøet. Tempoet som denne overgangen har oppnådd, har ført til betydelige etiske spørsmål, inkludert potensiell rasisme i kriminelle dommer og diskriminering i rekruttering av arbeidere. De etiske implikasjonene av kunstig intelligens må undersøkes på samme måte som selve kjerneteknologien, hvis vi noen gang håper å unngå disse problemene i fremtiden. Vi må sette i gang en konstant samtale om etikk, slik vi ser det på områder som blant annet innen medisin.

//Artikkelen fortsetter etter annonsen//

 

Teknologi er ikke nøytral

Så langt har vi en god forståelse av etikk. Vi forstår også til en viss grad hvorfor teknologi ikke er nøytral, og vi har en overordnet forståelse av de potensielle implikasjoner det medfører. Med andre ord ligger etikken til kunstig intelligens i den etiske kvaliteten i dens prediksjon, den etiske kvaliteten på sluttresultatene som den stammer fra, og den etiske kvaliteten på dens innvirkning på oss mennesker.

Etikk er også definert som: disiplinen som omhandler rett og galt, og de moralske forpliktelsene og pliktene til mennesker. De etiske forpliktelsene som pålegges en teknologi og dens utviklere, krever at de gjør alt for å dempe all slik skade. Gitt omfanget av kunstig intelligens-applikasjoner på områder som medisinsk diagnostikk, finansielle tjenester og «screening» på arbeidsplassen, er konsekvensene av et enkelt feilskjær enorm. Derfor må også kunstig intelligens utvikles for å forstå hvem vi er som mennesker i fellesskap (antropologi og sosiologi), hvem vi er som enkeltindivider (psykologi) og hvordan vår individuelle hjerne fungerer (kognitiv vitenskap). Det kunstige intelligensen må være i tråd med den nåværende tanken om global kulturell etikk, samt passende filosofier og lover.

Hva det vil si å være menneske avhenger ikke bare av hvem vi er og hvor vi er, men også av når vi er og hvordan vi ser oss selv på et gitt tidspunkt. Som jeg skrev innledningsvis, kan forståelse av menneskelig atferd være den største fordelen med kunstig intelligens. Men bare hvis det hjelper oss å finne måter å redusere konflikter og leve bærekraftig.

 

Bilde: Franck V. via Unsplash

 

Kilder: