
Hvorfor etiske perspektiver bør integreres i bedriftens KI-strategi og hvordan KI kan samarbeide med vår kollektive intelligens
Publisert: 05.08.24
Tall fra en ganske fersk rapport fra NHO viser at kunstig intelligens kan øke norsk verdiskaping med 5600 milliarder frem mot 2040. 24 prosent av norske virksomheter bruker kunstig intelligens på en eller annen måte. "Alle norske virksomheter bør tenke strategisk om KI", sier Rebekka Borsch, avdelingsdirektør i NHO for kompetanse, innovasjon og digitalisering. Halvparten av disse er i gang med å utvikle strategier for bruk av KI, - men hvor mange har med noen etiske perspektiver i strategien?
Kunstig intelligens handler ikke bare om hvordan vi mer effektivt kan øke bedriftens inntjening og kvitte oss med kjedelige arbeidsoppgaver. Det har en etisk side. Maskiner som overtar menneskelige oppgaver, er vi vant med gjennom alle industrielle bølger. Men at de får en form for intelligens, som har vært menneskets unike fortrinn i all tid, utfordrer oss til å anvende vår egen kollektive intelligens bedre.
De fleste bedrifter kommer ikke til å utvikle egen kunstig intelligens, og kommer derfor i all hovedsak til å være bestillere av KI-teknologi.
I sin bok om «Maskiner som tenker» skriver Inga Strümke:
«..vi er mange forskere som mener at kunstig intelligens ikke er i nærheten av å oppnå hverken bevissthet eller generell intelligens. At selv de beste chatbotene er mekaniske papegøyer som resirkulerer hva enn vi har fôret dem med, og at den virkelige utfordringen ikke er at vi kommer til å dele kloden med en annen intelligent rase, men heller at vi er omgitt av systemer som forsterker våre egne fordommer».
Dette reiser minst to hovedgrupper av etiske spørsmål som må håndteres strategisk når vi tar i bruk KI:
• Hva gjør vi for å forhindre og eliminere - "feil bruk" eller «uoppmerksom bruk» av systemer eller hvis systemet med sin «intelligens» selv bidrar til å forsterke negative trender?
• Hvordan sikrer vi de ansatte og overgangen til nye oppgaver for disse?
Bias og rettferdighet
-
Skjevhet i treningsdata som kan føre til diskriminering mot visse grupper
Tillit, transparens og forklarbarhet
-
Manglende åpenhet/forståelse om hvordan KI-systemer tar beslutninger, kan redusere tillit.
Personvern
-
Innsamling, lagring og bruk av personlige data.
(Kan ikke gjentas for ofte!)
Sikkerhet, ansvarlighet og kontroll
-
Håndtering av risikoen for at KI-systemer fungerer på en uforutsigbar måte?
-
Hvem er ansvarlig når KI-systemer gjør feil?
-
Overvåking av KI-systemer som kan redusere menneskelig autonomi og kontroll.
Jobbtap og endret arbeidssituasjon
-
Automatisering som føre til endring/tap av arbeidsplasser. Skal de erstattes? Hvordan sikrer du overgangen for de ansatte?
Påvirkning eller manipulasjon
-
Hvor er grensen mellom bruk av KI for å påvirke eller manipulere oppfatninger og adferd?
Samfunnsansvar sosial bærekraft
-
Implementering av KI på måter som ikke bidrar forsterke sosiale ulikheter, - heller det motsatte.
Menneskelig verdighet
-
Behandling av mennesker som datapunkter og redusere menneskelige interaksjoner og kollektiv intelligens til algoritmer og statistikk.
Miljøpåvirkning og ressursbruk
-
Riktig bruk energiressurser og energikilde knyttet til drift av store KI-systemer.
Bias og rettferdighet. Hvilke «treningsdata» ligger til grunn?
KI-systemer kan inneholde såkalte «bias» (skjevhet eller forutinntatthet) som reflekterer fordommene i dataene de er trent på. For eksempel, hvis en KI-modell som skal bistå ved rekruttering og ansettelser kun er trent på data fra mannlige søkere, kan den utilsiktet favorisere menn over kvinner. Systemet bidrar til å forsterke en skjevhet vi egentlig ikke vil ha i verden. «Kunstig intelligens er nettopp i sitt ess når det gjelder analyse, se mønstre og sammenhenger, - det avgjørende for verdien av analysene vil være om innsamlingsprosessen som ligger bak dataene har bias.
Tillit, transparens og forklarbarhet
Transparens i KI-systemer er avgjørende for å bygge tillit. Hvordan bedriften din bruker egne tilgjengelige data som den selv har innhentet eller har tilgjengelig i egne systemer til analyser og som beslutningsgrunnlag, bør synliggjøres. Bedrifter bør sikre at KI-modeller er forklarbare, slik at (for)brukere forstår hvordan beslutninger tas. Mange har for lengst tenkt at våre sosiale plattformer gjør analyser av våre innlegg og for lengst trukket en rekke (feilaktige) slutninger. Det skaper utvilsomt ikke gode følelser, og vil være en omdømmedriver.
Samfunnsansvar – et valg om hva vi utvikler og kjøper
Verden ville nok gjerne ønsket seg et KI-verktøy som kan forutse hvem som er potensielle terrorister, trygdemisbrukere, dårlige betalere etc. Faren for at maskinen som skal lære har en beregningsmodell med feil «datainput» (annotering) eller har «bias» for å kunne beregne og analysere dette, vil være stor. Konsekvensene for dem som blir rammet av analysene enda større og kan forsterke ulikheter i samfunnet.
Den kollektive- og kunstige intelligensens sameksistens
Lenge har vi kun hatt ett konsept å forme fremtiden vår på - den kollektive intelligensen Nå står vi altså med ytterligere et konsept – kunstig intelligens. Begge konseptene har sine unike fordeler og utfordringer.
Den kollektive intelligensen utnytter mangfoldet av perspektiver, erfaringer og ferdigheter som finnes i en gruppe. Fordelen med kollektiv intelligens er dens evne til å dra nytte av den samlede erfaringen og kunnskapen til mange individer. Likevel har kollektiv intelligens også sine begrensninger. Beslutningsprosesser kan være tregere og mer komplekse på grunn av behovet for konsensus, og det er alltid en risiko for gruppetenkning, der ønsket om harmoni fører til dårlige beslutninger. Hvem vil være den som taler en enig forsamling midt imot – opptre som håret i enighetssuppa?
Fordelene med KI er helt klart dens evne til å håndtere store mengder data raskt og nøyaktig, samt å utføre repeterende oppgaver uten å bli trøtt. Dette kan frigjøre mennesker fra rutinearbeid og gi mer tid til kreativ og strategisk tenkning. Kollektiv intelligens utnytter menneskelig kreativitet og mangfold, mens KI gir hastighet, presisjon, og evnen til å analysere store datamengder.
Som et hvert annet verktøy kan også KI brukes til å gjøre skade. Det er da den kollektive intelligensen må bli den dominerende og styrende part – og den som har det avgjørende ordet om de viktige beslutningene. Reguleringer og samfunnsnormer kan bidra til å begrense skadelig bruk, men til syvende og sist er det vår personlige integritet og etiske bevissthet som må være det sterkeste forsvarsverket mot misbruk. Vårt eget indre kompass spiller derfor en avgjørende rolle i hvordan vi bruker kunstig intelligens.
Ved å innlemme noen etiske retningslinjer i bedriftens strategi ved bruk av KI, kan vi i større grad sikre at bedrifter ikke bare bidrar til økonomisk vekst, men også til et mer rettferdig og bærekraftig samfunn. Her er vi ved sakens kjerne, - hvordan vil ditt selskap møte denne utfordringen? - La oss ta en samtale om akkurat det!