Kunstig intelligens blir en stadig større del av arbeidsdagen for mange av oss. KI-verktøyene gir oss digitale superkrefter, og helt nye muligheter. Samtidig er det klare risikoer og etiske problemstillinger som knytter seg til bruken av KI. Som all annen kraftig teknologi, kan også dette misbrukes.
De viktigste områdene å forholde seg til for å bruke KI på en etisk og forsvarlig måte er:
- Datasikkerhet og personvern
- Diskriminering og mangfold
- Åpenhet og etterrettelighet
- Manipulering og desinformasjon
- Opphavsrett
- Bærekraft
En virksomhet kan og bør ta stilling til dette, og gjerne også lage seg en transparens-eklæring for hvordan man bruker KI, og hva man gjør for å minimere risikoene. Under finner du noen innspill på hver av punktene:
Datasikkerhet og personvern
Her er det etter hvert kommet lovgivning som er sterk og tydelig. Som virksomhet er man behandlingsansvarlig i forhold til GDPR, og det medfører en del plikter. Blant annet må man sørge for at bruker gir samtykke til å samle inn data, at innsamlede data blir oppbevart trygt og at dataene blir slettet om bruker ber om det.
Når man i tillegg til å samle inn data også bruker dataene til å trene kunstig intelligens, krever det at treningsdataene er tilstrekkelig anonymisert.
Et sentralt prinsipp er derfor at man aldri laster opp persondata til en KI-tjeneste.
Dette gjelder selv om man ikke skal bruke dataene til å trene KI’en, men bare for eksempel for å få forslag til budskap som vil resonnere med denne brukeren. I disse sammenhengene er det også godt å ha personas, slik at man kan jobbe med sine viktigste målgrupper på en måte som ikke bryter noens personvern.
Diskriminering og mangfold
En problemstilling som tidlig ble klar i forhold til generativ KI som ChatGPT, Midjourney, Gemini og andre, er dette med bias, altså hvordan KI-tjenester reflekterer fordommer og skjevheter som finnes i treningsmaterialet. KI reflekterer naturlig nok menneskelige holdninger både på godt og vondt. Samtidig ønsker de fleste virksomheter ikke å støtte spredning av diskriminerende sterotyper og andre dårlige holdninger.
Dette kan og bør legge noen føringer for hvilke instrukser man gir KI-tjenestene når man produserer innhold som skal representere virksomheten. Det går for eksempel an å være presis i instruksen man gir KI-tjenesten, slik at en bestilling motvirker eventuell bias i tolkningen. Jeg foreslår at man stiller de samme mangfolds-kravene til KI-generert innhold som til innhold man bestiller av en frilanser eller et byrå:
Innholdet skal ikke diskriminere noen på grunnlag av kjønn, alder, hudfarge, legning, førlighet eller liknende.
Autentisitet
En virksomhet legger ofte mye arbeid i å utforme sine visjoner, misjoner og verdier. Dette arbeidet nedfelles også gjerne i både merkevarehåndbok og retningslinjer for firmastemme; i strategier, markedsplaner og kommunikasjonsplattformer.
Fordi KI gjør det mulig for hvem som helst å lage innhold raskt, kan det imidlertid fort skje at ansatte legger ut både bilder, videoer og annet innhold som ikke er i henhold til verken firmastemme eller merkevare.
Dette behøver ikke nødvendigvis å være problematisk. Noen virksomheter har en liberal holdning til dette. Andre har derimot strenge retningslinjer, for eksempel for visuell utforming av markedsmateriell, og i så fall kan det fort oppstå et problem.
Vi foreslår derfor følgende regel:
Alle som lager innhold må kjenne til virksomhetens merkevarehåndbok og eventuelle retningslinjer for firmastemme.
Om virksomheten ikke har slike retningslinjer, men likevel er opptatt av å fremstå på en gitt måte, bør de lage et konkret dokument som tydelig viser hva dette betyr for utforming av innhold i praksis. De må også sørge for at alle ansatte er informert om dette.
Åpenhet og etterrettelighet
Transparens er en av de sentrale prinsippene i EUs AI Act, der det blant annet slås fast at KI-generert innhold bør merkes (med noen unntak). Det norske Forbrukertilsynet har fulgt opp dette med en vurdering, men har så langt ikke konkludert med at merking er påkrevet her. Vi anbefaler likevel at virksomheten holder seg til AI Act, og er åpen om at KI er brukt og hvordan.
Vi anbefaler at virksomheten lager en transparens-erklæring som legges tilgjengelig på nettsidene. En slik erklæring bør omfatte blant annet:
- Hva er virksomhetens holdning til bruk av generativ kunstig intelligens generelt?
- Hvordan bruker virksomheten generativ KI i utformingen av nettsidene?
- Hvordan merker man bruk av KI der det eventuelt er brukt?
- Hvilke tiltak gjør man for å motvirke bias, hallusinering og andre svakheter i systemene?
- Hvordan motvirker man at kunders personvern brytes gjennom trening og opplasting til store språkmodeller?
- Hva gjør man for å unngå å bryte andres opphavsrett gjennom virksomhetens bruk av kunstig intelligens.
Du finner et eksempel på en slik erklæring i KnowHouse sin egen transparens-erklæring for bruk av generativ KI.
Når man bruker KI-skapt innhold direkte, bør man uansett være forberedt på at dette kan og vil bli avslørt. Ikke bare har mange kunder etter hvert utviklet et øye for slikt, men det finnes også en rekke deteksjonsverktøy som brukes av arbeidsgivere, redaktører og mange andre. I tillegg skal man være klar over at bruken av KI-generert tekst kan være motproduktiv i forhold til SEO, altså at det kan resultere i dårligere synlighet på Google.
Det er også en kjent sak at det finnes en skepsis til KI-innhold i flere grupper i samfunnet, og at det å bruke slikt innhold kan slå negativt ut på omdømmet. Om dette er noe man skal ta hensyn til er jo opp til den enkelte virksomhet å avgjøre.
Etter vår mening er det absolutt ikke noe galt i å bruke KI-verktøy til å lage forskjellige former for innhold. Men man skal være åpen om at det er dette man har gjort. Er man redd for å bli avslørt, bør man antakelig ikke bruke KI i det hele tatt.
Nå er det imidlertid forskjellige måter å bruke KI på. Hos oss bruker vi store språkmodeller som ChatGPT først og fremst til strategisk sparring, analyse, rammeverk, utforming av budskap osv. Vi bruker det ikke til å lage tekster og bilder som så legges direkte ut i uredigert form. Etter vår mening bør det siste merkes tydelig, mens det første bare er del av daglig arbeid.
Vi anbefaler derfor dette:
Bruker du innhold som er laget av KI, så si fra om det! Og bruker du ikke innhold som er laget av KI, er dette også noe du absolutt bør påpeke i transparens-erklæringen
På den måten kan kunden selv ta stilling til hvordan hen velger å forholde seg til innholdet ditt.
Jeg snakker imidlertid da om innhold der det kunden møter er KI-produsert. En KI-skapt illustrasjon bør merkes. En KI-generert artikkel bør merkes. En KI-skapt video laget med en avatar bør merkes.
En menneskeskapt post i sosiale medier, som er basert på elementer foreslått av KI, derimot, er det verken nødvendig eller særlig gjennomførbart å merke.
Det er uansett virksomheten som er ansvarlig for det som legges ut.
Manipulering og desinformasjon
En av de tingene som skremmer mange mest med KI er jo de mulighetene for manipulering og desinformasjon som ligger i denne teknologien.
Det er ikke vanskelig å lage deepfakes som på en realistisk måter viser hendelser som faktisk ikke har skjedd; for eksempel en president som erklærer krig, eller en kjendis som dummer seg ut.
I og med at vi alle får våre nyheter fra forskjellige medier, er jo alt vi ser kun rapporterte representasjoner av forskjellige hendelser. Vi er kun veldig sjelden faktisk til stede selv. Hvordan skal vi så se forskjell på hva som er ekte og hva som ikke er det?
Vi har dessverre ikke noe godt svar på dette.
Jo bedre generativ KI blir, jo mindre synlig forskjell blir det på deepfakes og faktiske gjengivelser av nyhetssaker. Dette er ikke bare et etisk problem, det er en direkte trussel mot demokratiet.
Fordi denne saken er så viktig, vil det antakelig også komme lovgivning rundt dette ganske raskt. Og som med all annen lovgivning vil det være personer som velger å ignorere det og begå forbrytelser likevel.
Plattformene selv har lagt inn en del sikkerhetsmekanismer. Om disse er tilstrekkelige vil tiden vise, men uansett vil det være behov for et rettslig sanksjonsapparat. Dette er et ansvar jeg håper myndigheter både i Norge og andre land tar på alvor!
Regelen på området er i hvert fall veldig klar:
Ikke lag KI-representasjoner som utnytter andres identitet uten deres samtykke. Ikke spre desinformasjon.
Opphavsrett
I USA finnes det rettsavgjørelser på at man ikke kan hevde opphavsrett på KI-generert innhold. Det er imidlertid også en kjensgjerning at de fleste (alle?) av de store eksisterende KI-plattformene har blitt trent på innhold som også omfatter andres opphavsrettslig beskyttede materiale.
Her står egentlig de juridiske problemstillingene i kø. Skal opphavsrettshaverne ha vederlag for treningsmaterialet? Skal sosiale medier kunne trene KI på profilenes innhold? Hvis KI ikke skal kunne trene på materialet, hvorfor skal da Google kunne indeksere det? Og hvem eier egentlig det innholdet som KI produserer?
Alt dette, og veldig mye mer, er problemstillinger som må avgjøres rettslig i årene som kommer. Norsk lov er imidlertid veldig klar på opphavsrett:
Ikke offentliggjør innhold som andre har opphavsrett på uten deres tillatelse.
For å unngå at du gjør dette uten å være klar over det, så sjekk alltid at det du publiserer ikke inneholder opphavsrettslig beskyttet materiale.
Det siste kan gjøres ved bruk av gode plagiatdetektorer, for eksempel Originality.
Igjen er det virksomheten som har ansvaret for innhold som publiseres på deres vegne og i deres kanaler. Her er det mye billigere å være føre var, for opphavsrettshaverne har rett til å kreve forhøyet vederlag for innhold som er brukt uten tillatelse.
Bærekraft
Bærekraft er et hensyn som kan og bør være vesentlig for alt en virksomhet gjør. Foreløpig er imidlertid KI-tjenestene ikke særlig bærekraftige. Kunstig intelligens bruker prosesser som har et massivt karbonavtrykk. Samtidig kan KI også hjelpe oss å løse de store utfordringene rundt global oppvarming og andre miljøtrusler.
For virksomheter er kanskje det første tiltaket å vurdere å inkludere KI-bruken i sin bærekraftsrapportering. Realistisk sett er det kanskje ikke enkelt å gjøre et regnestykke på hva KI krever av ressurser, og hvilke ressurser KI faktisk også sparer gjennom effektivisering av oppgaver og rutiner.
Foreløpig velger de fleste virksomheter å ikke gjøre noen bærekraftsrelaterte tiltak i forhold til bruk av generativ KI.
Har du lyst til å lære mer om generativ kunstig intelligens og hvordan den kan brukes? – Vi har mange kurs om kunstig intelligens.