Ligesom alle, der læser denne tekst, har fordomme baseret på deres viden, erfaringer og meninger, vil AI-modeller uundgåeligt have fordomme baseret på de data, de er blevet fodret med.
Hvis man for eksempel beder en generativ AI-model om at skabe en illustration af en læge, vil det sandsynligvis resultere i en hvid mand. Det er sådan, læger typisk er blevet afbildet i vestlig historie og kultur – og dermed i de data, som modellen bygger på. På samme måde, hvis du beder AI om at ansætte lignende personer, som du allerede har på din lønningsliste, vil AI beholde de samme fordomme, som du måske har i øjeblikket.
Med andre ord: Når fordomme, f.eks. i forbindelse med hudfarve, seksuel orientering eller uddannelsesniveau, er skjult i det input, som vi fodrer kunstig intelligens med, kommer de også til udtryk i outputtet. En af risiciene er derfor ikke kun, at AI kan fastholde fordomme og stereotyper, men også forstærke dem.
Nøglen er at være meget opmærksom på, at der altid findes fordomme, og derfor tage de nødvendige forholdsregler.
“Det er en god ting, at vi diskuterer bias i AI, men det er endnu bedre, at vi faktisk kan kontrollere det. Jeg tror, vi har en fordel ved at være bedre til at håndtere bias i dag, end vi har været i stand til i de sidste 10 år inden for teknologi.”
Som bruger af AI-værktøjer er du nødt til at være kritisk over for dine kilder – ligesom du bør være det, når du indsamler oplysninger på internettet. Information og vi mennesker vil altid være forudindtagede til en vis grad. Det er tilfældet med din avis – hvis du stadig læser en – dine søgemaskiner og sociale medier, som skræddersyr indhold til dine (og ofte kommercielle partneres) præferencer.
Faktisk vil generativ AI ofte være mindre partisk generelt, fordi den i sagens natur ikke har nogen interesse i at fremme kommercielle fakta eller meninger. Derudover kan du, selv som almindelig bruger uden programmeringsfærdigheder, faktisk instruere AI-modeller om, hvad du vil have og ikke vil have, hvilket er meget mere kompliceret i f.eks. en Google-søgning. På samme måde kan du kræve, at modellen er gennemsigtig med hensyn til, hvad kilden til output er.
Derudover kan guardrails eller indholdsfiltre hjælpe med at etablere etiske grænser og sikre, at AI-modeller ikke misbruges, f.eks. til at give en opskrift på at lave en bombe, som det klassiske eksempel lyder. Men det er ikke uden udfordringer. Hvad nu, hvis du beder din AI-assistent om en god opskrift på at tilberede en hest? Skal guardrail’et træde i kraft og forklare, at det er universelt forkert at spise disse dyr, fordi det er tilfældet i den vestlige kultur, mens det ikke nødvendigvis er tilfældet i andre dele af verden?
Når du starter en samtale med en stor sprogmodel, handler det om at sætte konteksten ved at være specifik og indlede og indramme dit spørgsmål. På den måde vil svaret eller løsningen være mindre tilbøjelig til at være forudindtaget. Samtidig skal vi være åbne om, at det, en AI-model producerer, ikke nødvendigvis er den fulde sandhed.
Det er en af grundene til, at vi – i hvert fald indtil videre – skal se vores AI-værktøjer som assistenter. De må gerne tænke selvstændigt og komme med forslag, men grundlæggende skal de oplæres i organisationens værdier, arbejdsmetoder, kommunikation osv. Ligesom en ny medarbejder har brug for en god leder.
Og når AI’en gør noget forkert, er det vigtigt at rapportere det, så modellen kan justere sin måde at fungere på og løbende finjustere, så den bliver bedre og bedre til at håndtere og minimere sin bias.
Ved at tilmelde dig vores nyhedsbrev, vil du få besked, når vi afholder events, få inspiration fra cases og meget mere.