Hvordan undgår vi diskrimination og bias i brugen af kunstig intelligens?
Kunstig intelligens fungerer ved at reproducere de beslutninger, der forekommer i de data, den er trænet på. Hvis data er biased, vil de svar, kunstig intelligens giver, også være biased. Så hvordan udvikler vi retfærdig kunstig intelligens? Og hvilke udfordringer og dilemmaer står vi overfor, når vi skal definere, hvad der er ”retfærdigt”?
Sammen med professor ved DTU Compute, Aasa Feragen, og lektor i etik ved KU, Sune Holm, dykker vi ned i et forskningsprojekt om kunstig intelligens i sundhedsvæsenet for at diskutere de udfordringer og muligheder, der følger med brugen af kunstig intelligens til at træffe beslutninger i offentlige institutioner.
Som en del af workshoppen får deltagerne mulighed for at prøve kræfter med kunstig intelligens i et storytellingformat, som skal blive til en udstilling til VidenSkabers store finale i Aarhus den 28. november. Her skal deltagerne på tværs af VidenSkabers fem workshops være med til at skabe en uendelig historie ved hjælp af generativ kunstig intelligens. ”Den uendelige historie” er således en kollektiv og samskabt fortælling, hvor deltagerne leger med AI-genereret tekst, billeder og video. Samtidig får de mulighed for at udforske og justere de bagvedliggende parametre for derigennem at få indsigt i, hvordan kunstig intelligens fungerer.
Workshoppen faciliteres af diversitetskonsulent Fahad Saeed og er arrangeret i samarbejde med Mino Danmark. Workshoppen er forbeholdt frivillige i Mino Ung og Mino Karriere.
Tid & sted
Observatoriet i Botanisk Have
Øster Voldgade3
1350 København K