Hvad er en god forklaring?

Hvad er en god forklaring?

Schedule

  • Applications open

  • Applications close

Problemfelt

Systemer baseret på kunstig intelligens (AI) tager i stigende grad beslutninger, som før blev taget af mennesker, eller de foreslår beslutninger, som derefter indgår i menneskers beslutningsprocesser. Et eksempel på det første er medarbejdere der er blevet fyret af algoritmer (link). Et eksempel på det andet er AI der støtter lægers diagnosticering af hudkræft (link).


I begge tilfælde er der behov for at AI ikke kun foreslår en beslutning, men også er i stand til at begrunde den. I regelbaserede AI-systemer kunne begrundelserne bestå i at vise hvilken regel, eller hvilken kæde af regler, der førte til beslutningen. Sådanne AI-systemer er imidlertid blevet afløst af AI-systemer baseret på machine learning og deep learning. I disse systemer er der ikke eksplicit formulerede regler; systemerne finder i stedet mønstre på basis af store mængder træningsdata. Det er ikke oplagt hvordan disse systemer skal give en meningsfuld begrundelse for deres anbefalinger/beslutninger. Der er opstået et helt forskningsfelt omkring dette behov: explainable AI (XAI). Udover at det er teknisk svært at forklare hvordan disse anbefalinger/beslutninger bliver til, er der også en kognitiv/filosofisk udfordring: Hvad forstår vi som mennesker ved en god forklaring? En oversigtsartikel over svar på dette spørgsmål er Millers ’Explanation in artificial intelligence: Insights from the social sciences’ (link).  

Problemformulering eller arbejdsspørgsmål

  • Hvad forstår vi som mennesker ved en god forklaring? 
  • Hvordan kan moderne AI-systemer baseret på dyb læring balancere teknisk kompleksitet med behovet for forståelige begrundelser? En udforskning af metoder og udfordringer inden for Explainable AI (XAI)
  • Brugen af kognitive og psykologiske principper i udviklingen af forklarbar AI: Hvordan kan viden om menneskelig tænkning og beslutningsprocesser informere designet af AI-systemer, der kan forklare deres egne beslutninger?

Metodiske tilgange:

  • Et håndterligt projekt om XAI har brug for en case, der konkretiserer problemstillingen og for eksempel gør det muligt at interviewe informanter om hvad de i den konkrete sammenhæng forstår ved en god forklaring.

I kan måske finde en case i KMDs udvalg af AI-løsninger (link). KMD er selv opmærksomme på, at AI skal kunne forklare sig (link). 

STS perspektiver:

  • Actor-Network Theory (ANT)
  • Ethnography of Technology
  • Posthumanism



Applications are closed.

Open For
  • Students

Special requirements

HUMTEK 3. semster 2023

Offerings
  • Mentorship

SDGs
Contact person
Co-mentors

Your AI Matches

To navigate
Press Enter to select