Se upp med intersektionella hallucinationer

Vad händer när samhället matas in i en AI?

Det var temat på den föreläsning jag såg i höstas hos Kungliga Vetenskapsakademin. Ericka Johnson, professor i genus och samhälle vid Linköpings universitet, lyfte otroligt många spännande tankar när hon pekade på hur datamängder som samlats in eller skapats för att träna olika AI-modeller ofta har en inbyggd bias eller andra typer av brister som är viktiga att uppmärksamma.

Du kan se hela presentationen i efterhand. Det rekommenderar jag verkligen.

Här nedan kommer en kort summering

Vårt språk speglar historiska och kulturella värderingar, vilket skapar inbyggda bias (partiskhet). Trots tekniska försök att neutralisera könsbaserade ord i AI-modeller kvarstår bias eftersom språket präglas av normer och värderingar. Studier visar att försök att eliminera bias ofta misslyckas, eftersom AI lär sig de existerande samhällsstrukturerna.

Syntetisk data används för att skapa anonymitet och komplettera verkliga dataset men det kan i sin tur skapa nya problem, till exempel att avvikande datapunkter, eller ”edge cases”, försvinner och att viktiga minoriteter inte representeras korrekt. En studie med syntetisk data visade att vissa ”hallucinationer” (felaktiga representationer) är oundvikliga och kan förstärka ojämlikhet om de inte hanteras rätt.

Det saknas ofta tydliga regler kring bias inom AI-användning hos kommuner. Ericka Johnson rekommenderar att man genomför dataetik-workshops och att man utgår från Sveriges diskrimineringslagstiftning som grund för AI-biasdiskussioner.

Samhället måste ställa krav på transparens och ansvar, särskilt när AI används i offentliga verksamheter, enligt Ericka Johnson.

Lämna ett svar

Denna webbplats använder Akismet för att minska skräppost. Lär dig hur din kommentardata bearbetas.