News

Tillit och transparens inom AI

Published: January 9, 2020

Stefan Larsson, Lunds universitet, är projektledare för WASP-HS projektet AI transparency and consumer trust. Projektet fokuserar på konsumenter – i princip alla av oss när vi befinner oss på en marknad – och hur vi litar på AI-system som vi interagerar med eller rentav blir utsatta för, nu och i framtiden.

Vad innebär det att vara en del av WASP-HS?

Först och främst vill jag betona betydelsen av forskningsprogrammet i sig och att det finns ett stort behov av att bättre förstå AI:s samhällsimplikationer. Som samhällsvetenskaplig teknikforskare och jurist har jag följt och i viss utsträckning bidragit till den växande kunskapen inom detta multidisciplinära område – till exempel de etiska, sociala och rättsliga frågorna kring AI och autonom teknik. Men jag har också sett utmaningarna med att få denna typ av samhällsvetenskaplig och humanistisk forskning ordentligt finansierad.

När AI med dess teknologier och metoder har ökat i precision och användbarhet har AI-system blivit mer tillämpade och implementerade – demokratiserade, kan man säga – vilket oundvikligen reser ett stort antal utmaningar kopplade till dess potentiella fördelar.

Hur vi möter dessa utmaningar, menar jag, kommer att definiera hur vi som samhälle kan lyckas med att använda dessa tekniker och metoder framöver. Utan tvekan är de normativa och etiska frågorna inte bara relevanta för implementeringen av AI utan också för utvecklingen av AI. Det innebär att det i grunden finns ett stort behov av ett flervetenskapligt tillvägagångssätt, inte bara som något som läggs till i efterhand.

På en mer personlig nivå ger WASP-HS mig en chans att utveckla en tvärvetenskaplig forskargrupp i gränslandet mellan ny teknik och samhälle. Tillsammans med biträdande projektledare Fredrik Heintz, datavetare vid Linköpings universitet, vill jag utveckla en miljö som kan öka förståelsen mellan olika discipliner och kombinera de bästa och mest relevanta aspekterna av juridisk, social och teknisk kunskap inom AI-området relaterat till tillit och transparens.

Vad vill du bidra till?

Vårt projekt fokuserar på konsumenter – i princip alla av oss när vi befinner oss på en marknad – och hur vi litar på AI-system som vi interagerar med eller rentav blir utsatta för, nu och i framtiden. Det handlar särskilt om transparensfrågan, hur vi kan öka förståelsen i vardagen och vilken typ av förklaringar som behövs för att skapa rättvisa och ansvarsfulla användningsområden. Det inkluderar även styrning över konsumentmarknader ur ett rättsligt perspektiv, något som inte minst tillsynsmyndigheterna i allt högre grad träffas av.

Vi vill naturligtvis bidra till utveckling av god lagstiftning, särskilt för att konsumentmarknaderna ska bli tillräckligt transparenta när det gäller datahantering och automatisering. Dessutom, och bortom konsumentområdet, ser jag frågor om transparens som ett nyckelvärde som kan diktera möjligheterna för andra värden, exempelvis ansvar och möjlighet att upptäcka orättvisa rutiner eller resultat. Transparens är aldrig en enkel heltäckande lösning utan ett mångfacetterat koncept som kräver god balans mellan olika intressen.

Det är därför jag hoppas att vi ska kunna bidra till relevant kunskap också för andra användningsområden, till exempel inom hälso- och sjukvård, utöver det specifika konsumentfokus som detta projekt har.

Mer om projektet: AI transparency and consumer trust
Läs mer om Stefan Larsson, Lund University

Doktorandtjänster kopplade till projektet:

  1. Doctoral student project with social scientific focus on AI Transparency and Consumer Trust
  2. Doctoral student project with legal focus on AI Transparency and Consumer Trust

Foto: Sara Arnald

Recent News