AI-teknologin måste gå att lita på

Debatt Den snabba utvecklingen inom artificiell intelligens ger stora utmaningar, vilket kan skada tilliten till AI, skriver fyra forskare. I en nyligen publicerad rapport har de presenterat såväl problemområden som förslag till lösningar.

Stefan Larsson, Fredrik Heintz, Li Felländer-Tsai och Anna Felländer
Stefan Larsson, Fredrik Heintz, Li Felländer-Tsai och Anna Felländer.

Att AI (artificiell intelligens) och den snabba utvecklingen inom maskininlärning kommer med enorma löften är idag vedertaget. Men om dess värden kommer att kunna realiseras på ett hållbart sätt är mer osäkert. Det beror bland annat på att etiska, sociala, och rättsliga dimensioner inte har integrerats och testats tillräckligt i forskning, utformning och implementering av AI-system. Det riskerar att leda till mindre tillförlitliga AI-applikationer och skada tilliten till AI överlag, något vi visar i den rapport som vi nyligen publicerade.

De fyra problemområden som vi har identifierat som nyckelområden för AI-teknologins fortsatta framgångsrika utveckling är:

1. partiskhet, även kallat ”bias”

2. ansvarsfrågor

3. missbruk och illvillig användning

4. transparens och förklarbarhet.

Genom att inventera kunskapsläget kring etiska, sociala och rättsliga utmaningar som finns kopplade till AI har vi identifierat centrala kunskapsbehov för vad vi kallar hållbar AI. Vi har lyft ett antal områdesfördjupningar inom tre sektorer där AI har haft särskilt stor betydelse under de senaste åren: vård och hälsa, telekom och digitala plattformar

Vi rekommenderar följande:

1. Förtydliga regleringarna. Det gäller såväl etiska ramverk som tolkning av rådande lagstiftning för delvis nya marknadspraktiker. Tillsynsmyndigheter behöver också stimuleras och utbildas för att kunna hålla jämna steg med utvecklingen och hantera AI som marknadstillämpad teknologi.

2. Satsa på flervetenskapliga perspektiv kring tillämpad AI för att nå mer kunskap om utmaningarna. Det gäller bland annat bias, ansvarsfördelning och vilken grad av transparens som är önskvärd för vilken kontext eller användning. AI:s komplexa uppbyggnad och dess implikationer för samhället kräver en djup förståelse inom olika vetenskapliga discipliner inom såväl teknikvetenskap, samhällsvetenskap, medicin som humaniora. Därför kräver forskning inom hållbar AI tvärvetenskapliga samarbeten både inom akademin samt mellan akademi, industri och offentlig sektor.

3. Stärk tilliten i samhället för AI. Tillitsfrågan är central om vi vill uppfylla de löften och värden AI kan medföra i sektorer som handel, finans samt hälso- och sjukvård i termer av individualisering, effektivisering och ökad precision i prognoser. Kunskapen kring samhällelig partiskhet och relationen mellan förklarbarhet/transparens och ansvarsfrågor är nyckelfrågor för tillit och behöver stärkas.

Stefan Larsson, jurist, rättsvetare och docent vid LTH, Lunds universitet, samt programchef för digitala samhället vid tankesmedjan Fores
Fredrik Heintz, docent i datavetenskap vid Linköpings universitet och medlem i EU-kommissionens High-Level Expert Group on Artificial Intelligence
Li Felländer-Tsai, professor i ortopedi vid Karolinska Institutet och överläkare vid Karolinska universitetssjukhuset
Anna Felländer, medgrundare av AI Sustainability Center, affilierad fakultet KTH och medlem i regeringens digitaliseringsråd

Läs rapporten.