Virginia Dignum är programdirektör för WASP-HS och professor för social och etisk AI vid Umeå universitet.
De senaste dagarna har jag fått flera frågor om vad artificiell intelligens kan bidra med till analysen av den aktuella situationen med coronapandemin och hur AI kan hjälpa till med att ge förståelse för de möjliga effekterna av politiska åtgärder som införs, t.ex. lokal eller nationell nedstängning, karantän eller social distansering. Och inte minst hur AI kan göras ansvarsfullt.
Till att börja med skulle jag vilja betona att AI verkligen kan bidra till att förstå den aktuella situationen. Därför har AI-forskare och AI-proffs ett ansvar att just nu använda vår expertis för att analysera och förstå spridningen av coronavirus, de möjliga effekterna av politik som förs, den långsiktiga påverkan på samhället och ekonomin och andra liknande frågor. Men för att göra detta på ett ansvarsfullt sätt är det viktigt att vara öppen och tydlig om vad AI kan och inte kan göra. Som jag ofta betonar är AI inte magi och inte heller en lösning på alla våra problem. Några av de viktigaste kraven för ansvarsfull utveckling och användning av artificiell intelligens inkluderar robusthet, öppenhet och respekt för mänskliga rättigheter och principer.
För det första måste systemen vara robusta. Vi måste titta noga på de tekniker och metoder som används. Speciellt är användningen av datadrivna metoder för att förutsäga spridningen av coronavirus potentiellt problematisk. Dessa metoder ”lär sig” genom att korrelera data från det förflutna men för tillfället har vi inte tillräckligt med data om situationer som denna. Resultat från det förflutna är ingen garanti för framtiden, särskilt när framtiden ser ut att vara så mycket annorlunda än vad vi känner från det förflutna.
Dessutom är den lilla information som finns tillgänglig ofullständig och partisk. Till exempel är det säkert att det finns många fler smittade personer än de som har bekräftats, och att det inte finns en fullständig redovisning av dem som har återhämtat sig. Att använda befintliga data för maskininlärningsmetoder kan leda till många falska negativa och falska positiver. Den nuvarande situationen kan vara ett fall där modelldrivna metoder är mer lämpade än datadrivna. Det finns också flera grupper som för tillfället arbetar med (agentbaserade) simuleringar. Valet av modeller måste dock grundas på klok forskning inom epidemiologi, sociologi och psykologi, tillsammans med lämpliga beräkningsrepresentationer. Denna typ av modeller tenderar att vara känslig för antaganden om design och initiala parametrar. Innan man föreslår dessa system för att stödja beslutsfattare måste tester av känslighetsanalys genomföras. Ur ett forskningsperspektiv är arbetet med hybridmetoder som kombinerar datadriven och modellstyrd särskilt viktigt att arbeta med just nu.
I båda fallen, vare sig det är datadriven eller modelldriven metod som används, krävs transparens. Vilka modeller och datasätt har använts och varför, vilka experter har konsulterats, hur har systemet testats och utvärderats … Utan uttryckliga svar på dessa frågor kan resultat inte vara att lita på. Där vi nu befinner oss har världen inte råd att fatta beslut baserade på black boxes, ”svarta lådor”. Om ditt system inte kan förklara sina resultat, tänk en extra gång innan du överväger att använda det för att ge någon analys eller prognos på pandemin. Samtidigt är det viktigt att rekommendera att AI används för att stödja identifiering av falska nyheter och begränsa spridningen av sådana nyheter.
Som medel för att kontrollera pandemin utvecklas för närvarande många appar för att samla in data om individer, deras tillstånd och deras rörelser. Även om vi kan vara överens om att sådan information är avgörande för beslut som regeringar och lokala myndigheter behöver ta och är av stort värde för utvecklingen av AI-verktyg, får vi inte glömma den grundläggande respekten som måste finnas med för mänskliga rättigheter, etiska principer och befintlig lagstiftning. Kampen mot pandemin innebär inte att mänskliga rättigheter kan glömmas. Rätten till integritet och respekt för mänsklig värdighet är fortfarande något som i hög grad måsta gälla. Att säkerställa korrekt datahantering och säker lagring är kanske ännu viktigare nu när människor i många länder har tappat en del av sina friheter. Det betyder inte att dessa appar inte kan utvecklas och användas, men det måste göras enligt de etiska standarderna för forskning. Att bibehålla medborgarnas förtroende vid en kristid som den vi står inför nu måste prioriteras högt. Detta inkluderar respekt för behandling av personuppgifter. Med tanke på situationens allvar skulle jag emellertid vilja se att forskningsetiska styrelser prioriterar och snabbar på behandlingen av ansökningar rörande projekt som syftar till att stödja kontrollen av pandemin.
Slutligen måste vi säkerställa rättvisa och inkludering. Systemen som utvecklas bör vara tillgängliga för alla och beakta de samhälleliga och kulturella skillnaderna i de olika berörda länderna. Nu är det dags för open source och open access. Vi är i detta tillsammans, låt oss se till att alla kan använda och dra nytta av allt stöd som AI kan ge.