News

Att bedriva forskning med AI: Förändrade akademiska praktiker och forskarutbildning
Published: februari 27, 2026

Vilka är lämpliga sätt att använda artificiell intelligens (AI)‑verktyg när man genomför forskning? Hur sätter man upp ett bra samtal mellan handledare och studenter kring förväntningar på användning av AI‑verktyg i avhandlingsproduktion? Dessa frågor utforskades under den senaste WASP‑HS‑workshopen ‘Critical AI in Higher Education’, och de involverade forskarna välkomnar nu vidare engagemang.

Har du någonsin använt generativ AI, såsom Copilot eller ChatGPT, för att hjälpa dig skriva ett abstract till en konferens? Använder du AI‑verktyg för att analysera dina data? Eller söka efter litteratur för en scoping review? Gör du glatt allt detta redan, eller ryser du av skräck vid tanken? Denna typ av frågor om användningen av AI‑verktyg (och särskilt generativa AI‑verktyg) blir allt vanligare inom forskarsamhället och leder ofta till livliga debatter om gränserna för ‘god’ akademisk praxis.

Att engagera sig i dessa frågor är avgörande för ett community som strävar efter ‘att öka förståelsen för hur AI påverkar mänsklighet och samhälle’, vilket WASP‑HS gör. Men under tiden som programmet har pågått har vi också sett utrullningen av generativa AI‑verktyg på oväntade och tankeväckande sätt. Vilket betyder: AI är inte längre bara vårt forskningsobjekt, utan också medlet för att utföra vår forskning. Eller åtminstone skulle det kunna vara det om vi ville.

Talk, Trust, Time and Transparency

Vid en nyligen genomförd workshop vid WASP‑HS Winter Conference samlades doktorander och handledare för att diskutera utmaningar och begränsningar med att använda AI‑verktyg för att genomföra vår forskning. Inledande vägledning i ämnet och policyer för användning av generativ AI vid Lunds universitet presenterades och diskuterades i en panel mellan Elin Sporrong, Anna Foka, Rachel Forsyth och Eva Åkesson.

Rachel Forsyth och Eva Åkesson delade sina erfarenheter av att samla in information och formulera ett set av riktlinjer för användning av generativ AI. De talade om principerna Trust, Time och Transparency som vägledde deras arbete med att utveckla policy, och betonade vikten av att handledare modellerar de typer av AI‑kunniga beteenden som de skulle vilja se hos sina studenter. Som en del av detta noterade de ett behov av att universiteten erbjuder de stödstrukturer som är nödvändiga för att möjliggöra detta.

Anna Foka och Elin Sporrong lyfte mer praktiska utmaningar och talade om erfarenheter av att få texter reviderade eller skrivna med ChatGPT, om förväntningarna inom olika discipliner och om hållbarhetsfrågan. Deras reflektioner lyfte också maktens roll – hur mycket handlingsutrymme har till exempel doktorander att sätta agendan i frågan om användning av AI‑verktyg?

Betydelsen av att prata (ett fjärde ”T” att lägga till Trust, Time och Transparency) om AI‑verktyg – både med kollegor och medstudenter som del av en lärandedialog, men också mellan handledare och studenter för att sätta upp förväntningar – var ett tydligt resultat från panelen, och detta fördes vidare in i gruppövningen som ägde rum i workshopens andra del.

Ansvar, öppenhet risker och styrkor

Gruppen delades upp i studenter och handledare, och – utrustade med ett set av exempel på generativ AI‑användning från Rachel Forsyth och några uppmaningar från organisatörerna – uppmuntrades att diskutera hur en mall för ett samtal kring användning av generativa AI‑verktyg skulle kunna se ut. Diskussionerna i de två grupperna drevs av frågor som: ‘När bör ett samtal mellan handledare och student äga rum?’ eller ‘Vem bör starta dessa samtal (handledaren, studenten, forskarutbildningsansvarig?)’ och även ‘Var bör dessa samtal hållas: i formella organisatoriska möten på fakultets‑/institutionsnivå, eller snarare informellt i handledningsmöten?’.

När de två grupperna återsamlades för att presentera de viktigaste diskussionspunkterna framträdde några intressanta skillnader och likheter. Studenter formulerade sina samtal kring aspekter av ansvar och öppenhet som en del av ett gemensamt arbete för att använda AI‑verktyg för att utveckla en mer kritisk hållning. Handledare fokuserade istället sina samtal på hur man diskuterar risker och fördelar med AI, och vilket ‘akademiskt’ bord som bäst lämpade sig för att dela information med studenter.

Bidra till konversationen

Under hela workshopen påpekades att WASP‑HS har möjlighet att knyta samman samtal mellan universitet och jämföra policyer och riktlinjer som håller på att formuleras. Samtidigt reflekterade många av de närvarande över de olika disciplinära förväntningarna kring att bedriva forskning, och hur AI‑verktyg passar (eller inte passar) in i denna bild. Det var tydligt att WASP‑HS‑communityt är en plats där spetskompetens om AI kan mötas med epistemologiska och metodologiska frågor om att bedriva forskning i en tid där AI‑verktyg spelar en aktiv roll i processen.

Vi vill fortsätta samtalet om att bedriva forskning med AI, och vi varmt välkomnar dig att delta. För detta har vi skapat en mejllista för att möjliggöra dialog. Vänligen mejla Katherine Harrison (katherine.harrison@liu.se) och Valentina Fantasia (valentina.fantasia@lucs.lu.se) för att lägga till ditt namn på vår mejllista.