Plagiat eller inte?
Det är ibland svårt att avgöra om texter skapade av generativ articifiell intelligens (AI), eller andra verk skapade med hjälp av AI-baserade verktyg, är genuina original skapade av den som använder AI-verktyget, eller om det i själva verket är kopierat från den stora mängden träningsmaterial som använts för att skapa AI-verktyget.
I exemplet med en hemtentamen, en uppgift som innefattar eget arbete eller andra uppgifter som kräver att studenten skapar, bearbetar, reviderar och färdigstället sitt verk i en miljö som inte är helt under lärarens, examinators eller tentamensvakternas kontroll kan det kännas problematiskt att veta om studenten själv har producerat eller inte. Det finns AI-baserade verktyg som kan producera en akademisk text på en mycket hög nivå, och kostnaden är inte större än att köpa en professionellt skriven uppsats. Men är en genererad text att betrakta som plagiat?
Sammanfattning
Oftast kan inte genererad text ses som plagiat, men det kan fortfarande vara fusk.
Intellektuell egendom
För att besvara frågan kan vi, i brist på tydliga regelverk inom högre utbildning i Sverige, delvis besvara frågan genom att undersöka konceptet intellektuell egendom (IP). Företaget OpenAI, som skapade den numera beryktade AI:n ChatGPT som är en generativ typ av AI, beskrivs i ett svar från Europakommissionens IP Helpdesk. Svaret är att en AI kan inte äga intellektuell egendom, och företaget frånsäger sig äganderätten på det som genererats. Därför äger den som instruerat AI-verktyget det som genererats. Det innebär också att ansvaret faller på den som instruerat AI:n. Även om, vilket är osannolikt, texten eller verket skulle visa sig vara plagierat på ett spårbart sätt, är alltså den som instruerat AI:n ansvarig. Frågan är komplicerad, men generellt kan man säga att genererad text, från en generativ AI, inte är att betrakta som att den tillhör AI:n. Det kan så klart skilja beroende på vilket avtal användaren har med leverantören, men överlag kan inte en AI anses kunna äga immaterialrätt eller intellektuell egendom. Du kan läsa mer om de specifika bestämmelserna under punkt 15 i European Parliament Resolution of 20 October 2020 on Intellectual Property Rights for the Development of Artificial Intelligence Technologies.
Anledningen till att det är väldigt låg sannolikhet för att en AI-genererad text, till exempel, skulle markeras av plagiat i antiplagieringsverktyg som Ouriginal, är att det inte är så AI:n fungerar. Den genererar sällan text genom att kopiera, utan snarare genom att skapa nya meningar och stycken utifrån de språkmönster den identifierat i träningsdata.
Generativ AI, som GPT (Generative Pre-trained Transformer), fungerar genom att träna på stora mängder data för att lära sig mönster och generera ny text baserat på denna träning. GPT har inga egna kreativa tankar eller avsikter utan genererar snarare text baserat på mönster som den har lärt sig från sina träningsdata. Därför kan man hävda att ansvaret för eventuell plagiering ligger hos skaparna eller användarna av AI-modellen, snarare än hos AI:n själv.
Däremot kan det ses som oetiskt (enl. bland annat Europakommissionen) att använda AI på ett sätt som inte är transparent. Se sidan Etiska riktlinjer. Det är jämförbart med att dölja delar av metoden i ett metod-avsnitt i en uppsats eller avhandling.
Definitionen av plagiat
På JU regleras vad som är att betrakta som akademiska disciplinära förseelser i styrdokumentet Disciplinära åtgärder vid Jönköping University (JU 2022/5173-113 § 90, Bilaga 8). Texten handlar om disciplinära åtgärder vid Jönköping University (JU) och fastställer bestämmelser för att motverka fusk, främja ett gott uppträdande och aktivt bekämpa trakasserier. Det betonas att Stiftelsen Högskolan i Jönköping ansvarar för att inrätta en disciplinnämnd och fastställa föreskrifter för disciplinära åtgärder, inklusive avskiljande. Bestämmelserna beskriver vad som utgör disciplinära förseelser och vilka disciplinära åtgärder som kan vidtas, såsom varningar och avstängningar.
I textens beskrivning av förseelser (punkt 11) nämns inte plagiat uttryckligen. Nedanstående förseelser finns beskrivna:
(i) Om en Student med otillåtna hjälpmedel eller på annat sätt försöker vilseleda vid prov eller när en studieprestation annars ska bedömas,
ii) Om en Student stör eller hindrar undervisning, prov eller annan verksamhet inom ramen för utbildningen vid JU,
(iii) Om en Student stör verksamheten vid JU:s bibliotek eller annan inrättning inom JU,
(iv) Om en Student utsätter en annan Student, Deltagare, Studerande eller en arbetstagare vid JU för sådana trakasserier eller sexuella trakasserier som avses i 1 kap 4 § diskrimineringslagen (2008:567).
Utifrån tidigare nämnt perspektiv, att det kan anses som oetiskt och motsatt god akademisk integritet att försöka dölja eller vilseleda på ett sådant sätt som framställer en AI:genererad text som att den är producerad av studenten själv med andra medel, utan hjälpmedel, är det alltså en disciplinär förseelse att använda AI-verktyg - om det står tydligt uttryckt i uppgiften att det inte är tillåtet. För att lära dig mer som hur du kan skapa instruktioner som förebygger fusk samt försvåra och upptäcka otillåten användning av AI, se förslag och förklaringar på sidorna Instruktioner som förebygger och Försvåra och upptäck otillåten användning av AI.
Källkoll: Studentens guide till att undvika plagiat
Sourcewise: A Student's Guide to Avoiding Plagiarism
Vidare kan vi också jämföra vad AI-verktyg kan göra (se sidan Artificiell intelligens) med beskrivningen av plagiat i Källkoll, ett verktyg för både studenter och lärare på JU. Det blir då tydligt att AI-verktyg kan plagiera, men att det också är högst sannolikt att det som producerats inte är att betrakta som plagiat. Huvudresonemanget är att AI-verktyg inte kan betraktas som författare till en text.
Definitionen av plagiat i Källkoll är "Att plagiera kan till exempel innebära att man i en skriftlig inlämningsuppgift använder andra författares formuleringar utan att ange källa. Det kan också handla om att man använder andras datorkod eller experimentresultat som sina egna eller att man i ett designarbete utvecklar en produkt som alltför mycket liknar originalet man inspirerats av (Carroll & Zetterling, 2009). Att lämna in någon annans arbete som sitt eget är en grov form av plagiering."
Källkoll har under 2024 utvecklats för att kunna ta större hänsyn till otillåten eller oetisk användning av AI. Läs gärna igenom den uppdaterade guiden!