Ett nytt chattverktyg har fått mycket uppmärksamhet. Det bygger på artificiell intelligens och skriver ”läskigt bra” och människolikt, enligt en del. Men hur smart är verktyget? Och blir det busenkelt att fuska med uppsatsen nu? Så här säger några forskare.
För ett par veckor sedan släppte företaget OpenAI en ny version av sitt chattverktyg, Chat GPT 3.5. Mer än en miljon användare har strömmat till sedan lanseringen i november 2022.
Tjänsten är än så länge kostnadsfri och har kallats ”Googledödare”, ”atombomb” och ”läskigt bra”.
AI-verktyget Chat GPT
Verktyget Chat GPT fungerar likt en chatt-konversation mellan människor. Verktyget kan hantera flera språk, även svenska. Användaren skriver en fråga och får ett svar tillbaka. Ställs en följdfråga fördjupar chattboten svaret. Den lär sig hela tiden, vilket gör att en standardfråga ställd vid två olika tidpunkter inte besvaras på samma sätt.
Källa: Stockholms universitet
Martin Henkel, docent vid Institutionen för data- och systemvetenskap vid Stockholms universitet, är en av dem som har testat verktyget.
Forskare imponerade
– Det är faktiskt riktigt imponerande hur chattboten får ihop sammanhängande texter med relevant innehåll. Jag skulle säga att Chat GPT är bra för att skapa korta sammanfattningar, den visar helt enkelt de viktigaste begreppen i ett ämnesområde. Nivån den klarar är i alla fall som den första introduktionsföreläsningen på en kurs.
Samtidigt formuleras farhågor: Hur ska vi veta, framöver, om vi pratar med en människa eller något annat? Blir vi människor dummare när den artificiella intelligensen blir smartare?
Hercules Dalianis, professor vid Stockholms universitet, forskar om naturlig språkbehandling av text och har själv byggt modeller som hanterar och skapar text. Han ser inte Chat GPT som en revolution, snarare som ett naturligt steg i en lång utveckling.
– Man kan jämföra med utvecklingen inom maskinöversättningar. För 20 år sedan hade ingen kunnat drömma om att översättningarna skulle bli så bra som de är i dag. Nu tar vi det för givet. Om tio år är säkert chattbotarna så bra att vi använder dem utan att reflektera, säger Hercules Dalianis.
Ger nya möjligheter att fuska
Kvaliteten på svaren från Chat GPT har fått många att fråga sig hur vi framöver kan skilja på texter skrivna av människor respektive maskiner. Sedan lanseringen har sociala medier svämmat över av framtidsutsagor, poesi och nyhetsartiklar när användarna har testat chattverktygets förmågor. Sannolikt kan tekniken också användas för att fuska.
– Visst, en student som anstränger sig kan säkert få ihop en uppsats, säger Hercules Dalianis.
– Hen behöver i så fall skriva in flera frågor och sätta ihop styckena till en text. Men den kommer att innehålla en del konstiga grejer som måste redigeras bort, så det är inte alldeles enkelt att fuska – förutsatt att den som läser texten verkligen läser den ordentligt.
Verktyg som Urkund kan användas för att avslöja plagiat. Men i fallet med Chat GPT går den typen av verktyg inte att använda eftersom Chat GPT genererar nya texter. Problematiken är egentligen densamma när studenter anlitar spökskrivare till uppsatser. De texterna fastnar inte heller i plagiatkontroller.
På universitetet görs plagiatkontroller med Urkund eller med egna verktyg, säger Hercules Dalianis.
– Men som lärare måste man hela tiden kommunicera med studenterna och ställa frågor om innehållet i deras texter. Det är när jag träffar mina studenter som jag märker vad de kan.
Examination kan bli dyrare
Martin Duneld, universitetslektor vid Institutionen för data- och systemvetenskap vid Stockholms universitet, tror att den nya tekniken kommer att göra examinationen betydligt dyrare – för att säkerställa vem, och framför allt vad, som examineras.
– Tekniken har gått framåt oerhört mycket på kort tid nu, och jag tror att den kommer att fortsätta göra det. För att säkerställa att studenterna har lärt sig det vi vill att de ska kunna behöver vi bryta trenden med online-tentor. I stället bör vi gå tillbaka till övervakade examinationer på campus och betygsgrundande uppgifter som vi ser växa fram under kursens gång.
För några år sedan skickades en maskingenererad artikel in till en vetenskaplig konferens – och blev accepterad.
– Allt i artikeln såg rätt ut vid en snabb genomläsning. Det krävs en närmare granskning för att avslöja en fuskare. Jag vet inte om det finns verktyg som kan skilja mellan människors och maskiners texter ännu, men det lär annars komma inom kort. Det finns redan verktyg som kan detektera om en text är maskinöversatt eller inte, säger Hercules Dalianis.
Risk för rasistisk och kvinnofientlig slagsida
Ett verktyg som bygger på artificiell intelligens blir aldrig smartare än de data som verktyget matas med. Hur vet man att det som Chat GPT svarar stämmer? Det går inte att veta säkert, menar Hercules Dalianis.
Det finns också en risk att exempelvis rasistiskt eller kvinnofientligt material genereras av användare för att påverka chattbotens svar, på samma sätt som man i dag kan få upp ”onda” eller ”dåliga” webbsidor som Google hittar.
– Förr kunde bibliotekarier plocka fram lämpliga böcker åt oss. Biblioteken finns kvar men bibliotekarierna är i stort sett borta, och på internet är vi alla författare. Det är trevligt att ha tillgång till all information, men en sökmotor eller en chattbot är rätt korkad. Den kan inte avgöra vilken information som är viktig och bra, säger Hercules Dalianis.
Nya möjligheter för studenter
Jalal Nouri, professor vid Institutionen för data- och systemvetenskap, vill belysa pedagogiska möjligheter som AI-verktyg kan ge.
– Vi behöver fundera kring hur detta kan stödja elever i skrivprocessen, snarare än att enbart se det som en utmaning och risk. Jag känner personligen att det finns möjligheter att skapa motivation kring skrivande hos elever som annars inte är motiverade att skriva, säger Jalal Nouri.
Lästips 30-talet olika ämnen inom AI, korta avsnitt, free, pdf, video
Här kan du läsa och se forskning.ses serie om artificiell intelligens.
Press reelase www.forskning.se
Nyhetsinfo
www red DiabetologNytt