Korrekturlæsning med ChatGPT – menneske vs. maskine

Der er næppe nogen med interesse for sprog, der ikke har hørt om ChatGPT. Selv driver jeg opgavekorrektur.dk og textservice.dk, der tilbyder akademisk korrekturlæsning, transskribering og oversættelse. Jeg er imponeret, men også skræmt over bottens evne til at rette tekster. Jeg husker tydeligt den dag i december 2022, da jeg første gang tjekkede botten. Det ødelagde mere eller mindre min juleferie. Alt det, jeg troede lå 20-30 år fremme i tiden, var med ét en realitet.

Spørger man ChatGPT selv, hvorfor den er så god til korrekturlæsning, svarer den:

chatgpt1

Man må give botten, at den er ærlig om sine egne begrænsninger. Eller måske der blot tale om påtaget (altså trænet) ydmyghed? For ChatGPT er god – den distancerer de traditionelle stave- og grammatikkontroller med enorme afstande. Men hvor god er den? Er der sprækker i panseret, hvor en angstfyldt korrekturlæser kan sætte nogle stød ind? Det vil jeg undersøge i denne artikel. Og indrømmet – vinklingen bærer nok i højere grad præg af angst end af begejstring. Det er trods alt mit levebrød, der er truet. Men lad os begynde med en kort indføring i, hvordan en sprogmodel som ChatGPT fungerer.

Data, data, data

Først og fremmest – som botten selv fremhæver i ovenstående citat – enorme mængder af data i form af tekster. Enorme betyder i denne sammenhæng ikke tusindvis af tekster eller millioner af ord. Nej, der er tale om mange millioner tekster og milliarder af ord, der ligger online og derfor tilgængelige for botten.

Når den skriver en tekst, er det fundamentale og mest afgørende et princip om sandsynligt næste ord. Botten vil – på baggrund af det enorme datakorpus af menneskesprog, den er trænet på – vælge det ord, som den formoder er det mest sandsynlige i den givne sammenhæng. Lad os eksemplificere.

Vi beder botten om at skrive et essay om litteraturens rolle i samfundet. Den indleder således: “Litteraturen har en vigtig rolle i samfundet, da den har potentiale til at påvirke menneskers …”

Menneskers hvad?

Ja, det ved botten dybest set intet om. Den har ikke nogen intention med det, den skriver, eller nogen bevidsthed om, at eller hvad den skriver. Den sprøjter bare ord i den rækkefølge, den er programmeret til.

Så hvad vælger den? Påvirke menneskers … formue, liv, reaktionsevne …? Den vælger det mest sandsynlige, ud fra hvad den kan genkende af sproglige mønstre. Det mest sandsynlige er ordet “liv”, fordi der er mange forekomster af frasen “påvirke menneskers liv” i det tekstkorpus, botten er trænet på, og fordi den har registreret, at ordene “formue” og “reaktionsevne” sjældent er repræsenteret i tekstuel nærhed med ordet “litteratur”.

Så alene ved hjælp af statistik og et kendskab til mønstre i menneske-sprog får den indledt essayet således:

chatgpt2

Man kunne næsten unde maskinen, at den forstod, hvad den skrev, for det er jo bestemt en stærk åbning på et essay om litteraturens betydning. Sandsynligt næste ord er altså – groft forenklet – det basale princip i en sprogmodel som ChatGPT. Det er det samme princip, der gør botten i stand til at rette og omformulere tekster.

Men chatbotten er i tillæg kodet med grammatiske regler, fx om kommatering, ords bøjning og ordstilling, der gør den i stand til at formulere korrekte og meningsfulde tekster. Og den ved, hvordan ord staves. Når botten har set 1 million forekomster af ordet “grim”, men kun 3 forekomster af formen “græm”, er det ikke svært for den at vælge formen “grim”. Den ved ikke, at ordet “græm” er forkert. Den ved kun, det er meget usandsynligt.

Sprogforståelse eller ej!

ChatGPT har en imponerende sprogmotor. Men den er grundlæggende ikke designet til korrekturlæsning og tekstredigering. Derfor er der en række begrænsninger ved at bruge den til de formål. Lad os se på begrænsningerne én efter én.

ChatGPT registrerer ikke ændringer

Når en menneskelig korrekturlæser arbejder med en tekst i Word, kan man rette med track changes (registrer ændringer). Det betyder, at tekstens forfatter, så snart han modtager den færdige korrektur, med det samme kan se, hvilke rettelser der er blevet foretaget hvor i teksten.

ChatGPT har ikke en tilsvarende funktion. Den retter simpelthen bare – og så må man selv finde ud af, hvilke rettelser den har foretaget ved at sammenholde originalteksten med den rettede tekst. Det kan være et ret omfattende arbejde, og orker man det ikke, går man naturligvis glip af den læring, der ligger i at kunne se, hvad der er blevet rettet.

Begrænset tekstmængde

Skal du have rettet store tekstmængder, giver det problemer. Chatbotten håndterer – indtil videre – kun tekster af 3-4 sider. Det er derfor et omstændeligt arbejde at få den til at rette et speciale på 80 sider. Det kræver en del klippen og klistren.

ChatGPT har brug for meget specifikke kommandoer

ChatGPT reagerer på de kommandoer, man giver den, og det er langtfra ligegyldigt, hvilken kommando man vælger, når man vil have den til at korrekturlæse en tekst.

Det kan man illustrere med et eksempel. Betragt følgende tekstuddrag:

“Om mere leg kan være en løsningen på den stigende mistrivsel eller have en positiv indflydelse på det præstationspres nogle oplever, synes jeg kan være interessant at undersøge, jeg har dog ikke en forventning at legen kan stå alene, men jeg vil se ind i hvad legen kan gøre for trivslen og undersøge hvordan en legende tilgang kan bidrage til børn og unges udvikling.”

Hvis ChatGPT får kommandoen “korrekturlæs”, og man indsætter ovenstående tekstuddrag, giver den følgende output:

chatpgt3

Som det fremgår, har botten gjort mere end bare at korrekturlæse teksten. Den har skrevet hele sætninger om (bl.a. ved at ændre syntaksen), og den har valgt andre ord i stedet for de oprindelige, fx ved at erstatte ”se ind i” med “se nærmere på” og “bidrage til” med “påvirke […] positivt”. Pointen her er ikke, om ændringer har forbedret teksten eller ej. Pointen er, at ChatGPT har foretaget en række ændringer, som man måske slet ikke ønsker, fordi man er tilfreds med afsnittets overordnede ordvalg, syntaks og struktur. Giver vi i stedet ChatGPT kommandoen “korrekturlæs uden omskrivning”, genererer den følgende version:

chatpgt4

Her er der tale om en mere ”klassisk” korrektur. ChatGPT har rettet stavefejl og tegnsætningsfejl og indsat manglende ord. Så har den godt nok også ændret “se ind i” til “se nærmere på”, men det er stadig en rettelse, som er mere i tråd med afsnittets stilleje og tone end den første korrekturversion.

Generelt forholder botten sig dog ganske afslappet til den kommando, den får. Beder man den om følgende: “Ret sprogfejlene i denne tekst: [teksten indsættes her]” vil den omskrive hele teksten, selvom inputtet var fejlfrit. Vil man være helt sikker på, at ChatGPT holder fingrene fra tekstens ordvalg, syntaks og struktur, skal det skæres ud i pap, fx “Ret følgende tekst. Du skal kun rette de formelle fejl.”

Det er altså afgørende, at man anvender meget specifikke og instruktive kommandoer, når man skal bruge ChatGPT til korrekturlæsning. Ellers gør den bare, hvad der passer den.

Forsigtighedsprincip og manglede kommentarfunktion

Som det fremgår af forrige afsnit, skelner ChatGPT ikke mellem regulære fejl (f.eks. stavefejl, tegnsætningsfejl og kongruensfejl) og forslag til forbedringer, sproglig opstramning, større klarhed m.m., medmindre man eksplicit beder den om det. Hvis man vil bruge ChatGPT til korrekturlæsning, skal man altså gøre op med sig selv, om man ”blot” vil have den til at rette tekstens formelle fejl, eller om man også vil have den til at skrive sætninger om og udskifte ord. ChatGPT har ingen kommentarfunktion ligesom Word: Enten retter den kun formelle fejl, eller også foretager den alle de ændringer, den har lyst til – uden hensyntagen til andet, end hvad den selv finder passende.

I modsætning hertil vil en menneskelig korrekturlæser være mere varsom med at foretage ændringer direkte i teksten. I mange tilfælde vil han, hvis han støder på noget, som han finder problematisk, skrive en marginkommentar og gøre opmærksom på problemet – evt. ledsaget af et omformuleringsforslag. Det er en slags forsigtighedsprincip, med hvilket den menneskelige korrekturlæser udviser respekt for forfatterens oprindelige vision.

En menneskelig korrekturlæser vil også i mange tilfælde skrive marginkommentarer, hvis sproget eksempelvis virker selvmodsigende, tvetydigt, redundant, postulerende med videre. Det kan en maskine ikke.

Stærk i den formelle korrektur, men ikke fejlfri

ChatGPT korrekturlæser generelt på et højt niveau, men i dens nuværende format er det tvivlsomt, om den kan erstatte en menneskelig korrekturlæser. Botten retter de fleste formelle fejl og udbedrer også flere stilistiske mangler i teksten, men den kan ikke måle sig med den menneskelige korrekturlæser.

ChatGPT er generelt meget god til at rette en teksts formelle fejl, dvs. stavefejl, slåfejl, tegnsætningsfejl og kongruensfejl. Men den kan også godt foretage forkerte rettelser, dvs. rettelser, som ikke er i overensstemmelse med dansk retskrivning, eller overse fejl.

Botten har fx vanskeligheder med særskrivning, dvs. sammenskrivning af substantiver. Beder vi den om at rette sætningen ”jeg foretager en follow up undersøgelse”, retter den til ”jeg foretager en follow-up undersøgelse”, selv om den korrekte form ifølge Retskrivningsordbogen er ”followupundersøgelse” i ét ord.

ChatGPT har også vanskeligheder med komma, fx i sætningerne her:

  • I både Hanne og Pers tilfælde var der en mangel på bevidsthed og forståelse for PICS, da de ikke modtog tilstrækkelig information om risikoen for PICS og hvad der kunne vente dem efter udskrivelsen
  • Videnskabsteoretikeren Dagfinn Føllesdal (1932-) argumenterer for at anvende den hermeneutiske cirkel som en hypotetisk-deduktiv metode, hvor man afprøver udlægninger af et spørgsmål som danner rammen om en hypotese for at forsøge at forstå mennesket og dets handlinger (Jacobsen et al., 2018).
  • Jeg vil undersøge, hvad legen kan gøre for trivslen og hvordan en legende tilgang kan bidrage til børn og unges udvikling.

En professionel korrekturlæser af kød og blod vil aldrig overse kommafejlene i de tre sætninger. Men kan man leve med et begrænset antal fejl, er botten et godt alternativ til en professionel korrekturlæser.

ChatGPT har ingen sprogforståelse

Det er en tilsnigelse at kalde en sprogmodel som ChatGPT for AI, altså kunstig intelligens. Intelligent er den ikke, gudskelov. ChatGPT er fodret med et stort datamateriale, som gør den i stand til at ”syntetisere” et svar ud fra det input, den får. Men heri ligger problemet: Den ”tænker” ikke selv, den sammenstykker blot på baggrund af det, den er blevet ”fortalt”. Det resulterer i, at ChatGPT ikke begrunder de rettelser, den foretager. Forsøger man alligevel at få den til at gøre det, risikerer man at få et upålideligt svar.

Et eksempel: Vi beder ChatGPT om at rette ordstillingsfejlen i sætningen ”det for mig er vigtigt at hoppe højt” og begrunde rettelsen. Det resulterer i følgende ”begrundelse”:

chatgpt5

Dette er vrøvl. ”Højt” er ikke objekt i sætningen, ”hoppe” er ikke sætningens verballed, og ”højt” er slet ikke placeret før ”hoppe”. Den egentlige fejl, nemlig placeringen af præpositionsleddet ”for mig”, adresserer den slet ikke. Vi kan selvfølgelig ikke vide, hvad ChatGPT baserer sin ”begrundelse” på, men det er tydeligt, at syntesen i dette tilfælde er slået fejl. Den foretager ganske vist den korrekte rettelse, men den kan ikke forklare, hvorfor den gør det.

Læg hertil, at den ikke er konsistent (den har begrænset hukommelse) og giver en ny ”begrundelse”, hver gang vi spørger efter det, og det bliver tydeligt, at den ikke ved, hvad den taler om. En sprogmodel som ChatGPT kommer også til kort, når den skal rette sproglige fejl, der kræver en forståelse af indholdet. Vi giver den følgende input:

input

Botten giver følgende output:

chatgpt6

Botten sætter komma mellem “irriterende” og “anstrengende”, og det er forkert i denne kontekst, hvor det netop ekspliciteres, at “irriterende” beskriver “anstrengende”. Der skal ikke komma efter et adverbium, der beskriver et adjektiv. Hvis man spørger botten, hvorfor den har sat komma mellem “irriterende” og “anstrengende”, svarer den: “… fordi der er tale om to adjektiver, der begge beskriver personens opførsel, og som har forskellig betydning”.

Det er måske for meget at forlange, at en sprogmodel inddrager og forstår konteksten i sin kommatering, men ikke desto mindre: En sprogmodel som ChatGPT har dybest set ingen sprogforståelse.

Derfor er den heller ikke pålidelig, når den omformulerer tekster. Den kan ikke forstå, hvad den selv skriver, og den ved derfor ikke, om det, den skriver, er nonsense – den “ved” kun, at det sandsynligvis giver mening for en menneske-læser.

Der er derfor al mulig grund til, at man går bottens korrekturarbejde grundigt efter i sømmene.

Fra tekster med personlig stemme til generisk sprog

Et menneske skriver i sin egen stil. Man har en særlig sproglig signatur, der giver teksten sin egen stemme. Det gælder også for akademiske tekster. Når man beder ChatGPT om at korrekturlæse en tekst, tager den som tidligere beskrevet grundigt fat. Den omskriver, som den lyster.

Hvis man beder botten om at korrekturlæse sin tekst, skal man derfor være afklaret med, at tekstens sproglige særpræg erstattes af et generisk, konformt og standardiseret sprog, som enhver læser – herunder også bedømmere på de videregående uddannelser – vil kunne genkende som chat-lingo på kilometers afstand.

Det er en logisk følge af at være en sprogmodel, der baserer sig på statistik og mønstre. Når modellens motor arbejder ud fra et princip om forudsigelse, bliver sproget i sagens natur forudsigeligt – og derfor genkendeligt. Enhver form for originalitet og personlig stemme skrives derfor ud af teksten, når man beder ChatGPT om at bearbejde den sprogligt.

Overvej følgende

Og nu til konklusionen. ChatGPT har nogle begrænsninger, og den er ikke pålidelig som en professionel korrekturlæser af kød og blod.

Men den er god, ingen tvivl om det, og det, den kan, vil være rigeligt for mange. Den er også meget hurtig og billig, så derfor er det vel også urimeligt at kræve, at den skal være lige så god som en professionel menneskekorrekturlæser. Men bruger man botten til korrekturlæsning, skal man overveje følgende:

  • Er der GDPR-issues ved at uploade sin tekst til en amerikansk server?
  • Er man indstillet på at klippe sin tekst op i stumper og stykker og køre stumperne gennem botten stykvis for til slut at samle delene i et dokument?
  • Kan man acceptere, at man ikke kan se, hvad botten retter, og hvilke ændringer den foretager?
  • Kan man acceptere, at man ikke får marginkommentarer, der fx påpeger en sproglig tvetydighed, rummer et forslag til omformulering eller påpeger uklart sprog?
  • Er man så sproglig habil, at man kan kvalitetstjekke bottens arbejde med grundkorrekturen?
  • Hvis botten omformulerer, er man så i stand til at vurdere, om omformuleringen er præcis og i tråd med intentionen?
  • Kan man acceptere, at sproget omdannes til en særlig generisk, konform bot-lingo, der kan genkendes på lang afstand?

Overvej det lige?

Men jeg ved godt, at menneskelig korrekturlæsning lever på lånt tid. Når først sprogmodeller som ChatGPT integreres i tekstbehandlingsprogrammerne, er det nok endegyldigt slut.

 

Jan Boysen Billund er lektor på Kolding Gymnasium og ejer af Textservice, der tilbyder korrekturlæsning, transskribering og oversættelse.

Skriv en kommentar