Academici zien AI-programma ChatGPT als ideale schrijfhulp voor wetenschappelijke artikelen. Dat kan best, zij het op een verantwoorde manier. Maar onderzoekers steggelen over waar de grens ligt voor redelijk gebruik. Dilemma’s duiken op, zoals die van gemak en tijdbesparing versus het risico op plagiaat en hoge energiekosten. Wetenschapsjournalist Jean-Paul Keulen schreef er een goed verhaal over in de meest recente Skepter (nummer 37.3, september 2024).
Het artikel bespreekt de toenemende inzet van AI-chatbots zoals ChatGPT in wetenschappelijke artikelen en de zorgen daarover. Hoewel sommige AI-gebruikers grove fouten maken en al snel door de mand vallen, zijn er ook subtielere aanwijzingen dat AI-teksten vaker voorkomen. Zo komen bepaalde woorden en termen veel vaker voor in teksten van Chatbots dan van mensen.
Daarbij zijn er grote zorgen over de integriteit van wetenschappelijk werk. Onderzoekers zoals Iris van Rooij en Mark Dingemanse uiten kritiek op het gebruik van AI in wetenschappelijke publicaties. Ze vinden dat AI het schrijfproces, en daarmee het denkproces, kan aantasten. Ook kan AI bijdragen aan plagiaat en het versterken van vooroordelen, omdat de modellen getraind zijn op bestaande data waarin biases zitten.
Daarnaast zijn er ethische vraagstukken rondom het gebruik van AI-modellen, zoals de impact op het milieu en de werkomstandigheden van mensen die de modellen helpen ‘trainen’. Hoewel er initiatieven zijn om ethisch verantwoorde taalmodellen te ontwikkelen, zoals GPT NL, blijft het de vraag of deze kunnen concurreren met commerciële alternatieven zoals ChatGPT, die meer data gebruiken.
Lees hier het volledige artikel