In een collegezaal van een universiteit in Moskou voert een vijfdejaars studente een half uur voor de deadline een verzoek in bij een chatbot voor de analyse van een marketingcase. De AI genereert een gestructureerde tekst, compleet met voorbeelden en bronvermeldingen. De studente past de formuleringen aan en levert haar werk in.
Een onderzoek gepubliceerd in het tijdschrift Frontiers in Education richtte zich specifiek op dergelijke praktijken. De auteurs ondervroegen ruim duizend studenten uit verschillende landen en analyseerden hoe zij generatieve modellen precies gebruiken in hun dagelijkse studie. Het werk brengt geen abstracte trends in kaart, maar concrete scenario's: van de voorbereiding op werkgroepen tot het schrijven van scripties.
De werkwijze ziet er als volgt uit. De student formuleert een opdracht, ontvangt een eerste concept en vergelijkt dit vervolgens met eigen aantekeningen en lesmateriaal. De cruciale stap is niet het kopiëren, maar het redigeren en de factcheck. Deze cyclus vermindert de belasting van het werkgeheugen en maakt het mogelijk sneller over te gaan tot analyse in plaats van het louter zoeken naar informatie. De vergelijking is eenvoudig: de AI fungeert als een assistent voor de eerste opzet die de meubels in de kamer plaatst, terwijl de student bepaalt waar de open ruimte blijft.
Uit de onderzoeksgegevens blijkt dat ongeveer 65% van de ondervraagden ten minste één keer AI heeft ingezet voor academische taken. De positieve effecten uiten zich in een snellere voorbereiding en een beter begrip van complexe onderwerpen. De auteurs wijzen echter op beperkingen: de steekproef bestond voornamelijk uit studenten in technische en economische richtingen, en de data werden gedurende slechts één semester verzameld. Er ontbreken langetermijnwaarnemingen over hoe de diepgang van het kritisch denken verandert bij regelmatig gebruik van deze modellen.
Hier komt een breder probleem aan de oppervlakte. Wanneer een hulpmiddel toegankelijker wordt dan het spreekuur van een docent, ontstaat er ongelijkheid tussen hen die effectieve zoekvragen kunnen formuleren en hen die AI als een kant-en-klaar antwoord gebruiken. Het hoger onderwijssysteem, dat gestoeld is op de controle van zelfstandig werk, raakt de koers kwijt: wat moet er precies beoordeeld worden — het resultaat of het proces om daar te komen?
De vraag is inmiddels niet meer of we neurale netwerken moeten toestaan, maar hoe we opdrachten zo kunnen herontwerpen dat ze precies datgene vereisen wat AI nog niet kan vervangen: een persoonlijk standpunt en de verantwoordelijkheid voor de keuze van argumenten.



