Connect with us

Waar AI Echt Leertoets Verbeterd, Waar Het Wrijving Creëert, en Wat Hoger Onderwijs Vervolgens Moet Doen

Thought leaders

Waar AI Echt Leertoets Verbeterd, Waar Het Wrijving Creëert, en Wat Hoger Onderwijs Vervolgens Moet Doen

mm

Kunstmatige intelligentie is er in het hoger onderwijs. Het vormt al hoe studenten leren, hoe docenten lesgeven en hoe instellingen prestaties beoordelen. De vraag is niet langer of AI in de klas thuishoort. Studenten gebruiken het, werkgevers verwachten vertrouwdheid ermee en instellingen moeten beslissen hoe ze verantwoord reageren. De sleutelvraag is hoe het hoger onderwijs AI kan gebruiken om onze studenten voor te bereiden op de toekomst van het werk.

Wat ik zie in het hoger onderwijs is minder ideologisch dan de openbare debatten suggereren. Studenten gebruiken AI omdat het hen helpt om vast te komen en verder te gaan. Docenten experimenteren omdat ze leren willen ondersteunen zonder de normen te ondermijnen. Bestuurders proberen richtlijnen vast te stellen die realiteit weerspiegelen in plaats van angst. Zo dwingt AI het hoger onderwijs om te heroverwegen wat het betekent om begrip, originaliteit en meesterschap te demonstreren in de eerste plaats.

Bij Westcliff University is onze aanpak praktisch. We kijken naar resultaten, we observeren wat er gebeurt in echte cursussen, we luisteren naar docenten en studenten, en dan passen we aan. Dat proces heeft een duidelijk patroon onthuld: AI verbetert leren wanneer het is ingebed in intentioneel ontwerp, en het veroorzaakt problemen wanneer het wordt behandeld als een shortcut of een bedreiging.

Waar AI Echt Leertoets Verbeterd

Het gemeenschappelijke draad in de hieronder geïdentificeerde gebieden is niet automatisering, maar cognitie. AI versnelt feedback, verheldert denken en ondersteunt iteratie zonder intellectuele verantwoordelijkheid van de student.

Begeleide oefening en tijdige feedback

De sterkste leertoetswinsten verschijnen wanneer AI wordt gebruikt voor begeleide oefening. Studenten profiteren wanneer ze een vraag kunnen stellen, een verklaring kunnen ontvangen, opnieuw kunnen proberen en onmiddellijke feedback kunnen krijgen. Die feedbacklus is centraal voor leren, vooral in grote of asynchrone cursussen waar individuele aandacht van de instructeur beperkt is.

Goed ontworpen AI-ondersteuningsgereedschap levert geen antwoorden, maar biedt gerichte, richtinggevende feedback om studenten betrokken te houden bij het proces van ontdekking. Wanneer AI is ontworpen om te prikkelen, vragen te stellen en denken te ondersteunen in plaats van onzekerheid op te lossen, weerspiegelt het de manier waarop sterke peerlearning dieper begrip ondersteunt.

Een 2025-studie in Scientific Reports vond dat studenten die een AI-tutor gebruikten, efficiënter leerden dan die in een vergelijkingsconditie, en ze deden het met hogere betrokkenheid en motivatie. De conclusie is niet dat AI lesgeven vervangt. Het is dat frequente, tijdige feedback begrip versnelt, en AI kan helpen om deze soort feedback op grote schaal te leveren.

AI kan ook schrijven versterken wanneer het wordt gebruikt om revisie te ondersteunen in plaats van auteur te vervangen.

Veel studenten worstelen met het organiseren van ideeën, het verhelderen van argumenten of het effectief herzien. Wanneer het op de juiste manier wordt gebruikt, kan AI helpen om structurele zwakheden aan de oppervlakte te brengen, onduidelijke redenering te identificeren en helderder denken te stimuleren.

Tegelijkertijd moeten studenten leren hoe ze AI verantwoordelijk kunnen gebruiken. Dit omvat het begrijpen van hoe ze effectieve prompts kunnen maken, het herkennen wanneer een AI-reactie hallucinaties of onnauwkeurigheden kan bevatten en het verifiëren van claims tegen betrouwbare bronnen. Studenten leren om AI-uitvoer te betwisten in plaats van deze passief te accepteren, beschermt de integriteit van hun werk en versterkt hun kritisch denken.

Het verschil tussen leren en shortcutten komt uiteindelijk neer op verwachtingen. Wanneer instructeurs vereisen dat studenten een opzet, ontwerpen en korte reflecties schrijven die uitleggen wat er is veranderd en waarom, blijven studenten verantwoordelijk voor hun denken. Ze blijven actief betrokken bij het vormgeven van het werk in plaats van het uit te besteedden, en ze blijven degene die uiteindelijk de beslissingen nemen. Een 2025-systematische review van grote taalmodellen in onderwijs identificeert schrijven en feedback als belangrijke use cases, maar waarschuwt ook tegen overmatig vertrouwen.

Behalve ontwerpen en revisies kan AI ook fungeren als een dialoogpartner die een studentenargument uitdaagt – vragen waarom een claim ertoe doet, wat voor bewijs ontbreekt of hoe een bepaald publiek zou reageren. Op deze manier wordt schrijven minder een opdracht en meer een proces van intellectuele verdediging en verfijning. Het beoordelen van dat proces biedt instructeurs waardevolle inzichten in de ontwikkeling van een studenten kritisch schrijfvermogen.

Vermindering van barrières voor studenten die scaffolding nodig hebben

AI kan barrières voor meertalige leerlingen, eerste generatie studenten en terugkerende volwassenen verlagen door persoonlijke verklaringen, voorbeelden en verduidelijking op aanvraag aan te bieden. Dit vervangt geen instructie. Het verlaagt onnodige barrières zodat studenten meer volledig kunnen deelnemen.

De echte kans ligt in adaptieve scaffolding die in real-time aanpast en opzettelijk ondersteuning vermindert naarmate competentie groeit. Wanneer AI wordt gebruikt om uitdagingen te kalibreren in plaats van ze te elimineren, bouwen studenten vertrouwen op door aangetoonde vooruitgang, niet afhankelijkheid.

Geven van tijd aan docenten om les te geven

AI kan docenten helpen met tijdrovende taken zoals het opstellen van rubrieken, het genereren van voorbeeldvragen, het samenvatten van discussiethreads of het produceren van eerste feedbacksuggesties. Het voordeel komt wanneer docenten de bespaarde tijd herinvesteren in waardevollere werk: betere opdrachtontwerp, rijker discussie en meer directe studentenondersteuning.

Waar Instellingen Tegen Wrijving Aanzitten

Validiteit van beoordeling is de centrale uitdaging

Het meest serieuze probleem van leerbeoordeling is niet plagiaat in de traditionele zin. Het is dat veel gebruikelijke beoordelingen de leerresultaten niet langer effectief meten wanneer AI gemakkelijk beschikbaar is.

Studentenadoptie van AI is al wijdverbreid. De HEPI en Kortext Student Generative AI Survey 2025 meldden dat 92% van de studenten AI op de een of andere manier gebruikten, en 88% gebruikten het voor beoordelingen. Als een opdracht met minimale kennis kan worden voltooid, functioneert het niet langer als een geldige maatstaf voor leerresultaten.

Dit is waarom debatten over integriteit aanhouden. AI legt de tekortkomingen van traditionele beoordelingen bloot. Wanneer beoordeling zwak is, groeit het vermoeden. Sterkere of beter ontworpen meting vermindert die spanning.

Beleidsvertraging en inconsistentie

Veel instellingen zijn nog steeds aan het inhalen. De 2025 EDUCAUSE AI Landscape Study meldt dat minder dan 40% van de ondervraagde instellingen formeel aanvaardbare gebruiksbeleid hadden op het moment van rapportage.

In het gebrek aan duidelijkheid stellen docenten hun eigen regels vast en ontvangen studenten gemengde signalen. Een cursus moedigt experimenten aan, een andere verbiedt AI volledig. Deze inconsistentie ondermijnt vertrouwen en maakt het moeilijker om ethisch AI-gebruik te onderwijzen en voordelen te behalen.

Prestatieverbetering zonder duurzame vaardigheid

AI kan korte termijn prestatie verbeteren zonder langetermijncapaciteit op te bouwen. Een 2025-veldexperiment dat GPT-4-gebaseerde tutoring in wiskunde onderzocht toonde aan dat AI-tutoring de prestatie tijdens de oefening verbeterde, maar studenten soms onderpresteerden wanneer het instrument werd verwijderd. Het institutionele risico ligt in het verwarren van korte termijn prestatieverbetering met duurzame capaciteit, vooral wanneer AI lacunes maskeert die alleen aan de oppervlakte komen wanneer het instrument wordt verwijderd. De implicatie is rechttoe rechtaan. AI kan productieve worsteling verminderen, en worsteling is vaak waar leren plaatsvindt. Als het AI-ontwerp te veel cognitieve inspanning verwijdert, kunnen studenten lijken profijtelijk zonder onafhankelijke competentie te ontwikkelen.

Equityzorgen zijn aan het verschuiven

AI heeft het potentieel om ondersteuning te democratiseren, maar het kan ook kloven verbreden als toegang en AI-geletterdheid variëren. Studenten met betere apparaten, betaalde instrumenten en meer ervaring met AI hebben voordelen die niet altijd zichtbaar zijn.

Equity-impacten gaan verder dan toegang tot instrumenten. AI vormt steeds meer hoe studenten tijd, cognitieve belasting en emotionele spanning beheren, vooral voor diegenen die werken, zorgtaken hebben, taalbarrières of terugkeren naar het onderwijs. Wanneer het goed wordt gebruikt, kan AI het speelveld egaliseren, leren stabiliseren en vertrouwen opbouwen. Wanneer het onevenwichtig wordt gebruikt, kan het onzichtbare ongelijkheden verdiepen.

Bestuur en gegevensbeheer

Naarmate AI wordt geïntegreerd in advisering, tutoring en beoordeling, wordt bestuur een academische kwaliteitskwestie. Instellingen moeten begrijpen hoe studentengegevens worden gebruikt, hoe leveranciers deze behandelen en hoe equity wordt gecontroleerd.

Kaders zoals de NIST AI Risk Management Framework bieden structuur, maar bestuur werkt alleen wanneer het samenwerking en transparantie toepast. In een AI-geactiveerde instelling zoals Westcliff functioneren bestuursbeslissingen steeds meer als academische kwaliteitsgarantie, die rechtstreeks de vertrouwen in diploma’s, beoordelingsintegriteit en institutionele reputatie vormt.

Wat Leiders in het Hoger Onderwijs Moeten Prioriteren

1. Beoordeling herontwerpen om leren zichtbaar te maken

AI-detectie is geen langetermijnoplossing. Het is reactief en adversatief, en het lost het onderliggende metingsprobleem niet op.

Een duurzamere aanpak is beoordelingsherontwerp dat redenering, kennisverwerking en prestatie benadrukt. Dit kan mondelinge verdedigingen, gestructureerde follow-upvragen, procesgebaseerde beoordeling met ontwerpen en reflecties, toegepaste projecten gebaseerd op echte beperkingen en in-class synthetische taken omvatten.

Bij Westcliff hebben we een mondelinge responsbenadering gebruikt als onderdeel van deze verschuiving. Een voorbeeld is Socratic Metric, een AI-geactiveerd beoordelingskader dat geschreven discussievragen vervangt door opgenomen studentenreacties op open-ended prompts gebaseerd op cursusmateriaal en, in sommige gevallen, een studenten eigen eerdere schrijven. Studenten ontvangen onmiddellijke feedback die hen aanmoedigt om te elaboreren en te verhelderen. Docenten kunnen studentenreacties beoordelen om de diepte van het begrip en de authenticiteit te evalueren.

Het doel is niet handhaving. Het is zichtbaarheid. Mondelinge responsformaten onthullen hoe studenten denken onder iteratieve follow-up, wat moeilijk is om uit te besteedden en gemakkelijker om zinvol te beoordelen. Socratic Metric is een voorbeeld onder vele mogelijke benaderingen. Het bredere punt is dat beoordeling moet evolueren om te focussen op denken, niet alleen output.

Een nuttige leiderschapsvraag is eenvoudig: als een student AI gebruikt voor deze opdracht, meet het dan nog steeds het beoogde leerresultaat? Als het antwoord onduidelijk is, daar moet herontwerp beginnen.

2. AI-geletterdheid behandelen als een kernleerresultaat

Studenten gaan een werkkring betreden waarin AI zal zijn geïntegreerd in het dagelijkse werk. Ze hebben vaardigheid in oordeel nodig, niet alleen vertrouwdheid.

De World Economic Forum’s Future of Jobs Report 2025 benadrukt de groeiende belangrijkheid van AI- en data-gerelateerde vaardigheden naast creatief denken en veerkracht. AI-geletterdheid moet het begrijpen van sterke en zwakke punten omvatten, het herkennen van vooroordelen en onzekerheid, het verifiëren van uitvoer, het verantwoord omgaan met gegevens en het weten hoe AI effectief te gebruiken.

Dit gaat niet over het maken van elke student tot een technisch expert. Het gaat over het afstuderen van mensen die AI kunnen samenwerken met zorg en ethiek. Bovendien gaat AI-geletterdheid verder dan studentenresultaten; het is een institutionele capaciteit. Docenten, bestuurders en academische leiders hebben allemaal gedeelde vaardigheden nodig om consistentie, eerlijkheid en geloofwaardigheid te garanderen in de hele leerervaring.

3. Bestuur opzetten dat vertrouwen opbouwt

Goed bestuur moet innovatie niet vertragen, het moet een groeistrategie zijn die AI helpt om sneller en betrouwbaar te schalen. Dat betekent meestal een kleine, cross-functionele groep die academisch leiderschap, IT, juridisch/privacy en studentenondersteuning omvat, met duidelijke rollen en beslissingsrechten.

Het moet ook eenvoudig en zichtbaar zijn. Docenten en studenten moeten weten waar AI wordt gebruikt, welke gegevens worden verzameld (en welke niet), wie toegang heeft en hoe beslissingen worden genomen. Wanneer die basisprincipes duidelijk zijn, zijn mensen veel meer bereid om nieuwe instrumenten te adopteren omdat ze zich geïnformeerd en beschermd voelen.

4. Investeren in docentenondersteuning

Docenten zijn de sleutel tot zinvolle AI-integratie. Ze hebben praktische ondersteuning nodig, niet alleen beleidsverklaringen.

De meest effectieve inspanningen zijn hands-on: opdrachtherontwerpworkshops, voorbeelden van effectieve praktijk, duidelijke rubrieken en gemeenschappen waar instructeurs kunnen delen wat werkt. Wanneer docenten zowel de sterke als de beperkingen van AI begrijpen, kunnen ze betere leerervaringen ontwerpen.

Ondersteuning van docenten in deze overgang betekent ook het erkennen van een diepere verschuiving van het zijn van primaire bronnen van inhoud naar het worden van ontwerpers van leren, evaluatoren van denken en bewaarders van academische oordeel.

5. Meten van impact, niet adoptie

AI moet worden geëvalueerd als elke instructie-interventie. Adoptie alleen geeft geen succes aan.

De juiste vragen zijn resultaatgericht: Retineren studenten kennis? Zetten ze hun leren over naar nieuwe contexten? Verminderen equity-gaten of verbreden ze? Tonen afgestudeerden onafhankelijk oordeel?

Als instellingen deze tweede-orde-effecten niet meten, riskeren ze het optimaliseren van efficiëntie terwijl ze stilzwijgend vertrouwen, equity en langetermijncapaciteit ondermijnen. Meten van impact in een AI-geactiveerde instelling vereist kijken naar wie baat, wie worstelt en welke vormen van inspanning worden versterkt of vermindert.

AI is een Versterker. Wat het Versterkt, is Aan Ons.

Wetend dat AI-integratie een zekerheid is, is de bepalende vraag voor leiders in het hoger onderwijs of instellingen leren zullen herontwerpen met opzet of toelaten dat erfmodellen onder zijn gewicht afbrokkelen.

AI is noch inherent gunstig noch inherent schadelijk. Het versterkt gewoon wat een leersysteem al beloont, of dat systeem effectief of ineffectief is.

Als het hoger onderwijs oppervlakkige voltooiing beloont, zal AI het versnellen. Als instellingen ontwerpen voor redenering, reflectie en authentieke prestatie, kan AI dieper leren en betere voorbereiding op de werkkring ondersteunen.

De instellingen die slagen, zullen beoordeling herontwerpen, AI-geletterdheid onderwijzen als een kerncompetentie en AI besturen op manieren die vertrouwen beschermen terwijl verantwoorde innovatie wordt toegestaan. Dat is de volgende fase van academisch leiderschap.

Anthony Lee, Ed.D. is President van Westcliff University en een leider in het hoger onderwijs gericht op de paraatheid van de beroepsbevolking en de verantwoorde integratie van opkomende technologieën in onderwijs, leren en beoordeling.