Samenvatting
Doel
Aanpak
Resultaat
Leerpatronen
Uploads (1)
We zitten met AI in het onderwijs in een unieke situatie. AI gaat het onderwijs op z'n kop zetten zoals we dat niet kennen. AI heeft zowel de kracht om het onderwijs te verbeteren als het onderwijs verzwakken (en zelfs om het overbodig te maken?!). Het gebruik van AI in het onderwijs kan dus veel opleveren, maar het is natuurlijk niet de bedoeling dat leerlingen/studenten AI gaan gebruiken om vervolgens de resultaten te claimen als hun eigen werk. Maar hoe kun je ontdekken of iets geheel of gedeeltelijk is geproduceerd met behulp van AI. Het idee van dit project was om te onderzoeken of met behulp van AI bepaald kan worden of AI is gebruikt bij het creëren van producties dat als eigen werk wordt geclaimd.
Een docent verbood het gebruik van generatieve AI als ChatGPT in zijn vak. Bij de ingeleverde papers twijfelde hij of sommige studenten zich wel aan zijn verbod hadden gehouden. Normale plagiaatcheckers werken niet bij gegenereerde content dus bedacht de docent een slimme truc: hij ging zelf ChatGPT inzetten om te identificeren of de studenten het hadden ingezet. ChatGPT gaf aan dat sommige papers inderdaad waarschijnlijk door ChatGPT waren geschreven. Na het 'vast stellen' van plagiaat is de examencommissie ingeschakeld.
ChatGPT gaf aan dat sommige papers inderdaad waarschijnlijk door ChatGPT waren geschreven. De docent dacht hierdoor bewijs te hebben van plagiaat. Wat de docent niet wist was dat ChatGPT dit helemaal niet goed kan inschatten en dat het oordeel volledig nutteloos is. Er bleken 'False Positives' en 'False Negatives' te zijn, waardoor mensen onterecht werden beschuldigd of gebruik van ChatGPT juist niet werd ontdekt. Het is overigens interessant dat ondanks dat de docent AI verbood in zijn vak, hij nog wel AI inzette om een probleem wat hij had op te lossen. Het is in de theorie een hele interessante oplossing om erachter te komen of studenten AI hebben ingezet. Maar we moeten blijven nadenken en vooral ook experimenteren om te zorgen dat we vooral de kansen gaan grijpen. Deze briljante mislukking is eigenlijk zo'n experiment. En juist door het mislukte experiment is er een discussie ontstaan over hoe we het dan wel moeten aanpakken. Door fouten maken leren we.
Een docent verbood het gebruik van generatieve AI als ChatGPT in zijn vak. Bij de ingeleverde papers twijfelde hij of sommige studenten zich wel aan zijn verbod hadden gehouden. Normale plagiaatcheckers werken niet bij gegenereerde content dus bedacht de docent een slimme truc: hij ging zelf ChatGPT inzetten om te identificeren of de studenten het hadden ingezet. ChatGPT gaf aan dat sommige papers inderdaad waarschijnlijk door ChatGPT waren geschreven. De docent dacht hierdoor bewijs te hebben van plagiaat. Wat de docent niet wist was dat ChatGPT dit (momenteel) helemaal niet goed kan inschatten en dat het oordeel volledig nutteloos is.
Tom Naberink van de Hogeschool Arnhem Nijmegen legt uit dat de poging om ChatGPT te gebruiken om te kijken of een student ongeoorloofd ChatGPT heeft gebruikt, briljant is mislukt.
Reacties (0)