AI in het onderwijs
Gebruik van generatieve AI (zoals ChatGPT) door studenten, docenten en medewerkers stelt ons voor nieuwe uitdagingen. Hoe geven we vorm aan de inzet van AI in ons onderwijs? Waar heeft het meerwaarde voor de onderwijs en waar juist niet? Met deze vragen en meer ging de universiteitsbrede werkgroep ‘AI in het onderwijs’ aan de slag. Op deze pagina vind je de uitwerking en uitkomsten van deze werkgroep.
Eerste resultaten werkgroep AI in onderwijs
De AI-werkgroep stelde een strategie op voor implementatie van AI in ons onderwijs. Deze strategie wordt stapsgewijs verder uitgewerkt en geïmplementeerd. Er zijn nog een aantal stappen te zetten op weg naar verantwoorde inzet van AI.
De eerste resultaten vanuit die werkgroep vind je hier:
- informatie over inzet van AI-systemen in het onderwijs;
- handreikingen voor inzet van AI in het onderwijs.
Deze informatie is dynamisch en wordt doorlopend aangevuld en bijgewerkt. De focus ligt op de didactische context voor AI-gebruik.
Potentiële risico’s van commerciële AI-systemen
De mogelijkheden voor veilig en betrouwbaar gebruik van vrij toegankelijke, commerciële AI-platforms in ons onderwijs zijn momenteel zeer beperkt. We hebben geen verwerkingsovereenkomsten met leveranciers en (daarom) te weinig of geen inzicht in de wijze waarop zij onze gegevens verwerken. Gebruik van commerciële en vrij-toegankelijke AI-systemen raden we momenteel dan ook af.
Belangrijk: voor werk waarvoor een formele beoordeling gegeven wordt is het onderwijsexamenreglement altijd leidend. Wat wel/ niet mag in relatie tot de inzet van AI is altijd aan de docent en de examencommissie.
Risico’s vermijden door toetsing en afspraken
AI-gebruik brengt risico’s mee op gebied van privacy en kennisveiligheid; het is belangrijk om hier bewust van te zijn. We werken veel met persoonsgegevens, onderzoeksresultaten en gegevens van waaruit context herleidbaar kan zijn. De EU AI-verordening classificeert inzet van AI-systemen binnen het onderwijs als ‘high risk’.
We zijn dan ook verplicht om het gebruik van software-applicaties met AI-componenten te toetsen aan de wet en waar nodig afspraken te maken met bijvoorbeeld leveranciers. Deze afspraken zijn er momenteel (nog) niet.
Een voorbeeld hiervan is Microsoft Copilot. Dit kunnen we nog niet veilig inzetten omdat Microsoft nog onvoldoende duidelijk maakt hoe onze gegevens verwerkt worden.
ChatGPT, privacy en kennisveiligheid
Daarnaast zijn er veel breed toegankelijke AI-systemen. Hiervan is niet duidelijk hoe gevoerde gesprekken en gegevens en gegenereerde output verwerkt wordt bij bijvoorbeeld doorontwikkeling van het AI-model. Het gebruik van deze applicaties brengt dan ook risico’s mee op gebied van privacy en kennisveiligheid.
Een voorbeeld hiervan zijn alle online toegankelijke versies van ChatGPT, Daarvan weten we niet zeker hoe gegevens verwerkt worden. En of deze als output terug kunnen komen in chats van andere gebruikers.
Richtlijnen voor AI-gebruik
Binnen de verdere uitwerking van de AI-strategie hebben we veel aandacht voor betrouwbare inzet van AI die voldoet aan onze kernwaarden. We werken momenteel aan beleid en richtlijnen uitgaande van de 5 niveaus van integratie van AI zoals gedefinieerd door Perkins et al:
- No AI
- AI planning
- AI collaboration
- Full AI
- AI exploration
Daarbij geldt dat:
- er momenteel geen white list is van betrouwbare AI-systemen. Elke vorm van inzet van AI brengt potentiële risico’s mee';
- je bij gebruik van of experimenteren met AI in je onderwijs altijd de invoer van persoonsgegevens, onderzoeksgegevens en/ of gegevens van waaruit een specifieke (herleidbare) context afgeleid kan worden moet vermijden.
De volgende (Engelstalige) handreikingen voorzien je verder van tips en informatie. Deze worden regelmatig bijgewerkt op basis van actuele AI-ontwikkelingen.
- AI Guide for teachers:
Richtlijnen voor (bepalen van) de randvoorwaarden voor AI-gebruik in het onderwijs. - Implementing AI in your curriculum:
Tips voor inzetten van AI in onderwijswerkvormen, bijvoorbeeld voor schrijfopdrachten. - Scale of AI use at University Leiden:
In dit overzicht vatten we de 5 niveaus van AI integratie samen volgens Perkins (bron: A Framework for Ethical Integration of Generative AI in Educational Assessment. British University Vietnam, (Vietnam). Deakin University (Australia). James Cook University (Australia)).
Welke informatie en richtlijnen krijgen studenten?
Ook voor studenten brengen we zoveel mogelijk informatie over en richtlijnen voor gebruik van AI bij elkaar. De link naar de informatie die zij krijgen delen we na publicatie ook hier.