AI in Odisee

Visie

In wat volgt maak je kennis met de basisprincipes van de positie van Odisee ten opzichte van het gebruik van AI. Beknopte duiding kan je lezen op deze pagina voor studenten, extra duiding vind je op deze pagina voor docenten.

  1. Artificiële intelligentie biedt heel wat kansen voor het onderwijs.
    Het gebruik van AI in onderwijs (altijd) tegenhouden heeft bovendien geen zin.
    Studenten/docenten kunnen en zullen het gebruiken.
  2. Het gebruik van AI is toegestaan wanneer het niet verboden wordt.
    Er zijn momenten waarop het gebruik verboden kan worden.
  3. De auteur is altijd verantwoordelijk voor het eindresultaat.
  4. Het materiaal representeert 100% de eigen kennis en competenties.

Let op!

Denk goed na aan welke AI machines je jouw data aanbiedt. Enkele tips voor veilig en ethisch gebruik. 

Het gebruik van vertrouwelijke informatie (gegevens over studenten, opleidingen evaluaties, onderzoeksgegevens, …) in een prompt of een document dat je deelt met een AI-tool kan leiden tot privacy- of beveiligingsrisico’s. Bescherming van je input is in de ene tool beter dan in de andere. Daarom ontwikkelden we 3 niveaus van vertrouwelijkheid. Binnen Odisee raden we aan met Copilot, aangemeld in je browser, te werken. Copilot gebruikt je prompts of documenten niet om hun AI-model verder te trainen. Dit wil zeggen dat je, wanneer je aangemeld in Copilot werkt, je documenten van niveau 1 (openbaar) en 2 (intern) mag gebruiken in deze generatieve AI-tool.

Bij elk gebruik van AI gegenereerde inhouden is het belangrijk dat de eindgebruiker dit resultaat controleert. 

Hallucinaties

Soms lijkt AI-output heel overtuigend maar zoals je reeds eerder in deze e-course leerde is elk LLM slechts een woordvoorspeller. Het is dus perfect mogelijk dat het resultaat compleet verzonnen en dus ook fout is. 

Bias

AI-tools zijn getraind op immens grote datasets. Deze datasets zijn echter niet representatief. Er is geen transparantie over de filtering die ze toepassen. Bij blindelings vertrouwen in de AI-tool loop je een groot risico op het verder verspreiden van stereotypen of vooroordelen.

Niet elke nieuwe AI-tool is betrouwbaar. Wees extra voorzichtig bij het gebruik van niet ondersteunde tools en met het delen van persoonlijke gegevens.

Benieuwd naar welke AI-gerelateerde incidenten zoal gemeld worden? Hier kan je er enkele nalezen: Welcome to the Artificial Intelligence Incident Database

Deze richtlijnen kwamen tot stand in samenspraak met KU Leuven. Voor meer informatie ga naar: 

Richtlijnen voor veilig gebruik van GenAI-tools – KU Leuven Learning Lab