Search engine with ai to improve and optimize data 2024 12 06 11 13 03 utc

AI is overal – maar weet jij nog wie er meeleest?

10-07-2025

AI zit in onze broekzak. Het is niet meer weg te denken uit het dagelijks leven. We gebruiken het voor alles:
Van “AI, maak mijn boodschappenlijstje” tot “Ik ben verpleegkundige in Zwolle, kun je mijn sollicitatiebrief herschrijven?”

AI is snel, slim en altijd beschikbaar. Je hoeft niet te googelen, niet te zoeken naar het juiste artikel of de juiste persoon – je stelt gewoon je vraag, en krijgt binnen een seconde antwoord. Je kunt doorvragen, en de AI past zich aan jouw taalgebruik aan. Voor veel mensen is het onmisbaar geworden. Efficiëntie op z’n best.

Maar zijn we ons nog wel bewust van de risico’s?

We horen af en toe iets – een datalek met patiëntgegevens, of het privacy-schandaal rond DeepSeek. Maar in de hectiek van alledag staan we zelden stil bij wat we zélf invoeren. En precies daar gaat het vaak mis.

Wat je typt in AI, blijft niet tussen jou en het systeem

AI-tools zoals Meta AI, Google Gemini en ChatGPT lijken misschien privé – maar dat zijn ze niet. Veel van deze systemen gebruiken je input om zichzelf te verbeteren. Alles wat je typt kan worden opgeslagen, gedeeld en zelfs gebruikt als voorbeeld voor anderen.

Meta AI waarschuwt sinds kort expliciet: alles wat je intypt, kan publiek worden – zonder je naam, maar met genoeg context om je te herkennen. Die waarschuwing krijg je alleen bij je eerste gebruik, daarna verdwijnt die weer naar de kleine lettertjes.

Een voorbeeld:
Je typt “Ik werk als oncologieverpleegkundige bij Ziekenhuis X in Utrecht. Kun je deze patiëntbrief herschrijven?”
Wat denk je dat er gebeurt als die prompt als trainingsmateriaal wordt hergebruikt – of erger, als hij opduikt in een voorbeeldcollectie?

Waarom is dit een probleem?

Onzorgvuldig AI-gebruik kan leiden tot:

  • Datalekken zonder dat je het merkt
  • Gevoelige informatie in verkeerde handen
  • Inbreuk op privacy van cliënten of patiënten
  • Identiteitsfraude, reputatieschade of juridische gevolgen

In sectoren waar vertrouwelijkheid essentieel is – zoals de zorg, het onderwijs of professionele dienstverlening – is dit ronduit gevaarlijk. Eén verkeerde prompt kan een veiligheidsincident worden.

Wat kun jij doen? Drie adviezen voor veilig AI-gebruik

  1. Gebruik neutrale en afgebakende prompts.
    Vermijd persoonlijke of bedrijfsinformatie zoals namen, functies, locaties of andere herleidbare informatie. Houd het algemeen.
  2. Deel nooit gevoelige gegevens.
    Nooit via AI: patiëntinformatie, cliëntgegevens, wachtwoorden, financiële informatie, of interne documenten. Ook niet ‘alleen voor een herschrijving’.
  3. Lees het beleid van de tool die je gebruikt.
    Ja, echt. Vaak staat daar zwart op wit dat jouw input gebruikt mag worden – voor training, analyses of zelfs commerciële toepassingen. Als je dat niet wilt, moet je het systeem anders (of niet) gebruiken.
  4. Bij sommige AI-tools kun je instellen of de AI-tool jouw invoer mag bewaren en gebruiken om zichzelf te trainen of jouw als gebruiker betere antwoorden te kunnen geven. Schakel dit uit wanneer dat mogelijk is.
  5. Blijf kritisch op de antwoorden. Die kunnen feitelijke onjuistheden, vooroordelen, verkeerde conclusies of verouderde informatie genereren. Het zijn tenslotte taalmodellen en geen experts.

En dan nu de vervolgvraag: hoe is dit in jouw organisatie geregeld?

Zijn er afspraken over hoe medewerkers AI mogen gebruiken?
Staat er iets over AI in je privacy-, informatiebeveiligings- of communicatiebeleid?
Weet iedereen in je organisatie wat wel en niet gedeeld mag worden?

Zo niet: wacht niet tot het misgaat. Eén ondoordachte prompt kan al leiden tot een datalek of juridische complicaties.

Wat kun je als organisatie doen?

  • Stel duidelijke richtlijnen op voor AI-gebruik.
    Bijvoorbeeld: welke tools zijn wel/niet toegestaan, en wat mag er absoluut niet gedeeld worden via AI?
  • Integreer AI in je bestaande beleid.
    Voeg een AI-paragraaf toe aan je informatiebeveiligingsbeleid, privacyverklaring en gedragscode.
  • Train je medewerkers.
    Geef bewustwordingssessies of e-learnings over veilig gebruik van AI, afgestemd op je sector.
  • Gebruik technische maatregelen waar mogelijk.
    Overweeg het blokkeren van risicovolle AI-tools op bedrijfsapparaten of het loggen van gebruik.
  • Blijf beleid actueel houden.
    AI-ontwikkelingen gaan razendsnel. Wat vandaag veilig is, kan morgen alweer risico opleveren. Evalueer en actualiseer je beleid regelmatig.

AI is een gereedschap, geen vertrouwenspersoon

Het probleem is niet dat AI bestaat – het probleem is dat we er vaak blind op vertrouwen.
Wie veiligheid serieus neemt, denkt na voordat hij typt. Want je hebt meer invloed dan je denkt. En meer verantwoordelijkheid ook.

Bij Sentry Team helpen we organisaties om veilig en bewust te werken in een digitale wereld waar AI en cyberdreigingen steeds prominenter worden.

Met gerichte Security Awareness Trainingen maken we medewerkers écht bewust van hun rol in digitale veiligheid. Daarnaast adviseren we bij het opstellen of verbeteren van beleid rondom AI-gebruik, dataveiligheid en cybersecurity.

Voorkom incidenten door vandaag al werk te maken van digitale weerbaarheid.
Benieuwd hoe jouw organisatie AI veilig kan inzetten én je team scherp kan worden op cyberrisico’s? Neem contact met ons op – we denken graag met je mee.

Dit artikel delen:

Deze website maakt gebruik van cookies

Deze website gebruikt cookies en verzamelt daarmee informatie over het gebruik van de website om deze te analyseren en om er voor te zorgen dat je voor jou relevante informatie en advertenties te zien krijgt. Door hiernaast op akkoord te klikken, geef je aan akkoord te zijn met het gebruik van cookies en het verzamelen van informatie aan de hand daarvan door ons en door derden. Lees meer.

Akkoord
Niet akkoord