
AI zit in onze broekzak. Het is niet meer weg te denken uit het dagelijks leven. We gebruiken het voor alles:
Van “AI, maak mijn boodschappenlijstje” tot “Ik ben verpleegkundige in Zwolle, kun je mijn sollicitatiebrief herschrijven?”
AI is snel, slim en altijd beschikbaar. Je hoeft niet te googelen, niet te zoeken naar het juiste artikel of de juiste persoon – je stelt gewoon je vraag, en krijgt binnen een seconde antwoord. Je kunt doorvragen, en de AI past zich aan jouw taalgebruik aan. Voor veel mensen is het onmisbaar geworden. Efficiëntie op z’n best.
Maar zijn we ons nog wel bewust van de risico’s?
We horen af en toe iets – een datalek met patiëntgegevens, of het privacy-schandaal rond DeepSeek. Maar in de hectiek van alledag staan we zelden stil bij wat we zélf invoeren. En precies daar gaat het vaak mis.
AI-tools zoals Meta AI, Google Gemini en ChatGPT lijken misschien privé – maar dat zijn ze niet. Veel van deze systemen gebruiken je input om zichzelf te verbeteren. Alles wat je typt kan worden opgeslagen, gedeeld en zelfs gebruikt als voorbeeld voor anderen.
Meta AI waarschuwt sinds kort expliciet: alles wat je intypt, kan publiek worden – zonder je naam, maar met genoeg context om je te herkennen. Die waarschuwing krijg je alleen bij je eerste gebruik, daarna verdwijnt die weer naar de kleine lettertjes.
Een voorbeeld:
Je typt “Ik werk als oncologieverpleegkundige bij Ziekenhuis X in Utrecht. Kun je deze patiëntbrief herschrijven?”
Wat denk je dat er gebeurt als die prompt als trainingsmateriaal wordt hergebruikt – of erger, als hij opduikt in een voorbeeldcollectie?
Onzorgvuldig AI-gebruik kan leiden tot:
In sectoren waar vertrouwelijkheid essentieel is – zoals de zorg, het onderwijs of professionele dienstverlening – is dit ronduit gevaarlijk. Eén verkeerde prompt kan een veiligheidsincident worden.
Zijn er afspraken over hoe medewerkers AI mogen gebruiken?
Staat er iets over AI in je privacy-, informatiebeveiligings- of communicatiebeleid?
Weet iedereen in je organisatie wat wel en niet gedeeld mag worden?
Zo niet: wacht niet tot het misgaat. Eén ondoordachte prompt kan al leiden tot een datalek of juridische complicaties.
Het probleem is niet dat AI bestaat – het probleem is dat we er vaak blind op vertrouwen.
Wie veiligheid serieus neemt, denkt na voordat hij typt. Want je hebt meer invloed dan je denkt. En meer verantwoordelijkheid ook.
Bij Sentry Team helpen we organisaties om veilig en bewust te werken in een digitale wereld waar AI en cyberdreigingen steeds prominenter worden.
Met gerichte Security Awareness Trainingen maken we medewerkers écht bewust van hun rol in digitale veiligheid. Daarnaast adviseren we bij het opstellen of verbeteren van beleid rondom AI-gebruik, dataveiligheid en cybersecurity.
Voorkom incidenten door vandaag al werk te maken van digitale weerbaarheid.
Benieuwd hoe jouw organisatie AI veilig kan inzetten én je team scherp kan worden op cyberrisico’s? Neem contact met ons op – we denken graag met je mee.
Deze website gebruikt cookies en verzamelt daarmee informatie over het gebruik van de website om deze te analyseren en om er voor te zorgen dat je voor jou relevante informatie en advertenties te zien krijgt. Door hiernaast op akkoord te klikken, geef je aan akkoord te zijn met het gebruik van cookies en het verzamelen van informatie aan de hand daarvan door ons en door derden. Lees meer.