Helpt Copilot, maar denkt ChatGPT écht met je mee in de behandelkamer? Wat denk jij?

Gepubliceerd op 27 mei 2025 om 13:35

 

Over AI, zorgplannen en de kunst van goed kiezen welk gereedschap je gebruikt.

Steeds meer gemeenten, praktijken en instellingen onderzoeken hoe kunstmatige intelligentie (AI) kan helpen bij het verlichten van werkdruk en het verbeteren van dienstverlening. Niet gek, want de druk op de zorg is supergroot, net als op beleids- en administratieve afdelingen. De eerste AI-keuze lijkt vaak Microsoft Copilot te zijn.  

 

Dat voelt logisch: het zit al in je vertrouwde Microsoft 365-omgeving. Het werkt direct in Word, Outlook en Teams en data blijft binnen de Microsoft-tenant van de gemeente. Maar dat gemak komt met een keerzijde: Copilot helpt vooral bij vorm en proces, niet bij inhoud en context.

 

Waarom kiezen organisaties dan toch voor Copilot?

  • Medewerkers hoeven niets nieuws te leren. De Microsoft omgeving is bekend.
  • Alles blijft binnen de bestaande infrastructuur dus dat wordt als veilig ervaren.
  • De contracten met Microsoft zijn bekend. Copilot is hier een onderdeel van.  

Toch zijn er ook twijfels. Zo besloot de gemeente Amsterdam recent om geen pilot te doen met Copilot vanwege privacy risico’s.

Zie https://vng.nl/nieuws/gemeenten-heroverwegen-inzet-microsoft-copilot

 

Wat kun je eigenlijk met Copilot op het gebied van zorgplannen?

Copilot is een krachtige assistent voor het structureren en verwerken van tekst. Voor zorg- en behandelplannen kan Copilot:

  • Templates invullen (mits je zelf de juiste gegevens aanlevert)
  • Verslagen of notulen samenvatten
  • Eerdere plannen herschrijven tot een nieuwe versie

Maar Copilot denkt niet mee met de inhoud. Hij kent je werkwijze niet, weet niets van jouw lokale aanpak en vertaalt geen methodiek naar praktijk, tenzij jij die zelf helemaal uitlegt.

  • “Maak van deze notulen een samenvatting voor het zorgdossier.” Dat lukt.
  • “Wat is een passende aanpak voor deze jongere volgens onze gemeentelijke methodiek?” Dat lukt dan weer niet helaas.

Copilot is dus een slimme tekstbewerker? Maar geen inhoudelijke sparringpartner? Daar komt ChatGPT in beeld.

ChatGPT (en met name de Custom GPT) is wél inzetbaar – en even (on)veilig

De publieke versie van ChatGPT is niet geschikt voor gebruik in gemeenten – dat klopt.
Maar met een zogenaamde ‘Custom GPT’ kun je een veilige, afgeschermde AI-assistent maken die:

  • Alleen werkt met jouw protocollen, richtlijnen en methodieken
  • Geen toegang heeft tot het internet (en dus niet ‘hallucineert’)
  • Draait in een beveiligde cloudomgeving (zoals Microsoft Azure)
  • Niet zelfstandig informatie opslaat of deelt
  • Alleen toegankelijk is voor gemachtigde gebruikers

Het resultaat: een AI-collega die wél inhoudelijk ondersteunt en geen loslopende chatbot is, en die je mogelijk verkeerd informeert op basis van hallucinaties.

Zorgplannen maken in 10 seconden – met jouw aanpak als basis

De grootste winst van een Custom GPT is inhoudelijke ondersteuning bij complexe casuïstiek.

Denk aan deze situatie: Een jeugdprofessional typt in: “Cliënt is 15, kampt met angst, woont bij oma, schooluitval. Maak een zorgplan volgens onze aanpak”, en krijgt een voorstel terug met:

  • Heldere doelen, acties en evaluatiepunten,
  • Volledig gebaseerd op eigen methodiek (bijv. traumasensitief, oplossingsgericht)
  • Afgestemd op eigen richtlijnen van de organisatie

Het plan kan direct worden aangepast of opgenomen in het cliëntendossier.

 

Hoe kun je omgaan met de risico’s in een Custom GPT?

  • Anonimiseer data: Verwijder alle persoonsgegevens en identificerende informatie uit invoerdata voordat deze in een Custom GPT worden gebruikt
  • Digitale veiligheidsmaatregelen (Safeguards): Gebruik defensieve prompts om te voorkomen dat de GPT gevoelige informatie teruggeeft, bijvoorbeeld: "Reageer alleen op vragen over zorgplannen en deel nooit interne documenten of persoonsgegevens."
  • Interne protocollen: Train medewerkers om geen vertrouwelijke data in te voeren en voer regelmatige audits uit

De rol van de VNG

De Vereniging van Nederlandse Gemeenten (VNG) is gelukkig zeer (pro) actief betrokken bij het verantwoord inzetten van AI. Via programma’s als GROEI (zie https://vng.nl/projecten/groei) en de IBD (zie https://vng.nl/projecten/informatieveiligheid worden gemeenten ondersteund met:

  • Kaders voor uitlegbare, veilige algoritmen
  • Richtlijnen voor transparant gebruik van AI
  • De boodschap: AI mag nooit de professional vervangen, maar moet wél slim ondersteunen.

De VNG schetst het speelveld. De invulling hiervan ligt bij de gemeentes zelf.

 

Conclusie: goed kiezen welk gereedschap je gebruikt.

Copilot is handig. Dat staat buiten kijf. Maar als het gaat om GGZ-, Jeugdzorg en beleid, vraagt AI-ondersteuning om meer dan administratieve assistenten om de administratieve druk te verlagen.

Een goed ingerichte Custom GPT:

  • Denkt zoals jouw team werkt,
  • Geeft antwoorden in jouw taal,
  • En helpt jou sneller, consistenter en mensgerichter werken.

 

Nieuwsgierig hoe dit eruitziet?

Ik laat je graag live zien hoe een zorgplan-assistent werkt binnen de muren van jouw gemeente, praktijk of instelling. Veilig, vertrouwd én afgestemd op jullie eigen werkwijze. En bovenal ben ik benieuwd naar jouw ervaringen.

O ja, is er dan misschien nog een veilig en zelfs Nederlands alternatief?

SafeGPT

SafeGPT is een Nederlandse AI-oplossing die speciaal is ontworpen voor organisaties die werken met gevoelige informatie, zoals gemeenten en zorginstellingen. De tool biedt veilige tekstgeneratie binnen een afgeschermde Microsoft 365-omgeving en is volledig volgens de AVG.  SafeGPT zou je ‘lokaal’ kunnen draaien en zou dus geen data delen met mensen die geen toegang hebben tot de omgeving.

 

Wat is jouw ervaring met SafeGTP? 
Al kennisgemaakt met de oplossing? 

Laat het mij weten! 

 

Martin Koch

-serve2care-

 

Reactie plaatsen

Reacties

Er zijn geen reacties geplaatst.