
Gratis vs. betaalde AI-tools: het privacy-verschil
Je gebruikt ChatGPT voor je werk. De gratis versie, want het werkt prima. Maar je vraagt je af: mis je iets? Is betaald veiliger? En is het de kosten waard?
Het korte antwoord: het hangt af van wat je invoert. Maar de meeste ZZP'ers zitten op het verkeerde account.
Stand van zaken: maart 2026. AI-tools veranderen regelmatig hun voorwaarden en prijzen.
- Gratis AI zonder klantdata is prima. Klantdata vereist een verwerkersovereenkomst.
- ChatGPT Plus heeft geen DPA. Voor klantdata: Business, API, of Copilot via M365.
- Lokale modellen (Ollama, LM Studio) hebben nul privacy-risico.
Welk account heb je nodig? De snelle beslissing
Eigen teksten, geen klantgegevens? Gratis of Plus is prima. Schakel training uit.
Incidenteel geanonimiseerde klantinfo? Plus met training uit is het minimum. Maar je hebt geen verwerkersovereenkomst. Dat is een bewust risico.
Structureel klantdata? Je hebt een verwerkersovereenkomst nodig. Opties: ChatGPT API (DPA beschikbaar, pay-per-token), Copilot via je bestaande Microsoft 365, of Gemini via Google Workspace. ChatGPT Business heeft een DPA maar vereist minimaal 2 gebruikers.
Gevoelige data (medisch, financieel, BSN)? Geen cloud-AI. Gebruik een lokaal model of doe het handmatig. Meer over wat je wel en niet in AI-tools mag stoppen lees je in het artikel over AI-tools en klantdata.
Weet je niet zeker of je accounttype voldoende bescherming biedt? De AI Risico Check geeft je in 2 minuten een inschatting.
De vergelijking per tool
ChatGPT (OpenAI):
- Gratis: training standaard aan, geen DPA, data in VS
- Go (rond $8/maand, nieuw in 2026): basismodel, geen DPA, consumentenproduct
- Plus (rond $20/maand): training opt-out mogelijk, geen DPA, consumentenproduct
- Business (rond $30/user/maand, voorheen Team): training uit, DPA beschikbaar. Let op: minimaal 2 gebruikers vereist. Als solo ZZP'er niet direct afsluitbaar.
- Enterprise: alles van Business + SSO, audit logs, EU-dataresidentie
- API: DPA beschikbaar, training standaard uit, EU-dataresidentie beschikbaar, prijs per token. Voor solo ZZP'ers vaak de beste optie met verwerkersovereenkomst.
Claude (Anthropic):
- Gratis/Pro ($20/maand): training standaard uit (ook bij gratis!), maar geen DPA bij consumentenaccounts
- Team ($25-30/seat/maand): DPA beschikbaar, training uit
- API: DPA beschikbaar, training uit, prijs per token
Microsoft Copilot:
- Gratis web: geen zakelijke garanties, vergelijkbaar met ChatGPT Free
- Via Microsoft 365 zakelijk: valt onder je bestaande DPA met Microsoft, training uit, data binnen EU Data Boundary
Google Gemini:
- Gratis: data kan voor training worden gebruikt
- Via Google Workspace (met DPA geaccepteerd): training uit, zakelijke garanties
Alle prijzen in USD, stand maart 2026. Prijzen kunnen wijzigen. Check altijd de actuele tarieven bij de aanbieder.
Wanneer gratis prima is
De contra-intuïtieve take: voor veel ZZP'ers is de gratis versie van een AI-tool helemaal geen probleem. Het hangt af van wat je invoert, niet van wat je betaalt.
Als je een blogpost laat herschrijven zonder klantnamen erin: geen persoonsgegevens, geen AVG-issue. Als je een stuk code laat reviewen dat geen klantdata bevat: prima. Als je een generieke e-mailtekst laat formuleren: geen probleem.
De AVG gaat over persoonsgegevens. Geen persoonsgegevens in je prompt = geen AVG-verwerking via die tool. Schakel wel de training opt-out in waar dat kan, zodat je teksten niet in het model terechtkomen. Juridisch gezien is gratis met training uit en zonder persoonsgegevens werkbaar.
Het risico zit niet in de tool. Het risico zit in wat je erin stopt.
Concreet: je bent webdeveloper en vraagt ChatGPT Free om een regex te schrijven voor e-mailvalidatie. Geen klantdata, geen persoonsgegevens. Prima. Het wordt pas een probleem als je een klantbriefing met namen en projectdetails in je prompt plakt.
Wanneer betaald nog niet genoeg is
Dit is het punt dat de meeste artikelen missen. "Betaald = veilig" is een gevaarlijke aanname.
"Ik betaal voor ChatGPT Plus, dus het is veilig voor klantdata." Nee. Plus biedt geen verwerkersovereenkomst. Voor klantdata heb je minimaal Business of de API nodig.
ChatGPT Plus heeft geen verwerkersovereenkomst. Je betaalt $20 per maand, je schakelt training uit, en je denkt dat je veilig zit. Maar zonder DPA heb je geen contractuele afspraken over wat OpenAI met je data doet. Bij een datalek bij OpenAI heb je geen juridische basis om ze aan te spreken. Voor eigen tekstwerk is Plus prima. Voor klantdata niet.
Claude Pro heeft beperkte zakelijke garanties. Training staat uit (goed), maar de DPA is alleen beschikbaar via de API of Team-accounts. Het consumentenaccount biedt geen verwerkersovereenkomst.
De scheidslijn is niet gratis vs. betaald. De scheidslijn is: heb je een verwerkersovereenkomst of niet? Zonder DPA verwerk je persoonsgegevens zonder juridisch fundament. Hoe verwerkersovereenkomsten werken lees je in het artikel over verwerkersovereenkomsten.
Je hebt al klantdata ingevoerd. Wat nu?
Dit is het scenario dat niemand behandelt, maar dat bijna iedereen herkent. Je gebruikt ChatGPT al maanden. Je hebt klantbriefings ingeplakt, e-mails laten herschrijven met klantnamen erin, projectdetails gedeeld. En nu lees je dit artikel.
Geen paniek. Maar wel actie.
1. Stop met klantdata in je huidige account als je geen DPA hebt. Vanaf nu: geen namen, e-mailadressen, projectdetails of andere persoonsgegevens in je prompts.
2. Schakel training uit. Bij ChatGPT: Settings > Data Controls > "Improve the model for everyone" uit. Bij Claude: training staat standaard al uit. Dit voorkomt dat je eerdere invoer wordt gebruikt voor modeltraining.
3. Verwijder je chatgeschiedenis als die klantdata bevat. Bij ChatGPT kun je individuele chats of je volledige geschiedenis wissen. Dat verwijdert de data uit je account, al kan het in OpenAI's systemen nog tijdelijk bestaan conform hun bewaarbeleid.
4. Upgrade naar een account met DPA als je structureel klantdata wilt gebruiken. Of stap over op een lokaal model voor dat type werk.
5. Documenteer wat er is gebeurd. Je hoeft het niet te melden bij de AP (het is geen datalek), maar het is verstandig om in je verwerkingsregister te noteren dat je tot datum X AI-tools zonder DPA hebt gebruikt, en wat je hebt gedaan om dat te corrigeren.
De optie die niemand noemt: lokale modellen
Er is een categorie AI-tools die vanuit privacy onverslaanbaar is: modellen die volledig op je eigen computer draaien. Geen data die je apparaat verlaat. Geen verwerkersovereenkomst nodig. Nul privacy-risico.
Ollama draait open-source modellen (Llama, Mistral, Phi) lokaal via de terminal. Gratis. Als developer is het een one-liner installatie. Voor samenvatten, herschrijven en code-review zijn de kleinere modellen vaak voldoende.
LM Studio biedt een grafische interface voor dezelfde modellen. Gebruiksvriendelijker voor niet-developers.
De trade-off is eerlijk: lokale modellen zijn kleiner en minder capabel dan de nieuwste cloud-modellen. Voor complexe analyses of lange creatieve teksten merk je het verschil. Maar voor dagelijkse taken (samenvatten, herschrijven, vertalen, code-review) is het vaak meer dan genoeg.
De pragmatische aanpak die veel ZZP'ers hanteren: een lokaal model voor werk waar klantdata bij komt kijken, en ChatGPT of Claude voor eigen creatief werk zonder persoonsgegevens. Twee tools, twee risicoprofielen.
Een concreet voorbeeld: je bent boekhouder en wilt klantcijfers laten analyseren. Dat doe je in Ollama met een lokaal draaiend model. Vervolgens wil je een nieuwsbrief schrijven over belastingwijzigingen. Dat doe je in ChatGPT Free, want er zitten geen persoonsgegevens in. Twee tools, elk voor het juiste doel. Meer over AI-tools op het werk lees je in het artikel over ChatGPT voor werk.
Wat moet je opnemen in je verwerkingsregister?
Als je AI-tools gebruikt voor werk met persoonsgegevens, hoort dat in je verwerkingsregister. Per tool noteer je:
- Welke tool en welk accounttype (ChatGPT Business, Claude API, etc.)
- Welke persoonsgegevens je invoert
- Of er een verwerkersovereenkomst is
- Of data buiten de EU wordt verwerkt (en welke waarborgen er zijn)
- Of training op je data aan of uit staat
Dit klinkt als extra werk, maar het is een paar regels in een spreadsheet. En het dwingt je om bewust na te denken over welke tool je waarvoor gebruikt. De meeste ZZP'ers die dit invullen, ontdekken dat ze meer klantdata in AI-tools stoppen dan ze dachten.
De eerlijke keuze
Reken even mee. ChatGPT Business kost rond de $30 per maand. Dat is minder dan een uur werk voor de meeste freelancers. De ChatGPT API kost per token en is voor veel ZZP'ers enkele euro's per maand. En als je al Microsoft 365 of Google Workspace hebt, is Copilot of Gemini inbegrepen in je bestaande abonnement en verwerkersovereenkomst. Nul extra kosten.
De kosten van het verkeerde account zijn hoger. Niet vanwege boetes van de AP (die richt zich op grotere partijen). Maar vanwege het vertrouwen van je klanten. Een opdrachtgever die ontdekt dat je zijn projectgegevens in een gratis AI-tool hebt geplakt zonder verwerkersovereenkomst, is een opdrachtgever die je kwijtraakt.
Het gaat niet om gratis vs. betaald. Het gaat om de combinatie van wat je invoert en welke juridische afspraken je hebt. Een gratis account zonder klantdata is veiliger dan een Plus-account mét klantdata. Een lokaal model is veiliger dan een Enterprise-account. De tool is niet het risico. Jouw gebruik is het risico.
Het duurste is niet het abonnement. Het duurste is het verkeerde account gebruiken en er pas achter komen als een klant vraagt wat je met zijn gegevens doet. Of als de AP het vraagt.
Veelgestelde vragen
Gerelateerde artikelen
IT-professional met 20+ jaar ervaring in softwareontwikkeling en digitale beveiliging. Schrijft over privacy vanuit technische praktijkervaring — geen juridisch advies. Meer over de auteur
Dit is informatie, geen juridisch advies. Raadpleeg een specialist voor je specifieke situatie.