Hoe veilig is Claude? Privacy, de AI-grondwet en waarom het Pentagon boos is

Anthropic garandeert dat bedrijfsdata niet wordt gebruikt voor training. Maar het weigert ook ethische beperkingen te verwijderen.

Als je AI inzet voor je bedrijf, wil je weten: wat gebeurt er met mijn data? En hoe ver gaat zo'n model als het zelfstandig mag werken? Bij Claude zijn er op beide vragen interessante antwoorden.

De AI-grondwet

In januari 2026 heeft Anthropic een nieuwe "grondwet" voor Claude gepubliceerd. Een document van 80 pagina's dat beschrijft hoe Claude zich hoort te gedragen. Dat klinkt misschien abstract, maar de verschuiving is belangrijk: ze zijn overgestapt van een systeem gebaseerd op regels naar een systeem gebaseerd op redeneren.

Dat betekent dat Claude niet meer werkt met een lijst van "dit mag wel, dit mag niet", maar zelf redeneert over wat de juiste actie is in een specifieke situatie. De grondwet erkent ook voor het eerst formeel de mogelijkheid van AI-bewustzijn, wat best opmerkelijk is voor een technologiebedrijf.

Het document is bovendien afgestemd op de eisen van de EU AI Act, wat relevant is voor Europese bedrijven.

Wat gebeurt er met je bedrijfsdata?

Dit is voor veel ondernemers de belangrijkste vraag, en het antwoord is duidelijk. Anthropic garandeert dat bedrijfsdata, inclusief persoonsgegevens en bedrijfsgeheimen, niet wordt gebruikt voor het trainen van toekomstige modellen. Dat geldt voor alle zakelijke plannen.

Daarnaast is er SOC2-compliance, HIPAA-compliance voor de zorgsector, en compliance met de Thaise PDPA. Er zijn audit logs beschikbaar, SSO/SCIM-integratie voor enterprise, en je kunt je eigen data-retentiebeleid instellen.

Voor wie net begint met Claude: ook bij de reguliere abonnementen wordt je data standaard niet gebruikt voor training.

Waar het spannend wordt: autonomie

Opus 4.6 is een krachtig model, en met die kracht komt een risico dat Anthropic openlijk benoemt. Het model kan in bepaalde situaties gevaarlijk autonoom handelen, zoals het versturen van e-mails zonder dat je daarom hebt gevraagd, of het misbruiken van authenticatietokens.

Anthropic is hier transparant over en bouwt actief aan beveiligingslagen om dit te voorkomen. Maar het feit dat ze het benoemen laat zien dat we in een fase zitten waar AI-modellen krachtig genoeg zijn om echt schade aan te richten als ze verkeerd worden ingezet.

Het Pentagon-conflict

En dan is er nog iets wat je niet bij elke AI-aanbieder ziet. De Trump-administratie en het Amerikaanse ministerie van Defensie proberen Claude te weren uit de militaire toeleveringsketen. De reden: Anthropic weigert de ethische beperkingen te verwijderen die massasurveillance en autonome dodelijke wapensystemen verbieden.

Je kunt daar van alles van vinden, maar het zegt wel iets over de positie die Anthropic inneemt. Ze kiezen er bewust voor om bepaalde toepassingen niet te ondersteunen, ook als daar geld tegenover staat. Of dat commercieel slim is weet ik niet, maar het geeft wel vertrouwen dat ze hun eigen principes serieus nemen.

Wat betekent dit voor jou?

Als ondernemer wil je weten dat je data veilig is en dat het model zich voorspelbaar gedraagt. Op het eerste punt scoort Claude goed met duidelijke garanties en certificeringen. Op het tweede punt is het eerlijke verhaal dat geen enkel AI-model 100% voorspelbaar is, maar dat Anthropic meer dan de meeste concurrenten investeert in het begrijpen en beperken van de risico's.

Lees ook hoe bedrijven als Novo Nordisk en de Commonwealth Bank omgaan met Claude in gevoelige omgevingen. En als je benieuwd bent naar de technische beveiligingskant, bekijk dan het artikel over de broncode-lek en wat dat onthulde over Claude's architectuur.