Hoe wij met data omgaan

Verwerker, niet opslagpartij

And AI slaat geen klantdata op. Wij configureren en implementeren AI-tools in jouw omgeving. Jij houdt volledige controle over je eigen data.

AVG/GDPR-compliant

Alle oplossingen die we implementeren voldoen aan de Europese privacywetgeving. Bij Team- en Enterprise-accounts is dit contractueel geborgd.

Versleutelde communicatie

Alle dataoverdracht verloopt via versleutelde verbindingen (TLS). Data in rust wordt versleuteld opgeslagen bij de provider.

Geen training op jouw data

Bij de juiste instellingen worden je gesprekken en bestanden niet gebruikt voor het trainen van AI-modellen. Meer hierover verderop.

Wat AI kan en niet kan

Claude werkt binnen duidelijke grenzen. Dit is wat het wel en niet kan in je werkomgeving.

Claude kan...

  • Bestanden lezen en schrijven in jouw aangewezen map
  • Webzoeken uitvoeren voor actuele informatie
  • Meerdere taken achter elkaar uitvoeren

Claude kan niet...

  • Bij systeembestanden of wachtwoorden komen
  • Iets doen zonder jouw toestemming
  • Bestanden permanent verwijderen zonder bevestiging

Training op jouw data?

Of je data gebruikt wordt voor het trainen van AI-modellen hangt af van je accounttype en instellingen.

Account Training op jouw data?
Team / Enterprise Nee, nooit. Contractueel geborgd.
Pro / Max (persoonlijk) Standaard aan. Uitzetten via Settings > Privacy.
Free Ja.

Bij Pro- en Max-accounts vind je de instelling "Help improve Claude" onder Settings > Privacy. Schakel deze uit om te voorkomen dat je gesprekken worden gebruikt voor modeltraining. Bij Team- en Enterprise-accounts staat deze standaard uit en is dit contractueel vastgelegd.

Certificeringen

Anthropic (maker van Claude) beschikt over de volgende certificeringen en standaarden.

SOC 2 Type I & II

Onafhankelijke audit van beveiligingscontroles en processen.

ISO 27001:2022

Internationale standaard voor informatiebeveiliging.

ISO/IEC 42001:2023

Standaard voor AI Management Systems.

CSA STAR Level 2

Cloud Security Alliance certificering voor cloudbeveiliging.

Veelgestelde vragen

Is het veilig om bedrijfsgevoelige documenten te gebruiken?

Met de juiste instellingen worden gesprekken niet voor training gebruikt en na 30 dagen verwijderd. Alle data gaat via versleutelde verbindingen.

Houd er rekening mee dat data via Amerikaanse servers loopt. Voor organisaties met strikte EU-eisen adviseren we een Team-account of een oplossing via AWS Bedrock in een EU-regio.

Is Claude GDPR-compliant?

Anthropic biedt een Data Processing Agreement (DPA) en Standard Contractual Clauses (SCC) voor Europese klanten. Data wordt verwerkt op servers in de Verenigde Staten.

Heb je volledige EU-datalocatie nodig? Dat kan via AWS Bedrock of Google Vertex AI, waarbij je data in een Europese regio blijft.

Kan AI mijn hele systeem zien?

Nee. Claude werkt alleen in de mappen die jij aanwijst. Het kan niet bij systeembestanden, wachtwoorden of andere gevoelige locaties.

Elke gevoelige actie (zoals het verwijderen van bestanden) vereist expliciete toestemming. De sandbox voorkomt dat AI buiten je werkmap toegang krijgt.

Wat als ik per ongeluk iets gevoeligs deel?

Gesprekken zijn verwijderbaar via claude.ai. Wanneer de training-toggle uitstaat, wordt je data niet voor modeltraining gebruikt en binnen 30 dagen gewist van de servers.

Bij Team- en Enterprise-accounts wordt data sowieso niet voor training gebruikt, ongeacht individuele instellingen.

Vragen over dataveiligheid?

We helpen je graag met het inrichten van een veilige AI-omgeving voor jouw organisatie.

Neem contact op