Blog

Algoritmes & Privacy

Gisteren berichtte de NOS dat de overheid op grote schaal algoritmes gebruikt. Zo worden er algoritmes ingezet om te kunnen voorspellen welke personen eerder fraude zullen plegen of zich crimineel zullen gedragen. De politie gebruikt de algoritmes om te kunnen voorspellen welke personen als kwetsbaar geïdentificeerd kunnen worden. Het gevaar dat op de loer ligt is discriminatie, omdat de algoritmes gebruik maken van wellicht vooringenomen data.

Aleid Wolfsen van de Autoriteit Persoonsgegevens (AP) verklaarde gisteren dat het niet erg is dat de overheid gebruik maakt van algoritmes, maar dat een belangrijke voorwaarde is dat de algoritmes ‘eerlijk, slim en transparant’ worden gebruikt.

Hoe zit het nu precies met deze algoritmes, wat zijn de gevaren, en hoe heeft de AVG deze gevaren willen inperken?

Algoritmes en de gevaren

Algoritmes zijn – kort en eenvoudig gezegd – geautomatiseerde conclusies die zijn gebaseerd op data. Door heel veel data op te slaan, kan op basis van die data voorspeld worden hoe wij ons zullen gedragen. Als er bijvoorbeeld bepaalde kenmerken te koppelen zijn aan kwetsbare personen en deze data bekend zijn, kunnen de algoritmes op basis van deze data voorspellen welke personen ook als kwetsbaar kunnen worden aangemerkt.

Het gevaar dat hierbij bestaat is dat er discriminatie plaatsvindt. Het kan bijvoorbeeld zo zijn – en dit voorbeeld berust niet op feiten – dat gezondheidsinstellingen met voornamelijk vrouwen meer gegevens verzamelen dan instellingen met voornamelijk mannen. Om die reden zijn er meer data over vrouwen beschikbaar, gewoonweg omdat die instellingen meer data hebben doorgegeven. Dus niet omdat vrouwen vaker problemen hebben. Op grond van die data voorspellen de algoritmes dat vrouwen sneller gezondheidsgevaren lopen, omdat zij sneller aan de kenmerken voldoen. Als gevolg daarvan worden er meer vrouwen dan mannen benaderd door de overheidsorganisatie die de algoritmes heeft willen gebruiken.

Discriminatie kan ook plaatsvinden als er op het moment dat de gegevens verzameld werden ook al (op kleine schaal) gediscrimineerd werd. Als er bijvoorbeeld meer gegevens over mensen met een migratie-achtergrond beschikbaar zijn omdat deze personen ook eerder staande worden gehouden door de politie, zullen er ook meer kenmerken aan deze mensen gekoppeld worden. Als gevolg daarvan voorspellen de algoritmes dat personen met een migratie-achtergrond sneller aan de kenmerken voldoen.

De Algemene Verordening Gegevensbescherming

We weten allemaal dat de Algemene Verordening Gegevensbescherming (de AVG) onze privacybescherming een flinke boost heeft gegeven. Hoe zit dit nu met algoritmes?

Persoonsgegevens

Er zijn verschillende artikelen op deze verwerking van persoonsgegevens van toepassing. Allereerst is dat artikel 4 lid 1 bepaalt wat “persoonsgegevens” zijn:

alle informatie over een geïdentificeerde of identificeerbare natuurlijke persoon („de betrokkene”); als identificeerbaar wordt beschouwd een natuurlijke persoon die direct of indirect kan worden geïdentificeerd, met name aan de hand van een identificator zoals een naam, een identificatienummer, locatiegegevens, een online identificator of van een of meer elementen die kenmerkend zijn voor de fysieke, fysiologische, genetische, psychische, economische, culturele of sociale identiteit van die natuurlijke persoon.

In deze zaken gaat het om twee groepen van data: data van mensen die in het verleden bijvoorbeeld kwetsbaar waren en de data van mensen die met deze data vergeleken wordt.

Bij beide groepen gaat het om data met kenmerken van personen. Zo zullen bijvoorbeeld de leeftijd, de opleiding en het adres van de persoon zijn opgeslagen. Als dit gegevens zijn die de directe of indirecte identificatie van een natuurlijk persoon mogelijk maken, zijn het persoonsgegevens. Als dat niet zo is – omdat de gegevens bijvoorbeeld zijn geanonimiseerd – is de AVG niet van toepassing.

Het zou zo kunnen zijn dat de eerste groep van gegevens geanonimiseerd is. Het doet er immers niet toe hoe deze personen precies heten, maar alleen wat hun kenmerken zijn. Echter, als de woonplaats in combinatie met een leeftijd genoemd wordt, kan dit alsnog leiden tot indirecte identificatie. Er zullen namelijk niet veel personen met dezelfde leeftijd op dat specifieke adres wonen – tweelingen niet meegerekend.

Van de tweede groep is het waarschijnlijker dat dit persoonsgegevens betreffen. Het is namelijk juist de bedoeling dat de voorspellingen tot bepaalde personen leiden, die vervolgens onderzocht kunnen worden. Uit het bericht van de NOS volgt overigens dat de algoritmes niet tot automatische beslissingen leiden, maar dat hier altijd nog een ambtenaar tussenzit.

Kortom: de AVG zal dus waarschijnlijk op beide groepen, of in ieder geval op de tweede groep, van toepassing zijn.

Profiling

Het gebruik van algoritmes, zoals hiervoor bedoeld, kwalificeert zich als profilering. In artikel 4 lid 4 staat:

„profilering”: elke vorm van geautomatiseerde verwerking van persoonsgegevens waarbij aan de hand van persoonsgegevens bepaalde persoonlijke aspecten van een natuurlijke persoon worden geëvalueerd, met name met de bedoeling zijn beroepsprestaties, economische situatie, gezondheid, persoonlijke voorkeuren, interesses, betrouwbaarheid, gedrag, locatie of verplaatsingen te analyseren of te voorspellen

Volgens artikel 22 geldt voor profilering:

De betrokkene heeft het recht niet te worden onderworpen aan een uitsluitend op geautomatiseerde verwerking, waaronder profilering, gebaseerd besluit waaraan voor hem rechtsgevolgen zijn verbonden of dat hem anderszins in aanmerkelijke mate treft.

In lid 2 staan overigens wel enkele uitzonderingen op deze regel.

Als een besluit dus gebaseerd is op profilering, heeft de betrokkene (dus de persoon wiens gegevens verwerkt zijn) het recht hier niet aan te worden onderworpen. Dit recht kan je uiteraard alleen uitvoeren als je ook wéét dat het besluit over jou onderworpen was aan profilering.

Transparantie

In overweging 39 (de overwegingen gaan vooraf aan de artikelen uit de AVG) staat dan ook:

Voor natuurlijke personen dient het transparant te zijn dat hen betreffende persoonsgegevens worden verzameld, gebruikt, geraadpleegd of anderszins verwerkt en in hoeverre de persoonsgegevens worden verwerkt of zullen worden verwerkt.

Ook op andere plaatsen, bijvoorbeeld in artikel 5 lid 1 sub a, komt dit transparantiebeginsel terug.

Op grond van deze artikelen zal Wolfsen van de AP hebben verklaard dat de overheidsinstanties transparant moeten zijn over het gebruik van persoonsgegevens. Alleen als je weet dat je gegevens worden verwerkt bij profilering, kan je namelijk gebruik maken van je rechten, zoals bijvoorbeeld artikel 22.

Het gevaar van discriminatie is daarmee alleen nog niet van de baan. Ook als het bekend is dat je gegevens in algoritmes worden gebruikt, kan het daarop gebaseerde besluit nog gegrond zijn op discriminerende uitgangspunten. Wolfsen van de AP noemt daarom ook dat er transparantie nodig is over de totstandkoming van besluiten, en volgens Engelfriet blijkt ook uit de rechtspraak van de Raad van State dat de overheid moet onderbouwen hoe een besluit tot stand is gekomen. Voorlopig lijken de overheidsorganisaties daar de plank flink mis te slaan.

Uit het artikel van de NOS blijkt dat instanties zich niet schamen voor het gebruik van algoritmes, vaak omdat ze de voorspellingen nog laten controleren en ook bepaalde gegevens (bijvoorbeeld omtrent etniciteit en geloof) juist niet meenemen in de voorspellingen. Bij doorvragen bleek alleen dat veel instanties niet kunnen aanwijzen op welke exacte gegevens hun voorspellingen gebaseerd zijn. Hierdoor kan discriminatie dus niet worden uitgesloten.

Conclusie

Algoritmes maken het leven makkelijker en efficiënter, maar lang niet altijd eerlijker. De gegevens waarop de voorspellingen gebaseerd zijn kunnen ervoor zorgen dat discriminatie in de hand gewerkt wordt. Dit is een ernstige zaak, zeker met het oog op de rechten die de AVG aan de betrokkenen verleent.

Wolfsen van de AP geeft aan dat er meer transparantie moet zijn over het gebruik van algoritmes. Het gaat dan met name over transparantie bij de totstandkoming van besluiten die gebaseerd zijn op algoritmes. Hierdoor kan de kans op discriminatie worden ingeperkt.

Al met al is transparantie een vereiste voor gebruikmaking van algoritmes. Niet alleen omdat het transparantiebeginsel vaak terugkomt in de AVG, maar ook omdat de kans op discriminatie moet worden ingeperkt.

Volgens de NOS hebben de VVD en D66 Kamerstukken ingediend over dit onderwerp. We zijn benieuwd wat hier uit gaat komen.

Gerelateerde berichten