Blog

Hoe moeten we de aansprakelijkheid voor AI-systemen regelen?

Artificial intelligence (AI) of kunstmatige intelligentie (KI) is een vorm van intelligentie waarmee machines en software zelfstandig beslissingen kunnen nemen en problemen kunnen oplossen. AI richt zich steeds meer op consumenten. Denk hierbij aan huishoudelijke hulprobots, zorgrobots en zelfrijdende auto’s. Dit brengt allerlei juridische vraagstukken mee, bijvoorbeeld met betrekking tot AI-systemen en aansprakelijkheid. Wat nu als een AI systeem schade veroorzaakt?

Een geopperde mogelijke oplossing voor dit probleem zou zijn om aan AI-systemen rechtspersoonlijkheid toe te kennen. Zij kunnen dan worden aangesproken voor door hen veroorzaakte schade.

In deze blog worden enkele vraagstukken met betrekking tot AI-systemen en aansprakelijkheid besproken. Per vraagstuk zal ook aan bod komen of het toekennen van rechtspersoonlijkheid aan AI-systemen een (wenselijke) oplossing is. Kortom: hoe moeten we de aansprakelijkheid van AI-systemen regelen?

AI systemen

Wat zijn rechtssubjecten?

Rechtssubjecten zijn zelfstandige dragers van rechten en plichten. Het recht is geschreven voor rechtssubjecten. Zij beschikken over een eigen vermogen en over de bekwaamheid om rechtshandelingen te verrichten. Rechtssubjecten zijn onder te verdelen in natuurlijke personen en rechtspersonen.

Naast rechtssubjecten bestaan er rechtsobjecten. Dit zijn in tegenstelling tot rechtssubjecten geen dragers van rechten en plichten, maar dit zijn objecten waarop het rechtssubject zijn of haar rechten kan uitoefenen.

AI-systemen zijn geen natuurlijke personen. Het zijn namelijk geen mensen. Ook zijn AI-systemen geen rechtspersonen. Immers, de wet voorziet niet in de mogelijkheid om AI-systemen rechtspersoonlijkheid toe te kennen. Kortom, AI-systemen zijn rechtsobjecten en geen rechtssubjecten. Daarom hebben zij ook geen rechten en plichten. Dit kan problematisch zijn, en daarom wordt soms wel gepleit voor het toekennen van rechtspersoonlijkheid aan AI-systemen. Enkele vraagstukken zullen hieronder worden besproken.

Wat als een AI-systeem een onrechtmatige daad pleegt?

Allereerst een vraagstuk in het buitencontractuele aansprakelijkheidsrecht. Het uitgangspunt van het Nederlandse aansprakelijkheidsrecht is dat ieder zijn eigen schade draagt, tenzij er een grond bestaat om de schade af te wentelen op een ander persoon. Deze andere persoon kan een natuurlijke persoon of een rechtspersoon zijn.

AI-systemen bezitten, zoals hiervoor aangegeven, geen rechtspersoonlijkheid. Maar zij kunnen wel schade veroorzaken door een onrechtmatige daad. Zeker in de toekomst is dit goed denkbaar.

Het meest sprekende voorbeeld is de zelfrijdende auto. De ultieme zelfrijdende auto accelereert, remt, stuurt en parkeert zichzelf zonder dat daar een persoon aan te pas komt. Een zelfrijdende auto kan een ongeluk veroorzaken, waardoor schade bij een ander ontstaat.

De vraag is op wie die schade kan worden verhaald. Op de bezitter van de auto, omdat sprake kan zijn van een gebrekkige roerende zaak (artikel 6:173 BW)? Op de producent van de auto (en/of de software), omdat het product gebrekkig kan zijn (artikel 6:185 BW)? In elk geval niet op de auto of de software zelf, omdat dit geen rechtssubjecten zijn.

Voor een persoon die schade lijdt als gevolg van een ongeluk veroorzaakt door een AI-systeem is het dus lastig te bepalen op wie hij of zij de schade kan verhalen. Sterker nog: het is denkbaar dat de producent en de bezitter allebei niet aansprakelijk zijn voor de schade veroorzaakt door het AI-systeem omdat niet aan de voorwaarden van artikel 6:173 BW en/of artikel 6:185 BW is voldaan. Bijvoorbeeld omdat de schade geen gevolg is van een gebrek aan het AI-systeem, maar door een zelfstandige keuze van het AI-systeem. Met inachtneming van het uitgangspunt dat “ieder zijn eigen schade lijdt, tenzij…” bestaat het risico daarom dat het slachtoffer de schade niet op grond van het huidige recht op een ander kan verhalen, en daarmee zijn of haar eigen schade moet dragen. Dit is natuurlijk niet wenselijk vanuit het oogpunt van het slachtoffer.

Een mogelijke oplossing zou zijn om aan AI-systemen rechtspersoonlijkheid toe te kennen. Dan kan de schade namelijk worden afgewenteld op het AI-systeem zelf. De vraag is echter of hiermee feitelijk het probleem wordt opgelost. Vooralsnog is het moeilijk voor te stellen dat je in de rechtbank staat tegenover een AI-systeem dat zich verdedigt tegen een claim. Bovendien hebben AI-systemen geen vermogen waarop het slachtoffer zich kan verhalen. Kortom, de vraag is of rechtspersoonlijkheid in het kader van het aansprakelijkheidsrecht leidt tot een oplossing.

Wat naar mijn idee een betere oplossing is om te regelen dat de eigenaar of de producent (risico)aansprakelijk is voor acties van zijn of haar AI-systemen. De eigenaar of de producent moet zich dan verzekeren voor de door het AI-systeem veroorzaakte schade door daarvoor een speciale verzekering af te sluiten. Op deze wijze kan het slachtoffer met een claim altijd terecht bij de eigenaar of de producent, waarna de eigenaar of de producent een beroep kan doen op zijn verzekering.

Wat als een AI-systeem zelfstandig deelneemt aan het rechtsverkeer?

Een ander vraagstuk doet zich voor in de kern van het vermogensrecht, maar raakt ook het (contractuele) aansprakelijkheidsrecht. AI-systemen kunnen eigen keuzes maken en zo kunnen zij ook deelnemen aan het rechtsverkeer. Het “Internet-of-Things” schoolvoorbeeld is dat een slimme koelkast zelfstandig een pak melk bestelt als de melk (bijna) op is. Wat nu als niet voor de bestelling wordt betaald? Bij wie kan de schuldeiser dan alsnog nakoming van de betaling vorderen?

De eerste gedachte is waarschijnlijk dat dit zou moeten kunnen bij de eigenaar van het AI-systeem. Dit stuit echter op problemen indien de eigenaar niet is te achterhalen. Ook kan worden beargumenteerd dat een AI-systeem in zekere mate zelf handelt, en dat het niet redelijk is om de eigenaar – te allen tijde – voor de gevolgen daarvan te laten opdraaien.

Ook hierbij is het de vraag of het toekennen van rechtspersoonlijkheid aan AI-systemen dit probleem zou oplossen. Vanwege het eerder genoemde argument dat een AI-systeem geen vermogen heeft, is dit waarschijnlijk niet het geval. Een (verplichte) verzekering zou ook hier uitkomst kunnen bieden. Een oplossing zou zijn om wettelijk te verplichten dat een AI-systeem alleen aan het rechtsverkeer mag deelnemen als dit systeem verzekerd is voor de rechtsgevolgen die deze door deelname aan het rechtsverkeer in het leven roept.

Hoe moeten we de aansprakelijkheid voor AI-systemen regelen?

Al met al, is het toekennen van rechtspersoonlijkheid aan AI-systemen wat mij betreft niet de meest wenselijke oplossing voor het aansprakelijkheidsprobleem. Het is namelijk (vooralsnog) moeilijk voor te stellen dat een AI-systeem een eigen vermogen heeft waar men zich op kan verhalen. Bovendien betekent het toekennen van rechtspersoonlijkheid dat AI-systemen (bijna) alles mogen doen wat mensen ook mogen doen. De vraag is of we dit moeten willen.

Een meer wenselijke en betere oplossing is wat mij betreft het oplossen van het aansprakelijkheidsprobleem door middel van het verplicht stellen van verzekeringen. Op die manier kan degene die schade lijdt als gevolg van handelen van een AI-systemen deze schade verhalen op de eigenaar/producent. Deze kan op zijn beurt de verzekering aanspreken.

Naast deze vraagstukken met betrekking tot AI en aansprakelijkheid bestaan er meerdere interessante juridische vraagstukken met betrekking tot AI. Bijvoorbeeld wat als een AI-systeem een werk maakt? Wie heeft daarop de auteursrechten? Rusten daarop überhaupt auteursrechten? Een leuk blogonderwerp voor de volgende keer.

Gerelateerde berichten