Neem contact op

IAMA: Impact Assessment voor Mensenrechten bij de inzet van Algoritmes

Een kritische blik op algoritmes door de inzet van een IAMA

Algoritmes worden veelvuldig ingezet bij organisaties. Het wordt vaak ingezet met als doel om processen efficiënter in te richten. Het gebruik van algoritmen kan echter grote impact hebben op mensen. Bij het gebruik van algoritmes komen niet alleen technische en juridische, maar ook ethische aspecten kijken. Het is van belang dat bij het gebruik van algoritmes fundamentele rechten worden gerespecteerd. Het uitvoeren van een Impact Assessment voor Mensenrechten bij de inzet van Algoritmes (hierna: IAMA) is dan ook van belang. Wat een IAMA-model precies inhoudt wordt in deze blog uitgelegd.

Wat is het IAMA-model en wat is het doel?

Een IAMA is een impact assessment voor mensenrechten bij de inzet van algoritmes. Het is een geschikt middel als het gaat om het gebruik van een algoritme. Bij het gebruik van algoritmes kan het ook gaan om de verwerking van persoonsgegevens. De rijksoverheid heeft het IAMA-model opgesteld als onderdeel van de ‘toolbox ethisch verantwoord innoveren’. Door het uitvoeren van een IAMA kunnen algoritmes op een zorgvuldig manier worden ingezet. Alhoewel een IAMA dient als middel om alle aandachtspunten bij de inzet van algoritmes vroegtijdig te bespreken, kan het ook dienen als middel voor reflectie. Door het uitvoeren van een IAMA kan een afweging worden gemaakt of een algoritmische toepassing wel of niet zal worden ontwikkeld. Daarnaast helpt het model ook om het algoritme te implementeren op een verantwoorde manier.

In de IAMA komen veel onderwerpen aan bod, waardoor een weloverwogen keuze kan worden gemaakt voor de inzet van algoritmes. Door het gebruik van een IAMA wordt op gestructureerde manier specifieke thema’s besproken. Het model is onmisbaar voor organisaties die bezig zijn met algoritmes. Het model kan bij overheidsinstanties, maar ook in het bedrijfsleven gebruikt worden. Bij de toepassing van een IAMA is de betrokkenheid van personen met verschillende specialisaties van belang.

Wat is in het IAMA-model opgenomen?

Het uitvoeren van een IAMA geschiedt in 3 belangrijke fasen: 1) de voorbereiding 2) input en throughout 3) output, implementatie en toezicht.

Het IAMA-model bestaat uit vier delen, per onderdeel worden daarnaast ook verschillende onderwerpen besproken.

  1. Het eerste deel gaat in op de ‘waarom’ vraag. Hier worden de beoogde effecten (doel) van het ontwikkelen of gebruik van het algoritme besproken. Dit deel bespreekt vijf onderwerpen; aanleiding en probleemdefinitie, doelstelling, publieke waarden, wettelijke grondslag & betrokkenen en verantwoordelijkheden.
  2. Het tweede deel gaat in op de ‘wat’ vraag. In dit deel wordt ingegaan op de vormgeving van het algoritme. Dit deel bevat twee onderdelen: de input (data) en throughput (algoritme). Daarbij worden de randvoorwaarden voor het gebruik van het algoritme besproken door middel van vier onderwerpen. Bij het onderdeel input (data) wordt het type algoritme, databronnen en kwaliteit, bias/aannames in de data & beveiliging en archivering besproken. Bij het onderdeel throughput (algoritme) wordt naast het type algoritme ook eigenaarschap en controle, accuraatheid algoritme & transparantie en uitlegbaarheid besproken..
  3. Het derde deel gaat in op de ‘hoe’ vraag. Hierbij wordt de implementatie en het gebruik (de output) van het algoritme besproken. Dit deel bespreekt onder andere onderwerpen zoals de effecten van het algoritme, procedures en communicatie.
  4. Het laatste deel gaat in op de mensenrechten, waarbij de nagestreefde doelen en mogelijk geraakte grondrechten worden behandeld. Dit deel gaat onder andere in op de vraag of grondrechtenaantasting kan worden voorkomen of gemitigeerd kan worden. Daarnaast wordt er gekeken of de inbreuk in verhouding staat ten opzichte van de nagestreefde doelen.

Wat is de verhouding tussen een IAMA en andere instrumenten?

Een IAMA is net als een Data Protection Impact Assessment (DPIA), een instrument dat als doel heeft om de mogelijke impact van een voorgenomen verwerking in kaart te brengen. Toch verschilt een IAMA wel van een DPIA. Bij een IAMA gaat het om de impact van algoritmes op mensenrechten en niet specifiek over de verwerking van persoonsgegevens. Een IAMA en een DPIA kunnen gezamenlijk worden ingezet. De rijksoverheid heeft recent nog een handreiking gepubliceerd voor het gezamenlijk gebruik IAMA en model DPIA rijksdienst. Een IAMA en DPIA kan gezamenlijk worden ingezet wanneer het uitvoeren van een DPIA verplicht is en bij de voorgenomen verwerking een algoritme wordt gebruikt.

Waar moet je als organisatie rekening mee houden?

Het IAMA-model verwijst naar veel andere richtlijnen, kaders en instrumenten, zoals DPIA’s. Een IAMA kan dienen als een overkoepelend instrument. Vragen die zijn beantwoord in het model kunnen ook worden gebruikt in onderliggende instrumenten zoals een DPIA. Het is dan goed om beide modellen naast elkaar te houden zodat geen onnodig dubbel werk wordt verricht. Daarnaast is het bij de toepassing van een IAMA-model belangrijk dat verschillende personen met specifieke kennis onderdeel zijn van de uitvoering. Veel onderdelen vereisen namelijk specifieke kennis om tot antwoorden te komen. Het is dus van belang om alle belangrijke personen tijdig in het proces te betrekken. In de toekomst kan het uitvoeren van een IAMA verplicht worden. Overigens heeft een ruime Kamermeerderheid de motie voor het verplicht stellen van IAMA’s voor publieke instellingen aangenomen. Dit houdt in dat publieke instellingen een IAMA moeten uitvoeren wanneer algoritmen worden ingezet om evaluaties van of beslissing over mensen te maken. In dit geval is een IAMA dus al verplicht.

Conclusie

Een IAMA-model is voor organisaties een geschikt middel om de risico’s van het gebruik van algoritmes te bepalen. Een IAMA gaat namelijk in op de mogelijke risico’s die kunnen ontstaan bij het gebruik van algoritmes en focust zich op het snijpunt tussen mensenrechten en algoritmes. Deze assessment helpt organisaties bij het verantwoord ontwikkelen en gebruiken van algoritmes. Het middel is noodzakelijk voor de bescherming van fundamentele mensenrechten bij de inzet van algoritmes. Wil je als organisatie zorgvuldig nadenken over het gebruik van algoritmen en mogelijke risico’s mitigeren? Cuccibu helpt organisaties graag bij het uitvoeren van een IAMA. Daarnaast kunnen wij ook binnen jouw organisatie meedenken op een verantwoorde omgang met AI als Responsible AI Officer.

Reduce Risk, Create Value!

Deel deze pagina! Kies je platform