Algoritmes worden veelvuldig ingezet bij organisaties. Het wordt vaak ingezet met als doel om processen efficiënter in te richten. Het gebruik van algoritmen kan echter grote impact hebben op mensen. Bij het gebruik van algoritmes komen niet alleen technische en juridische, maar ook ethische aspecten kijken. Het is van belang dat bij het gebruik van algoritmes fundamentele rechten worden gerespecteerd. Het uitvoeren van een Impact Assessment voor Mensenrechten bij de inzet van Algoritmes (hierna: IAMA) is dan ook van belang. Wat een IAMA-model precies inhoudt wordt in deze blog uitgelegd.
Een IAMA is een impact assessment voor mensenrechten bij de inzet van algoritmes. Het is een geschikt middel als het gaat om het gebruik van een algoritme. Bij het gebruik van algoritmes kan het ook gaan om de verwerking van persoonsgegevens. De rijksoverheid heeft het IAMA-model opgesteld als onderdeel van de ‘toolbox ethisch verantwoord innoveren’. Door het uitvoeren van een IAMA kunnen algoritmes op een zorgvuldig manier worden ingezet. Alhoewel een IAMA dient als middel om alle aandachtspunten bij de inzet van algoritmes vroegtijdig te bespreken, kan het ook dienen als middel voor reflectie. Door het uitvoeren van een IAMA kan een afweging worden gemaakt of een algoritmische toepassing wel of niet zal worden ontwikkeld. Daarnaast helpt het model ook om het algoritme te implementeren op een verantwoorde manier.
In de IAMA komen veel onderwerpen aan bod, waardoor een weloverwogen keuze kan worden gemaakt voor de inzet van algoritmes. Door het gebruik van een IAMA wordt op gestructureerde manier specifieke thema’s besproken. Het model is onmisbaar voor organisaties die bezig zijn met algoritmes. Het model kan bij overheidsinstanties, maar ook in het bedrijfsleven gebruikt worden. Bij de toepassing van een IAMA is de betrokkenheid van personen met verschillende specialisaties van belang.
Het uitvoeren van een IAMA geschiedt in 3 belangrijke fasen: 1) de voorbereiding 2) input en throughout 3) output, implementatie en toezicht.
Het IAMA-model bestaat uit vier delen, per onderdeel worden daarnaast ook verschillende onderwerpen besproken.
Een IAMA is net als een Data Protection Impact Assessment (DPIA), een instrument dat als doel heeft om de mogelijke impact van een voorgenomen verwerking in kaart te brengen. Toch verschilt een IAMA wel van een DPIA. Bij een IAMA gaat het om de impact van algoritmes op mensenrechten en niet specifiek over de verwerking van persoonsgegevens. Een IAMA en een DPIA kunnen gezamenlijk worden ingezet. De rijksoverheid heeft recent nog een handreiking gepubliceerd voor het gezamenlijk gebruik IAMA en model DPIA rijksdienst. Een IAMA en DPIA kan gezamenlijk worden ingezet wanneer het uitvoeren van een DPIA verplicht is en bij de voorgenomen verwerking een algoritme wordt gebruikt.
Het IAMA-model verwijst naar veel andere richtlijnen, kaders en instrumenten, zoals DPIA’s. Een IAMA kan dienen als een overkoepelend instrument. Vragen die zijn beantwoord in het model kunnen ook worden gebruikt in onderliggende instrumenten zoals een DPIA. Het is dan goed om beide modellen naast elkaar te houden zodat geen onnodig dubbel werk wordt verricht. Daarnaast is het bij de toepassing van een IAMA-model belangrijk dat verschillende personen met specifieke kennis onderdeel zijn van de uitvoering. Veel onderdelen vereisen namelijk specifieke kennis om tot antwoorden te komen. Het is dus van belang om alle belangrijke personen tijdig in het proces te betrekken. In de toekomst kan het uitvoeren van een IAMA verplicht worden. Overigens heeft een ruime Kamermeerderheid de motie voor het verplicht stellen van IAMA’s voor publieke instellingen aangenomen. Dit houdt in dat publieke instellingen een IAMA moeten uitvoeren wanneer algoritmen worden ingezet om evaluaties van of beslissing over mensen te maken. In dit geval is een IAMA dus al verplicht.
Een IAMA-model is voor organisaties een geschikt middel om de risico’s van het gebruik van algoritmes te bepalen. Een IAMA gaat namelijk in op de mogelijke risico’s die kunnen ontstaan bij het gebruik van algoritmes en focust zich op het snijpunt tussen mensenrechten en algoritmes. Deze assessment helpt organisaties bij het verantwoord ontwikkelen en gebruiken van algoritmes. Het middel is noodzakelijk voor de bescherming van fundamentele mensenrechten bij de inzet van algoritmes. Wil je als organisatie zorgvuldig nadenken over het gebruik van algoritmen en mogelijke risico’s mitigeren? Cuccibu helpt organisaties graag bij het uitvoeren van een IAMA. Daarnaast kunnen wij ook binnen jouw organisatie meedenken op een verantwoorde omgang met AI als Responsible AI Officer.
Reduce Risk, Create Value!