IAMA


De IAMA (Impact Assessment Mensenrechten en Algoritmes) ontwikkelt zich tot dé standaard op het gebied van het beoordelen van de risico's van algoritmes. De Tweede Kamer heeft in het voorjaar van 2022 een motie aangenomen om het uitvoeren van de IAMA (en het waar mogelijk openbaar maken van de uitkomsten daarvan) verplicht te maken voorafgaand aan het gebruik van algoritmen die worden ingezet om evaluaties van of beslissingen over mensen te maken.

De IAMA bestaat uit twee delen. In het eerste deel wordt het algoritme in zijn context bekeken: wat wordt er met het algoritme beoogd? Wat voor data worden ervoor gebruikt? Om wat voor soort algoritme gaat het, en hoe wordt het gemodelleerd, geïmplementeerd en gebruikt? En hoe zit het met toezicht en verantwoording?

In het tweede deel komen vervolgens de mensenrechten aan bod. Per mensenrecht dat in het geding is (een bijlage geeft daarvan een uitgebreide opsomming) wordt de impact stap voor stap afgepeld: is er sprake van specifieke wetgeving of richtsnoeren? Hoe zwaar moeten de (op grond van de volgende stappen) vereiste waarborgen zijn? Hoe effectief is het algoritme in het oplossen van het probleem waarvoor het bedoeld is? En voldoet de inzet aan de vereisten van noodzakelijkheid, subsidiariteit en proportionaliteit?

Onze IAMA-diensten


Wij bieden de onderstaande IAMA-diensten aan.