Eerste Hulp bij de IAMA
De kick-off data-ethiek is vooral gericht op het overkoepelende verhaal. In het IAMA neem je een specifieke toepassing onder de loep. Wij begeleiden het IAMA-traject, faciliteren de IAMA-workshop of trainen je medewerkers in het zelfstandig uitvoeren van de IAMA.
Inzicht in risico's van algoritmegebruik in een toepassing
Het IAMA (Impact Assessment Mensenrechten en Algoritmes) ontwikkelt zich tot dé standaard op het gebied van het beoordelen van de risico's van algoritmes. De Tweede Kamer heeft in het voorjaar van 2022 een motie aangenomen om het uitvoeren van de IAMA (en het waar mogelijk openbaar maken van de uitkomsten daarvan) verplicht te maken voorafgaand aan het gebruik van algoritmen die worden ingezet om evaluaties van of beslissingen over mensen te maken.
Het bestaat uit twee delen. In het eerste deel wordt het algoritme in zijn context bekeken: wat wordt er met het algoritme beoogd? Wat voor data worden ervoor gebruikt? Om wat voor soort algoritme gaat het, en hoe wordt het gemodelleerd, geïmplementeerd en gebruikt? En hoe zit het met toezicht en verantwoording? In het tweede deel komen vervolgens de mensenrechten aan bod. Per mensenrecht dat in het geding is (een bijlage geeft daarvan een uitgebreide opsomming) wordt de impact stap voor stap afgepeld: is er sprake van specifieke wetgeving of richtsnoeren? Hoe zwaar moeten de (op grond van de volgende stappen) vereiste waarborgen zijn? Hoe effectief is het algoritme in het oplossen van het probleem waarvoor het bedoeld is? En voldoet de inzet aan de vereisten van noodzakelijkheid, subsidiariteit en proportionaliteit?