Spring naar content

Zo zorg je voor vertrouwen in Machine Learning-toepassingen

Home » Zo zorg je voor vertrouwen in Machine Learning-toepassingen
Leestijd: 2 minuten

Machine Learning, kortweg een computerprogramma (algoritme) dat kan leren van data, ontstijgt meer en meer de experimentele fase en wordt inmiddels toegepast om échte uitdagingen aan te pakken. Machine Learning is de motor van Artificial Intelligence (AI). Slimme AI-machines, zoals autonome robots in dark factories, nemen het productiewerk over zonder dat er nog een mens aan te pas komt. Toch zijn het niet deze robots die onze wereld fundamenteel zullen veranderen. Een veel grotere impact van AI zijn datagedreven algoritmes die zelfstandig beslissingen nemen die voorheen door menselijke experts werden genomen.

Vertrouwen wij de denkende machine?

Natuurlijk zijn er nog wel een paar technische kinderziektes te overwinnen, bijvoorbeeld met betrekking tot cybersecurity en cloud-based big data-platforms. De grootste uitdaging heeft echter niet zozeer met techniek te maken, maar veel meer met de menselijke natuur. De vraag is: vertrouwen wij de denkende machine? Om dat te durven doen, moeten we begrijpen hoe die machine denkt; we moeten zijn denkproces kunnen interpreteren.

Machine Learning-beslissingen met serieuze consequenties

Met behulp van Machine Learning-technieken is het mogelijk om patronen uit enorme hoeveelheden gegevens te destilleren. Deze inzichten kunnen zelfs door de beste menselijke experts niet worden doorzien. Dit soort machinaal gegenereerde inzichten kunnen (en wórden) gebruikt om voorspellingen te doen en beslissingen te nemen. Het gaat dan om beslissingen die serieuze consequenties hebben voor de klant en de maatschappij. Machines besluiten of je een lening of hypotheek krijgt, of je wordt toegelaten tot een school, of je een bepaalde baan krijgt, of je in aanmerking komt voor een medische behandeling, of je door de politie of de belastingdienst extra wordt gecontroleerd etc.

Kortom, de belangen zijn groot. Daarbij zie je dat juist de autonome algoritmes, met name Deep Learning algoritmes, vaak zo ondoorzichtig zijn, dat het niet mogelijk is te achterhalen hoe het algoritme tot zijn besluit is gekomen. Subtiele vooroordelen kunnen ongemerkt in de set met trainingsdata sluipen. Deze vooroordelen in de data (bias) kunnen daarbij zelfs nog verstrekt worden door het algoritme.

Een praktijkvoorbeeld van hoe het niet moet

Om ons heen zien we in rap tempo steeds meer bedrijven die geautomatiseerde besluitvorming implementeren. De belangrijkste les die hieruit getrokken kan worden: zorg dat je dit op een zorgvuldige, begrijpelijke en objectieve manier uitvoert en uitlegt. Besteed je hier te weinig aandacht aan, dan krijg je op niet mis te verstane wijze het deksel op de neus. Zo moest Gemeente Rotterdam onlangs stoppen met het fraudeonderzoek met risico-indicatiesysteem SyRI. Het systeem is niet transparant vinden de tegenstanders, omdat de overheid niet bekendmaakt welke gegevens het algoritme precies verwerkt voor het stempel ‘verhoogde kans op fraude’.

De oplossing: Interpretable Machine Learning

De crux van Interpretable Machine Learning (IML) is te bewijzen dat een autonoom, geautomatiseerd besluit zonder vooroordelen tot stand is gekomen, terwijl het algoritme een ondoorzichtige ‘black box’ is. Dit doe je door in alle stappen van machinale besluitvorming de vooroordelen te elimineren en transparantie toe te voegen.

In het blog In 5 stappen naar Interpretable Machine Learning leg ik uit hoe je dat doet.

Scroll naar boven