Algoritmes, synoniem voor het zwarte gat van kunstmatige intelligentie

Veel beslissingen en keuzes die we in dit digitale tijdperk nemen en maken — of die voor ons worden genomen of gemaakt — zijn niet louter mensenwerk meer. Zij worden voorgerekend door algoritmes. Daarbij mogen we niet zonder meer afgaan op wat algoritmes ons als gewogen informatie presenteren. Vaak is er bias — systematische fouten — in de selectie en zijn uitkomsten gekleurd door een eenzijdig data-aanbod. Maar daarmee is nog niet het gehele probleem van een ongebreideld gebruik van algoritmes benoemd.

Met algoritmes wordt bijvoorbeeld vastgesteld of we voor leningen en hypotheken in aanmerking komen, waar we in beleggen, hoe groot ons betalingsrisico en onze zelfredzaamheid is. De mens doet in zulke standaardbesluitvormingsprocessen meestal wat de computer hem of haar voorschrijft. Terecht waarschuwde het FD in het hoofdredactioneel commentaar van 12 november voor blind vertrouwen.

Kunstmatige intelligentie
De wiskundige berekeningen, op grond waarvan algoritmes selecteren en kiezen, zijn zo complex dat niemand meer met honderd procent zekerheid kan zeggen of ze kloppen. Bovendien houdt het in- en externe toezicht op juistheid, integriteit en operationele doelmatigheid van algoritmes (en van de zuiverheid en representativiteit van de datasets waarmee ze worden gevoed en getraind) geen gelijke tred met de steeds bredere inzet van algoritmes in de maatschappelijke en bedrijfsmatige keuze- en besluitvormingsprocessen.
Zie daar het zwarte gat van de kunstmatige intelligentie in zijn volle omvang.

Toenemende risico’s 
De voorbeelden van schade door onregelmatigheden in algoritmes stapelen zich op. De risico’s worden groter en onoverzichtelijker. Rekenfouten en het gebruik van niet-representatieve data zorgen voor een slechte en onbetrouwbare algoritmische besluitvorming. Dat heeft zowel een grote maatschappelijke als economische impact. Aan de maatschappelijke kant zorgt het voor onterechte uitsluiting en discriminatie, en in het geval van bedrijven en instellingen voor onbetrouwbare rapportages, een grotere fraudekans en foute beslissingen.
De opkomst van nieuwe technologieën vergroot de kans op ontsporingen. Door het intensieve gebruik van big data en de introductie van blockchaintechnologie, smart contracts en het internet der dingen, wordt onze afhankelijkheid groter en neemt de complexiteit van onderliggende rekensommen en data-aanbod verder toe.
Dit roept vragen op die dringend moeten worden beantwoord, zoals hoe goed onze algoritmes bestand zijn tegen manipulatie. Hoe zuiver en representatief de data zijn waarmee algoritmes worden gevoed en getraind. Van welke aannames de ontwikkelaars bij hun berekeningen zijn uitgegaan. Zijn deze wiskundig juist verwerkt en hoeveel ruis is sindsdien ontstaan? Worden algoritmes aangepast aan veranderingen in markt- en omgevingsfactoren en zo ja, hoe? En: hoe kunnen we de kwaliteitscontrole en de verantwoording op een niveau brengen passend bij het groeiende belang van kunstmatige intelligentie?

Wetgeving
Feit is dat er in onze wet- en regelgeving en controle- en toezichtprocessen nog onvoldoende aandacht is voor deze vraagstukken. Er bestaat geen verplichting om software te testen, laat staan om algoritmes te (laten) checken. Wel schrijft de Wet persoonsbescherming voor dat bij algoritmische besluitvorming altijd mensen moeten zijn betrokken, en per 2018 verplicht de Algemene Verordening Gegevensbescherming organisaties die aan algoritmische besluitvorming doen de logica ervan te kunnen uitleggen.
Maar dat alleen is niet genoeg. Bij de volgende actualiseringsronde van de wet- en regelgeving rond cybersecurity en privacyvraagstukken moet dit thema breed geadresseerd worden. Er moeten snel internationaal geldende afspraken komen over verantwoordings- en ontwikkeleisen voor algoritmes.

Kansen
Dit biedt Nederland Dataland ook kansen. Door het goede voorbeeld te geven op het gebied van algoritme-security en algoritme-governance, versterken we onze ambities als mondiaal platform voor databeheer, datatransport en cyberveiligheidsvraagstukken.
Bovendien opent het een extra deur naar een perspectiefvolle groeimarkt: de wereldwijde kosten voor de controle op softwarefouten werd onlangs door Cambridge-onderzoekers op 285 miljard euro per jaar geschat.

Andre Mikkers is forensisch onderzoeker en voortrekker van de big datapraktijk van PwC. Jeroen Goudsmit is wiskundige en gespecialiseerd in digitale onderzoeksmethodieken en werkt ook bij PwC. Dit bericht is afkomstig van FD.nl

Publicaties