7 minuten lezen

 

In dit derde deel van de serie 'Kunstmatige Intelligentie (KI) en de impact op de maatschappij’ staat de vraag centraal hoe we ervoor kunnen zorgen dat KI een bouwsteen wordt voor menselijke voorspoed.

 

In het eerste deel van de serie zagen we dat KI draait om de competentie van machines om te leren. Dat kunnen ze, zonder te begrijpen wat er precies gebeurt. Concrete toepassingen van KI zijn al ingebed in ons dagelijks leven. In deel 2 bleek dat er heel verschillend gedacht wordt over de vraag of de impact van KI uiteindelijk positief of negatief zal zijn voor de mensheid. KI is volgens wetenschappers in ieder geval geen existentiële dreiging. Maar omdat we niet precies weten hoe de toekomst van KI eruit ziet, is het verstandig om veiligheid in te bouwen. En nu staan we dus voor de vraag hoe KI kan bijdragen aan onze voorspoed.

 

Wat is er nodig?

Het is belangrijk om KI door te ontwikkelen op een manier die de voordelen maximaliseert, zonder gevaarlijke situaties teweeg te brengen. Dit betekent onder andere dat er aandacht nodig is voor het controleprobleem: hoe zorgen we ervoor dat KI alleen de doelen bereikt die we willen en dat de mens niet de controle over KI verliest? Voor een veilige en gunstige doorontwikkeling van KI zijn concreet drie zaken nodig.

 

1. Een diverse KI-ontwikkelomgeving

Een recent boek geeft een interessante inkijk in de wereld van KI en de mensen die erbij betrokken zijn. Amy Webb beschrijft in The big Nine dat het hier gaat om een kleine en homogene groep mensen. Deze groep bestaat voornamelijk uit blanke mannen, welvarend en hoogopgeleid aan een handvol universiteiten. Ze werken veelal voor de grote techbedrijven of aan de universiteit en vormen een gesloten netwerk. Dit netwerk staat negatief tegenover vrouwen, minderheden en mensen die een andere achtergrond hebben.

 

KI is gebaat bij diversiteit.

 

Het gebrek aan diversiteit wordt bijvoorbeeld geïllustreerd door het feit dat in 2018 slechts 31% van de werknemers van Google vrouw was en 2,5% zwart. (Google diversity annual report 2018). Af en toe komen de politiek weinig correcte opvattingen van sommige leden van het netwerk naar buiten. In 2017 ontstond een rel bij Google toen een werknemer in een interne memo betoogde dat vrouwen biologisch gezien minder geschikt zijn om te programmeren. Google-baas Pichai ontsloeg de man, maar stelde ook dat de memo serieuze punten voor discussie bevatte. (New York Times, ‘Google Fires Engineer Who Wrote Memo Questioning Women in Tech’, 7 augustus 2017).

 

 

 

 

De kern van de KI-systemen die nu gebouwd en doorontwikkeld worden, is gebaseerd op het wereldbeeld, de waarden en sociale opvattingen (inclusief vooroordelen) van deze kleine homogene groep KI-experts. Die systemen zullen uiteindelijk beslissingen voor ons allemaal nemen. De geslotenheid van deze groep zal het streven om KI ten gunste te laten komen van de hele mensheid moeilijk maken. Volgens Webb is het wel essentieel dat dit gebeurt, omdat KI van een commercieel product inmiddels een publiek goed is geworden. Het is dus van groot belang om de wereld van KI meer divers te maken, bijvoorbeeld door een grotere betrokkenheid van vrouwen en minderheden, maar ook door verschillende disciplines erbij te betrekken (denk aan filosofen, economen, sociologen). Overigens kunnen ook non-profitorganisaties een rol spelen in de verbreding van het KI-netwerk. Zo heeft in Nederland de VHTO (het Landelijk expertisebureau meisjes/vrouwen en bèta/techniek) een project gelanceerd waarin basisschoolmeisjes kennismaken met de wereld van KI. (DeepDivers.ai project)

 

2. Transparantie en uitlegbaarheid

Een tweede belangrijke factor voor een succesvolle doorontwikkeling is dat de werking van KI duidelijk is en de resultaten begrepen kunnen worden. Dat is vaak nog niet het geval. De algoritmen in KI-toepassingen zijn vaak black boxes. Dat betekent dat we niet goed weten hoe ze precies werken en hoe ze tot een bepaald resultaat komen. Het probleem hierbij is dat KI-toepassingen wel ingezet worden om beslissingen te nemen die gevolgen hebben voor het leven van mensen. Zo is KI in de Verenigde Staten bijvoorbeeld gebruikt om het functioneren van leraren te beoordelen. Ook aanvragen voor creditcards en sollicitatiebrieven worden vaak beoordeeld door een KI. Dit roept de vraag op wie verantwoordelijk is voor een genomen beslissing en of beroep tegen zo’n beslissing mogelijk is. In het voorbeeld hierboven waren er uitstekend functionerende en geliefde docenten die op basis van de uitkomst van het algoritme ontslagen werden, waarbij niet uitgelegd kon worden waar de beslissing precies op gebaseerd was. Of de beslissing correct en rechtvaardig was, kon dus niet beoordeeld worden.

 

 Voor het toekomstig vertrouwen in KI is transparante en uitlegbare KI van groot belang.

 

Daarnaast is gebleken dat KI-systemen getraind zijn met datasets die oud zijn en fouten of vooroordelen bevatten, waardoor de beslissingen van dergelijke systemen discriminerend kunnen uitpakken. Een voorbeeld is het gebruik van algoritmen om sollicitanten sneller te selecteren. Dit gebeurt op basis van informatie en foto’s van ‘succesvolle’ mensen (in de praktijk: jonge, blanke mannen en vrouwen). Door de inzet van dergelijke algoritmen krijgen bepaalde groepen minder kansen in de samenleving. Zoals O’Neil stelt in haar kritische boek over algoritmen: ‘De grote massa mensen wordt beoordeeld door algoritmen, de rijken worden beoordeeld door andere mensen’. Voor het toekomstig vertrouwen in KI is transparante en uitlegbare KI van groot belang.

Ook in Nederland komt de discussie over transparantie momenteel op. De NOS berichtte recent dat de overheid op grote schaal voorspellende algoritmen gebruikt, wat een groot gevaar op discriminatie met zich meebrengt. Het gaat bijvoorbeeld om de politie, de Belastingdienst en gemeenten. De Autoriteit Persoonsgegevens stelt dat de overheid hier transparant over moet zijn en helder moet maken op welke manier gegevens van burgers worden verwerkt en hoe besluiten tot stand komen.

 

3. Meer bemoeienis van de overheid en consumenten

Dat brengt ons bij het laatste punt: hoe zorgen we er voor dat de wereld van KI diverser wordt en dat er bij de doorontwikkeling voldoende aandacht is voor transparantie? De eerder aangehaalde opmerking van Amy Webb dat KI niet slechts een commercieel product is, maar een publiek goed is geworden, illustreert dat we dat niet aan de KI-experts zelf over kunnen laten. Zij hebben niet de juiste prikkels hiervoor. Hier is een rol weggelegd voor de overheid en de consument. Het pakken van die rol betekent wel een breuk met het verleden, want de ontwikkeling van KI is de afgelopen decennia uitbesteed aan de commerciële sector (denk aan de grote techbedrijven als Google en Facebook), die andere belangen nastreeft dan de gemiddelde burger. Daardoor is commercieel succes tot nu toe altijd de drijfveer geweest voor de vooruitgang in KI. Zowel consumenten als de overheid vormen in dit systeem zelfs een perverse prikkel, door druk uit te oefenen op de techbedrijven om zo snel mogelijk praktische en commerciële toepassingen van KI op de markt te brengen. Dat leidt tot de gevaarlijke situatie dat de drijvende krachten achter KI de markt en consumentisme zijn (in het Westen) of de wens van de overheid om door middel van KI totale controle uit te oefenen op de bevolking (in bijvoorbeeld China).

 

Overheid en consumenten moeten mede-verantwoordelijk worden.

 

Voor een veilige doorontwikkeling van KI is meer bemoeienis van de overheid dus essentieel. Wat houdt die bemoeienis in? In de eerste plaats is een strategische lange termijnvisie voor KI nodig, die nu helaas in veel landen, waaronder Nederland, nog ontbreekt. Aan het begin van dit artikel noemden we al het controleprobleem, dat eigenlijk begint met de vraag ‘welke doelen moet KI nastreven en welke niet?’. Na het vormen van een visie moet de overheid, als beschermer van het publieke belang, een minimale set ethische principes en wettelijke beperkingen vaststellen. Als de overheid wil dat KI in de toekomst de hele bevolking ten goede komt en geen gevaarlijke situaties oplevert, zal ze dat als leidend principe moeten formuleren en toezien op de toepassing ervan. Tot nu toe zijn afwegingen over de reikwijdte en het ethisch kader van intelligente systemen vooral neergelegd bij de ontwikkelaars van die systemen. Maar zij zijn in de praktijk gericht op andere zaken (zoals de techniek en de algoritmen). Daarnaast is het aan de samenleving en de politiek (en niet aan commerciële bedrijven) om te bepalen wat de ethische kaders zijn. Hierbij kan gebruik worden gemaakt van de principes die wetenschappers en bedrijven zelf al geformuleerd hebben. Het meest bekend zijn de Asilomar AI Principles (2017). Deze 23 principes zijn tot stand gekomen tijdens een conferentie over de toekomst van KI, waarbij in vele discussies uiteindelijk gekeken is naar waar overeenstemming over was. De laatste stap is dat het ethisch kader al bij het ontwerp van KI-systemen meegenomen wordt.

 

De Asilomar AI Principles richten zich op drie thema’s:

  1. Onderzoeksaspecten van KI (bijvoorbeeld: het doel van KI-onderzoek is om gunstige KI te creëren in plaats van ongerichte KI).
  2. Ethiek en waarden van KI (bijvoorbeeld: KI-systemen moeten inherent veilig zijn. Wanneer een KI schade toebrengt, moet vastgesteld kunnen worden waarom dat gebeurd is).
  3. De langetermijnaspecten van KI (bijvoorbeeld: geavanceerde KI moet niet als vanzelf kunnen ontstaan, maar moet gepland worden).

(Bron: www.futureoflifeinstitute.org)

  

Zoals Amy Webb het stelt: ‘Veilige technologie met een positieve impact op de mensheid is het resultaat van planning, samenwerking en moedig leiderschap.’ In het vierde artikel in deze serie wordt specifiek gekeken naar Nederland: welke rol speelt ons land in de toepassing en verdere ontwikkeling van KI?

 

Geraadpleegde bronnen

Brockman, ed., Possible minds. 25 ways of looking at AI (2019).

ECP, Whitepaper Artificial Intelligence. Gespreksstof en handvatten voor een evenwichtige inbedding in de samenleving (2018).

European Parliamentary Research Service (EPRS), Should we fear artificial intelligence? (2018).

Future of Life Institute (www.futureoflifeinstitute.org).

Cathy O’Neil, Weapons of math destruction. How big data increases inequality, and threatens democracy (2016).

Price Waterhouse Coopers, AI trends for 2018 (2018).

Webb, The big nine. How the tech titans and their thinking machines could warp humanity (2019).