Bewust kunstmatig intelligent ontwerpen

Nepnieuwsbestrijding en zelfrijdende auto’s hebben op het eerste gezicht weinig gemeen, tot je je realiseert dat aan beide software ten grondslag ligt die morele beslissingen neemt. Het ene stuurt de vrijheid van meningsuiting bij, het andere besluit mogelijk over leven en dood. Ontwerpmethoden die de morele kant van kunstmatige intelligentie meenemen, bestaan nauwelijks. Daar moet verandering in komen, aldus de IEEE.

De nadrukkelijk eerste versie van een document dat moet leiden tot normen voor ethische software-ontwikkeling, verscheen eind vorig jaar. ‘Ethically aligned design’ stelt zich ten doel een aanzet te zijn voor een wereldwijde discussie. ‘We hebben het hier in feite over de totstandkoming van een nieuwe vorm van due diligence, gepaste zorgvuldigheid’, zegt projectleider John Havens namens het IEEE Global Initiative for Ethical Considerations in Articifial Intelligence and Autonomous Systems. Hij legt uit dat de standaard niet bedoeld is om bepaalde ethische normen af te dwingen. Het gaat erom dat de ontwerper alle ethische aspecten zorgvuldig afweegt.

In zekere zin valt deze benadering te vergelijken met de ISO 9000 norm voor kwaliteitsbewaking. Die dwingt ook geen hoge kwaliteit van producten of processen af, maar garandeert dat de kwaliteit voldoet aan de gestelde eisen (die dus ook minimaal kunnen zijn).

Om maar meteen een heikel punt op te rakelen: de norm zal dus niet de robotwetten van Isaac Asimov opleggen, die onder meer stellen dat een robot nooit een mens kwaad mag doen. Sterker nog, het startdocument gaat expliciet in op autonome wapens, over de wenselijkheid en implicaties waarvan ook in het verband van de Verenigde Naties gesproken wordt. Voor ingenieurs is het van belang dat zij nadenken over de manieren waarop zij de verantwoordelijkheid van het wapengebruik traceerbaar maken, bijvoorbeeld door alle stappen in het beslissingsproces te loggen. Als er achteraf vragen zijn, moet het systeem transparant genoeg zijn om die te kunnen beantwoorden.

Het startdocument is overigens al het resultaat van een uitgebreide consultatieronde. Verdeeld over zeven subdomeinen zijn tientallen vragen geïnventariseerd waarop een antwoord nodig is. Sommige zijn technisch van aard (hoe bepaal je welke data ethisch gevoelig is, hoe documenteer je algoritmes?), andere hebben een bestuurlijke of juridische invalshoek (hoe creëer je binnen softwarebedrijven draagvlak voor ethisch ontwerpen, hoe definieer je de verantwoordelijkheden in kunstmatig intelligente systemen?).

Reacties

De deadline om visies op het startdocument in te leveren, verstreek in maart. ‘We waren even bang dat er niets zou komen, maar in de laatste weken stroomde het binnen’, vertelt Havens. ‘Inmiddels hebben we een document met negentig pagina’s feedback.’

Die feedback tot nu toe loopt zeer uiteen. Sommigen komen met abstracte filosofische opmerkingen, terwijl anderen zich afvragen hoe je ethische principes concreet gaat uitschrijven in programmacode. Havens: ‘In juni zullen we alles publiceren. Dan hopen we ook de trends uit de feedback te kunnen halen. Ik ben vooral blij met reacties uit landen als Korea en Mexico, omdat het startdocument vooral leunt op Amerikaanse en Europese expertise. Het document wordt momenteel in het Chinees vertaald.’

Een van de puzzels waar de projectgroep zich voor gesteld weet, is dat ethische normen per samenleving en zelfs binnen samenlevingen kunnen verschillen. Om westerse bias in de norm uit te sluiten is het belangrijk uit zoveel mogelijk landen en culturen input op te halen, ook als dat tot tegengestelde eisen leidt.

Bijvoorbeeld: het eerste principe dat het document formuleert, luidt dat kunstmatige intelligentie altijd ontworpen wordt met respect voor mensenrechten, vrijheden, menselijke waardigheid en culturele diversiteit. Maar in Saoedi-Arabië zijn vrouwen tweederangs burgers, voor wie het onder meer verboden is om auto te rijden. De komst van zelfrijdende auto’s zal de wetgevers daar voor de vraag stellen of een vrouw wel alleen in zo’n auto mag zitten. En vervolgens wellicht bij de ontwerper vragen opwerpen als: maak een detectiesysteem dat weigert de motor te starten als er alleen een vrouw in de auto zit, of misschien wel de motor start maar alleen een bestemming aanvaardt die door een man is ingesteld. Hoe stop je dit soort afwegingen in de norm?

Dichterbij huis komen er ongetwijfeld ethische ontwerpvragen bovendrijven op het moment dat robots de directe zorg voor ouderen of patiënten op zich gaan nemen. Nederland heeft een uitgebreide infrastructuur voor ethisch beleid in ziekenhuizen, stelt het startdocument vast, zodat het een goede plek is om op een verantwoorde manier te experimenteren met zorgrobots.

Nederland

De Nederlandse inbreng in `Ethically aligned design` is sowieso aanzienlijk. Er vindt hier namelijk al veel onderzoek plaats dat raakt aan de ethische aspecten van de ict, de interactie tussen mens en robot, en robotica in het algemeen. De Twentse hoogleraar Vanessa Evers, bijvoorbeeld, doet onderzoek naar de interactie tussen mensen en sociaal vaardige robots. Ze leidt onder andere het Europese onderzoeksproject De-Enigma, waarin autistische kinderen leren omgaan met een robot (en omgekeerd).

Aan de TU Delft werd op 24 maart het nieuwe onderzoeksinstituut ‘Design for Values’ geopend. ‘Het in overeenstemming brengen van kunstmatige intelligentie met morele en maatschappelijke waarden wordt een van de speerpunten van het instituut’, vertelt Virginia Dignum, die het instituut gaat leiden. ‘Daarnaast zijn we bezig met een boek over verantwoorde AI. In de verdere toekomst hopen we ook een masterprogramma op dit gebied op te zetten.’

Dignum, die met Havens in de stuurgroep van de IEEE zit, doe zelf al meer dan tien jaar onderzoek naar sociale simulaties met agents (computeragenten, ofwel kleine stukjes software die met elkaar interacties aangaan). Door agents uit te rusten met moreel of cultureel bepaald gedrag kan het effect daarvan in een groep gesimuleerd worden.

Er zijn, met andere woorden, al veel bouwstenen beschikbaar om te komen tot praktisch toepasbare methoden voor ethische software en robots. Het gaat er in de eerste plaats om de beschikbare kennis van hardware, software en sociale normen samen te brengen.

Transparantie

In het najaar van 2017 kwam al een tweede versie van ‘Ethically aligned design’ uit. Dat is beslist nog niet een norm, al was het maar omdat de projectgroep die helemaal niet mag opstellen, zegt Havens: ‘Wij mogen hoogstens een voorstel doen.’

Als die norm er eenmaal ligt, houdt het denkproces niet op. Immers, naar mate intelligente algoritmen en robots (al dan niet met ethische normen bij de hand ontworpen) een steeds dominantere plek in de samenleving krijgen, zullen zij die samenleving veranderen. Anders gezegd, niet alleen het ontwerp maar ook de inzet van autonome systemen heeft ethische implicaties.

De eerste versie van ‘Ethically aligned design’ komt daarom al met een aantal vragen die in komende versies aan de orde moeten komen, zoals: hoe kijk je aan tegen de rol van toeval en intimiteit in de samenleving? Nu al spelen slimme algoritmes bijvoorbeeld een toenemende rol bij de totstandkoming van partnerkeuzes. Op een gegeven moment kunnen mensen het label ‘onverantwoord bezig’ krijgen als ze de liefdesadviezen van de computer niet volgen en in plaats daarvan naar de kroeg gaan om een maatje te zoeken.

Ethische normen zijn niet bedoeld om dergelijke ontwikkelingen tegen te gaan. Ze beogen alleen mensen erop te wijzen, zodat ze de keuze bewust maken. De toekomstige ethische ontwerpnorm helpt ingenieurs daarbij – maar daarmee niet vanzelf ook de gebruikers van de systemen die zij zorgvuldig ontwerpen. Ook een consciëntieuze zorgrobot kan de patiënt paternalistisch vertellen wat goed voor hem is.

Oorspronkelijk geschreven voor De Ingenieur