Monday, November 20, 2017

Dit is Sophia, ze heeft een paspoort

Dit artikel is gepubliceerd in NRC Handelsblad van 6 november 2017


Sophia is een robothoofd dat er akelig menselijk uitziet. Ze beweegt, praat, luistert, maakt gezichtsuitdrukkingen en ziet de wereld via een camera in haar borstkas. Sophia produceert begrijpelijke zinnen – een prestatie op zichzelf – maar heeft geen idee waar ze het over heeft en heeft geen eigen leven.

Toch kende Saoedi-Arabië deze robot onlangs het staatsburgerschap toe. Sophia heeft juridisch gezien nu dezelfde rechten en plichten als een Saoedische man, maar het is onduidelijk wat daarvan de praktische consequenties zijn.

Het toekennen van het Saoedische staatsburgerschap aan een robot was in de eerste plaats een publiciteitsstunt: ‘kijk ons eens technologisch vooruitstrevend zijn’. Misschien was het ook een reactie op de aanstelling van een minister voor kunstmatige intelligentie door buurland de Verenigde Arabische Emiraten een paar dagen eerder. Maar van een land dat vrouwen niet dezelfde rechten toekent als mannen, is het toekennen van het staatsburgerschap aan een robothoofd wel het laatste wat je verwacht.

Wat de motieven van Saoedi-Arabië ook mogen zijn, de actie maakt duidelijk dat de recente ontwikkelingen in kunstmatige intelligentie ons voor nieuwe vragen stellen. Moeten slimme computers en robots rechten krijgen? Hoe zorgen we ervoor dat wij nog begrijpen hoe en waarom intelligente systemen de beslissingen nemen die ze nemen? Hoe voorkomen we dat intelligente systemen discrimineren of anderszins schade berokkenen? Hoe zorgen we ervoor dat kunstmatige intelligentie iedereen ten goede komt en niet alleen de happy few?

Wetenschappers en andere partijen zijn tal van initiatieven gestart voor het opstellen van ethische principes voor onze omgang met kunstmatige intelligentie. Bijvoorbeeld het in Boston gevestigde Future of Life Institute, met mensen als Tesla-oprichter Elon Musk en sterwetenschapper Stephen Hawking in de wetenschappelijke adviesraad. Ook onder andere de Californische non-profitorganisatie XPrize, de Verenigde Naties en het Europese Parlement zijn bezig met onze ethische principes in verhouding tot slimme computers.

Principes

Deze initiatieven proberen los van elkaar standaarden te ontwikkelen om kunstmatige intelligentie in goede banen te leiden. Zo heeft het Future of Life Institute 23 principes opgesteld die ervoor moeten zorgen dat kunstmatige intelligentie ten goede komt aan iedereen. Bijvoorbeeld het principe dat als een kunstmatig intelligent systeem schade veroorzaakt, duidelijk moet kunnen worden gemaakt waarom die schade is veroorzaakt. En dat zulke systemen zo ontworpen en gebruikt moeten worden dat ze recht doen aan de idealen van menselijke waardigheid, mensenrechten, vrijheden en culturele diversiteit. Ook moet een wedloop in autonome wapens worden voorkomen.

Universitair hoofddocent Virginia Dignum van de TU Delft, gespecialiseerd in ethiek van kunstmatige intelligentie en robotica, is betrokken bij drie andere initiatieven: de IEEE Global Initiative for ethically aligned design of AI, ADA-AI en het nieuwe instituut Design for Values van de TU Delft. Zij noemt drie principes die ze afkort met ART: accountability, responsibility en transparancy.

Accountability (rekenschap) betekent dat er uitgelegd moet kunnen worden waarom een systeem doet wat het doet. Wat zijn de aannames? Waarom neemt het systeem een bepaalde stap? Responsibility (verantwoordelijkheid) staat voor het principe dat mensen verantwoordelijk zijn en niet machines. Die mensen kunnen ontwikkelaars zijn, bouwers, eigenaars of gebruikers. Ten slotte betekent Transparantie dat je duidelijk moet kunnen maken volgens welke motieven, waarden en principes een systeem is ontworpen.

Ethische principes kunnen op verschillende manieren worden geïmplementeerd, legt Dignum uit. „Een mogelijkheid is wettelijke regelgeving, of het ontwikkelen van standaarden of keurmerken. Je zou zelfs kunnen voorstellen dat ontwikkelaars een soort eed afleggen, zoals artsen dat doen in hun eed van Hippocrates.” We staan pas aan het begin en uiteindelijk zullen er combinaties van deze mogelijkheden ontstaan, denkt Dignum.

Verbrokkeling

Leiden al die verschillende initiatieven niet tot verbrokkeling en daardoor tot minder effectieve acties? „Elke groep ontwikkelt zijn eigen ideeën, maar natuurlijk is er veel overlap”, zegt Dignum. Er zijn wel pogingen gedaan om groepen te laten samenwerken of zelfs een soort internationaal agentschap te vormen, maar die zijn tot nu toe niet echt gelukt, zegt ze. „Ik denk dat het daarvoor nog wat te vroeg is. Maar op de lange termijn is samenwerking noodzakelijk.”

Het is natuurlijk mooi dat er ethische principes worden opgesteld, maar belangrijker is dat bedrijven zich hier aan gaan houden. Wat dat betreft is Dignum optimisch: „Ethics are the new green. Ethische principes horen bij een trend van maatschappelijk verantwoord ondernemen. Het is niet voor niets dat ook consultancybedrijven als PwC en Accenture richtlijnen voor kunstmatige intelligentie voor bedrijven hebben opgesteld.”

Wat helpt is dat bedrijven die ethische principes willen implementeren hun algoritmen niet volledig openbaar hoeven te maken, zegt Dignum. „Als ze in staat zijn om aan controles mee te doen waarin ze kunnen bewijzen dat ze aan bepaalde regels voldoen, kunnen ze bijvoorbeeld een certificaat krijgen terwijl tegelijkertijd hun algoritmen bedrijfsgeheim blijven.”

Ook staten kunnen er zo hun eigen ideeën op na houden over wat wel of niet ethisch verantwoord is. Kijk naar de toekenning van staatsburgerschap aan robot Sophia door Saoedi-Arabië.

Dignum is niet enthousiast: „Machines worden gebouwd. Net zoals bij een auto of een hamer, zijn het mensen – de ontwikkelaars, de bouwers, de eigenaars en de gebruikers – die verantwoordelijkheid dragen. Het geven van staatsburgerschap aan een machine opent de weg voor deze partijen om hun eigen verantwoordelijkheid en aansprakelijkheid af te schuiven. Naar mijn mening zouden we dit als maatschappij niet moeten willen.”

Van alle bekende initiatieven die ethische principes voor kunstmatige intelligentie hebben opgesteld is er geen een die staatsburgerschap aan robot Sophia zou toekennen. De voorlopige consensus is: wij mensen blijven verantwoordelijk voor onze machines, hoe menselijk ze er ook uitzien.

-----------------------------------------------------------------------------------------------------------------

Initiatieven voor het opstellen van ethische principes voor kunstmatige intelligentie
Het Future of Life Institute heeft 23 principes opgesteld die ervoor moeten zorgen dat kunstmatige intelligentie ten goede komt aan iedereen.

Het IEEE Global initiative for Ethically Aligned Design of AI ontwikkelt industriële standaarden.

In de Stanford One Hundred Year Study on Artificial Intelligence (AI100) geven topwetenschappers aanbevelingen hoe kunstmatige intelligentie in goede banen kan worden geleid.

ADA-AI is een net gelanceerd initiatief van wetenschappers en mensen uit het bedrijfsleven dat onderzoekt hoe kunstmatige intelligentie ook ten goede kan komen aan minder bedeelden en minder gerepresenteerden.

AI Now heeft tien aanbevelingen gepubliceerd voor ethisch gebruik van kunstmatige intelligentie.

AI for Good belegde eerder dit jaar een conferentie om te onderzoeken hoe AI gebruikt kan worden om de 17 VN-doelen voor duurzame ontwikkeling te halen.

Het Europees Parlement onderzoekt zaken als aansprakelijkheid, veiligheid, verandering van de arbeidsmarkt door kunstmatige intelligentie en verkende de vraag of robots rechten moeten krijgen,

De Britse instelling voor financiering van wetenschappelijk onderzoek EPSRC stelde vijf principes op voor ontwerpers, bouwers en gebruikers van robots.

Het TU Delft Design for Values ontwikkelde drie principes waarop AI gebaseerd zou moeten zijn: accountability, responsibility en transparancy.