Gaan AI en ethiek het met elkaar vinden?
Symposium

Gaan AI en ethiek het met elkaar vinden?

Met de opmars van AI maken experts uit heel Europa zich zorgen over hoe machines en ethiek in onze samenleving samengaan. In een bruisend debat in Luxemburg delen ze hun inzichten en zoeken ze samen naar innovatieve oplossingen.

De Universiteit van Luxemburg organiseert nu een reeks van debatten waarin de vragen die worden opgeworpen over de huidige en toekomstige relatie met artificiële intelligentie (AI) van onze samenleving worden besproken. Als onderdeel van deze reeks vond er op 21 november een debatconferentie plaats waarin er verder werd ingegaan op de ethische kwesties waar we tegenaan kunnen lopen door de huidige ontwikkelingen rondom AI.

Gemodereerd door Dr. Nora Schleich van de Universiteit van Luxemburg, werden Prof. Dr. Marija Slavkovik van de Universiteit van Bergen, Noorwegen, en Dr. Antonio Bikić van de Ludwig-Maximilian-Universiteit München, Duitsland, vergezeld door Dr. Enzo Maria Le Fevre Cervini van de Europese Commissie en Prof. Dr. Christophe Schommer van de Universiteit van Luxemburg om hun standpunten over AI en ethiek te bespreken.

Vooraf aan evenement werd het publiek, dat werd aangemoedigd om deel te nemen aan de discussies, gevraagd te stemmen of ze geloofden dat AI ethisch kon zijn. 56% dacht dat dit kon, terwijl 41% geloofde dat dit niet zou gaan werken. Deze stemming werd achteraf herhaald om te zien of er meningen waren veranderd.

Twee tegenovergestelde denkbeelden

Prof. dr. Slavkovik’s kijk op de zaak is optimistisch. Zij gelooft dat AI en ethiek wel moeten samengaan omdat dit niet anders kan. Ze ziet twee kanten van het probeem: het gedrag van de machines zelf en de manier waarop mensen omgaan met de machines. Volgens haar kan het gedrag van de machines andere waarden weerspiegelen dan die van onszelf, en daarom zal elk besluit dat we delegeren aan machines ook betekenen dat we de verantwoordelijkheid over het vastleggen van onze waarden delegeren.

"We moeten AI altijd blijven zien als een instrument dat eventuele hulpmiddelen die we eerder gebruikten kan vervangen, en niet als een hogere intelligentie die onszelf vervangt." - Dr. Le Fevre

We gebruiken AI om cognitieve taken te automatiseren, maar Prof. dr. Slavkovik waarschuwt dat we niet moeten vergeten dat de intelligentie van AI niet te 1-op-1 te vergelijken is met die van de mens. Dat iets artificieel is heeft twee betekenissen die niet moeten worden verward. Artificieel licht is dan wel gemaakt door mensen, het bestaat nog steeds uit fotonen en is in essentie hetzelfde als natuurlijk licht. Artificiële intelligentie werkt echter totaal niet als natuurlijke intelligentie, en om AI ethisch te gebruiken moeten we ons altijd bewust blijven van het verschil tussen AI en mensen om zo onze waarden niet uit het zicht te verliezen.

Dr. Antono Bikić’s standpunt is wat minder optimistisch. Hij gelooft dat machines utilitaire waarden volgen. AI’s zijn optimaliserende algoritmes getraind met een doel voor ogen, en voor de AI heiligt het doel altijd de middelen. Regels zullen worden omzeild om dit doel te bereiken zonder rekening te houden met enige grenzen. Dit strookt echter niet met de West-Europese deontologische ethiek, waarin waardigheid en mensenrechten onder geen enkele omstandigheden mogen worden geschonden.

Tijdens het debat antwoordde Prof. dr. Slavkovik’s op dit argument door te opperen dat elke vorm van ongewenst gedrag van AI kan worden geformuleerd als een doel, en dat dit daardoor wordt omzeild. Maar Dr. Bikić bleef bij zijn punt door erop te wijzen dat de gebruiker simpelweg slim genoeg moet zijn om beperkingen te omzeilen en nog steeds een antwoord van de AI te krijgen. Hij legde uit hoe ChatGPT geen plannen voor een zelfgemaakte bom wilde geven wanneer er rechtstreeks om werd gevraagd, maar dat die dit zonder problemen deed wanneer de vraag goed genoeg was vermomd. ChatGPT bereikt zijn doel om de gebruiker van het gewenste antwoord te voorzien, zelfs als dit betekent dat er gevaarlijke informatie wordt gegeven. Dit benadrukt dus de utilitaire aard van AI.

Shutterstock 2287184085

AI als besluitnemer

Toen een lid van het publiek vroeg in hoeverre we AI beslissingen kunnen laten nemen over politiek, legden zowel Dr. Bikić als Prof. Dr. Slavkovik uit dat we AI alleen moeten zien als een manier om aanbevelingen te geven die mensen leren te gebruiken. Prof. Dr. Slavkovik vergeleek AI met de huidige menselijke experts. Experts zouden bijvoorbeeld via hun wetenschappelijk onderzoek kunnen vinden dat we om klimaatverandering te voorkomen moeten stoppen met het gebruik van auto’s en maximaal één kind per gezin kunnen hebben. Dit is vergelijkbaar met wat een AI zou kunnen antwoorden. Zulke bevindingen zouden theoretisch blijven en nooit in de praktijk worden gebracht doordat we hoogstwaarschijnlijk zo’n fundamentele inmenging in ons leven niet zouden accepteren. Net zoals de bevindingen van experts, moeten de antwoorden van AI worden gezien als aanbevelingen. Maar de uiteindelijke beslissing moet altijd een politieke zijn – overwogen en genomen door getrainde mensen.

Dr. Le Fevre ondersteunde dit punt door uit te leggen dat we het bureau willen vervangen met het gereedschap, maar de mens zelf niet. We moeten AI altijd blijven zien als een instrument dat eventuele hulpmiddelen die we eerder gebruikten kan vervangen, en niet als een hogere intelligentie die onszelf vervangt.

Regulering van AI

Gevraagd hoe wetgeving zal omgaan met ethische vraagstukken rondom AI, antwoorde Dr. Le Fevre dat geen enkele specifieke wet future-proof kan zijn omdat AI zeer snel evolueert, maar dat meer algemene barrères die in onze democratie nooit mogen worden overschreden moeten worden ingevoerd door een aantal reguleringen.

Bovendien is het implementeren van precieze wetten voor specifieke gevallen met betrekking tot AI geen envoudige taak, aangezien het moeilijk is regels toe te voegen aan AI. Sterker nog, het programmeren van een regel voor sommige lose-lose scenario’s zoals een autonome auto die moet kiezen welke persoon hij moet aanrijden is onmogelijk, omdat de huidige stand van de ethiek in onze samenleving hier óók nog geen antwoord op heeft.

Iemand in het publiek stelde voor regels te implementeren op basis van regio, aangezien ethische overtuigingen verschillen van de ene tot de andere plaats. Maar Prof.Dr. Slavkovik stelt dat dit kan worden misbruikt wanneer mensen niet de keuze krijgen welk type ethiek de AI toepast, zoals bijvoorbeeld het geval kan zijn in een dictatuur.

Leerpunten uit de discussie

Aan het einde van het debat concludeerde Prof. Dr. Slavkovik door uit te leggen hoe ethiek niet op dezelfde manier van toepassing is op mensen en machines. Zo wordt er van machines niet verwacht dat ze impulsief handelen.

Het debat gaf geen definitief antwoord of een samensmelting van AI en ethiek het zal redden. Uiteindelijk stemde 53% van het publiek dat ze dit wel geloofden, en 45% van niet. Daarnaast stemde 6% op beide omdat ze er nog niet uit waren, en diende 6% een blanco stem in. Zoals het evenwicht tussen deze stemmen van het publiek en het verhitte debat tussen de experts lieten zien, blijft de relatie tussen AI en ethiek een moeilijk onderwerp. De consensus lijkt te zijn dat mensen controle moeten zien te behouden over AI en het als gereedschap moeten gebruiken zonder het de macht te geven om zelf beslissingen te kunnen nemen.

De experts in het debat:
Prof. Dr. Marija Slavkovik, Head of Department of Information Science and Media Studies, University of Bergen, Norway.

Dr. Antonio Bikić, Ludwig-Maximilian-University Munich, AI, Philosophy, and Neuromorphic Computing.

Dr. Enzo Maria Le Fevre Cervini, European Commission, Head of Sector and Adjunct Professor in the Master's program on Ethical Governance of Artificial Intelligence at Universidad Pontificia de Salamanca, Spain.

Prof. Dr. Lukas Sosoe, University of Luxembourg was replaced by Prof. Dr. Christophe Schommer, Department of Computer Science, University of Luxembourg.

Bronnen:

Let’s Talk100: AI for our Future, AI and Ethics: Does this work out?, University of Luxembourg, 21 November 2023

0 Reacties

Geef een reactie

Related