Careerguide

Het ontrafelen van de black box van AI

Nieuws
15-03-2024
Marta Jiménez
De beloften van kunstmatige intelligentie zijn enorm en de mogelijkheden eindeloos. Maar kunnen we machines ons leven toevertrouwen? Als zij namens ons handelen, doen ze dat dan op een verantwoordelijke manier? Als er iets misgaat met de kunstmatige intelligentie (AI), wie is daar dan op aan te spreken? En wat gebeurt er als we er niet in slagen om vooroordelen en discriminatie aan te pakken?

Artikel Marta Jiménez, Universiteit van Utrecht

Zelfrijdende auto's en zorg- en operatierobots zijn in aantocht. Artificiële ofwel kunstmatige intelligentiesystemen kunnen onze wegen veiliger, het leven van gehandicapten en ouderen gemakkelijker en het herstel van patiënten sneller maken. De beloften van kunstmatige intelligentie zijn enorm en de mogelijkheden eindeloos. Maar kunnen we machines ons leven toevertrouwen? Als zij namens ons handelen, doen ze dat dan op een verantwoordelijke manier? Als er iets misgaat met de kunstmatige intelligentie (AI), wie is daar dan op aan te spreken? En wat gebeurt er als we er niet in slagen om vooroordelen en discriminatie aan te pakken? Aan de Universiteit Utrecht werken we aan het ontwerpen van betere, meer verantwoordelijke AI-systemen waar wij mensen op kunnen vertrouwen. Dit houdt in dat we de machines leren om te beredeneren en keuzes te rechtvaardigen, net zoals wij dat doen. En het betekent ook dat we een aantal van de meest urgente ethische en juridische uitdagingen die AI met zich meebrengt oplossen.

Hier is een gedachte-experiment: Je staat bij de tramhalte en je ziet een op hol geslagen karretje over de rails op vijf mensen - die dit niet opmerken - afkomen. Stel je zou het karretje kunnen omleiden naar een spoor waar zich maar één persoon bevindt. Wat doe je? Offer je die ene persoon op om die andere vijf te redden?

Het trolleyprobleem is al decennialang een klassiek dilemma in cursussen ethiek en filosofie. "Zodra de experimentele zelfrijdende auto's de weg op gingen, werden we geconfronteerd met een dilemma uit de echte wereld: met welke instructies moet het AI-systeem geprogrammeerd worden om te handelen in een leven-of-dood situatie?" stelt filosoof Sven Nyholm van de Universiteit Utrecht. "Dat willen we weten voordat we onze veiligheid aan het systeem toevertrouwen."

Lees verder >>


Lees verder op: Universiteit Utrecht

Gerelateerde vacatures

Geïnteresseerd in een carrière bij organisaties in ditzelfde vakgebied? Bekijk hieronder de gerelateerde vacatures en vind de perfecte match voor jou!
Vektis
5.500 - 6.200
Medior, Senior
Zeist
Als Risk & Compliance Expert met impact op de zorg bij Vektis speel je een sleutelrol in risicobeheersing en compliance. Werk samen met interne teams en stakeholders om systemen compliant...
Rabobank
4.516 - 6.449
Medior
Utrecht
Als Medior Data Scientist ontwikkel en onderhoud je machine learning modellen, waarbij je data-analyse en hands-on programmeren combineert. Je werkt aan het verbeteren en implementeren van modellen en brengt ze...
NN
4.827 - 6.895
Medior
The Hague
As a BCM Coordinator at Non-Life Schade Intermediair, you ensure business continuity by drafting crisis plans, training colleagues and advising management. You'll drive BCM professionalization and safeguard operations, with the...
KPMG
Marktconform
Junior, Medior
Amstelveen
Als Consultant Data Transformatie en Migratie bij KPMG ondersteun je klanten bij complexe data- en bedrijfsprojecten, zoals ERP-transformaties en datamigraties. Je werkt hands-on met klantdata en vertaalt zakelijke behoeften naar...