Het ontrafelen van de black box van AI

Nieuws
15-03-2024
Marta Jiménez
De beloften van kunstmatige intelligentie zijn enorm en de mogelijkheden eindeloos. Maar kunnen we machines ons leven toevertrouwen? Als zij namens ons handelen, doen ze dat dan op een verantwoordelijke manier? Als er iets misgaat met de kunstmatige intelligentie (AI), wie is daar dan op aan te spreken? En wat gebeurt er als we er niet in slagen om vooroordelen en discriminatie aan te pakken?

Artikel Marta Jiménez, Universiteit van Utrecht

Zelfrijdende auto's en zorg- en operatierobots zijn in aantocht. Artificiële ofwel kunstmatige intelligentiesystemen kunnen onze wegen veiliger, het leven van gehandicapten en ouderen gemakkelijker en het herstel van patiënten sneller maken. De beloften van kunstmatige intelligentie zijn enorm en de mogelijkheden eindeloos. Maar kunnen we machines ons leven toevertrouwen? Als zij namens ons handelen, doen ze dat dan op een verantwoordelijke manier? Als er iets misgaat met de kunstmatige intelligentie (AI), wie is daar dan op aan te spreken? En wat gebeurt er als we er niet in slagen om vooroordelen en discriminatie aan te pakken? Aan de Universiteit Utrecht werken we aan het ontwerpen van betere, meer verantwoordelijke AI-systemen waar wij mensen op kunnen vertrouwen. Dit houdt in dat we de machines leren om te beredeneren en keuzes te rechtvaardigen, net zoals wij dat doen. En het betekent ook dat we een aantal van de meest urgente ethische en juridische uitdagingen die AI met zich meebrengt oplossen.

Hier is een gedachte-experiment: Je staat bij de tramhalte en je ziet een op hol geslagen karretje over de rails op vijf mensen - die dit niet opmerken - afkomen. Stel je zou het karretje kunnen omleiden naar een spoor waar zich maar één persoon bevindt. Wat doe je? Offer je die ene persoon op om die andere vijf te redden?

Het trolleyprobleem is al decennialang een klassiek dilemma in cursussen ethiek en filosofie. "Zodra de experimentele zelfrijdende auto's de weg op gingen, werden we geconfronteerd met een dilemma uit de echte wereld: met welke instructies moet het AI-systeem geprogrammeerd worden om te handelen in een leven-of-dood situatie?" stelt filosoof Sven Nyholm van de Universiteit Utrecht. "Dat willen we weten voordat we onze veiligheid aan het systeem toevertrouwen."

Lees verder >>


Lees verder op: Universiteit Utrecht

Gerelateerde vacatures

Geïnteresseerd in een carrière bij organisaties in ditzelfde vakgebied? Bekijk hieronder de gerelateerde vacatures en vind de perfecte match voor jou!
Geldmaat
5.481 - 7.829
Senior
Weesp
Wij zijn op zoek naar een Senior Adviseur Risk die ons team komt versterken met een focus op ESG. In deze rol ben je verantwoordelijk voor het ontwikkelen en implementeren...
Achmea
4.009 - 5.505
Medior
Apeldoorn
Als DevOps OpenShift Engineer ben je verantwoordelijk voor de ontwikkeling en verbetering van tools binnen het OpenShift-ecosysteem, met een focus op beveiliging en automatisering. Je werkt in een gedreven team...
NN
4.092 - 5.846
Medior, Senior
Rotterdam
Voor intensivering van het systeemlandschap bij Pensioen zoekt men een Test Engineer. Deze rol richt zich op het verbeteren van teststrategieën en softwarekwaliteit in SAP FS-PM en aanpalende systemen.
NN
4.092 - 5.846
Medior
Den Haag
The Customer & Digital security team seeks a medior Information Security Officer to manage information security risks, support DevOps teams, and ensure compliance with security standards and guidelines.