2. Waar ik het over ga hebben
• SELEMCA
• Moreel redeneren voor Robots
• Emotionele Intelligentie: Silicon Coppelia
• Moreel redeneren + Silicon Coppelia = Moral Coppelia
Den Haag, 10-06-2013 NWO Bessensap 2013 2
3. SELEMCA
• ‘Caredroids’ ontwikkelen: Robots of Computer Agents
die Patienten en Zorgverleners kunnen ondersteunen
• Focus op patienten die langdurig in zorginstelling
moeten verblijven
3Den Haag, 10-06-2013 NWO Bessensap 2013
6. Mogelijke functionaliteiten
• Zorgmakelaar:
Zoek zorg die past bij behoeften patient
• Vriendje: Wordt vriendjes met patient om
eenzaamheid te voorkomen en activeer de patient
• Coach: Assisteer de patient in het maken van
gezonde keuzes: Bewegen, Gezond eten, Medicijnen
nemen, etc.
6Den Haag, 10-06-2013 NWO Bessensap 2013
7. Ethische Zorgrobots
• Zorg dat de robot zich ethisch goed gedraagt
• Erg belangrijk; Patienten zijn in een kwetsbare positie
Wij richten ons op medische ethiek.
• Daar zijn conflicten tussen:
1. Autonomie
2. Weldoen
3. Niet schaden
4. Gerechtigheid
7Den Haag, 10-06-2013 NWO Bessensap 2013
8. Achtergrond Machine Ethics
• Machines worden steeds autonomer
Rosalind Picard (1997): ‘‘The greater the freedom of
a machine, the more it will need moral standards.’’
• Machines interacteren steeds meer met mensen
We moeten zorgen dat machines ons geen kwaad
doen, of onze autonomie bedreigen
• Machine ethics is belangrijk om mensen machines te
laten vertrouwen
8Den Haag, 10-06-2013 NWO Bessensap 2013
9. Moral reasoning system
We hebben een moral reasoning system ontwikkeld
die kan balanceren tussen verschillende morele doelen
9Den Haag, 10-06-2013 NWO Bessensap 2013
Kan beslissingen
medisch-ethische
experts simuleren
10. Model autonomie
Den Haag, 10-06-2013 10NWO Bessensap 2013
Kan uitspraken rechter
simuleren over:
- Bemoeizorg
- Zelfbindingsverklaring
11. Limitaties moral reasoning
• Alleen moral reasoning resulteert in ‘koude beslissingen’
• Wallack, Franklin & Allen (2010): “even agents who adhere to a
deontological ethic or are utilitarians may require emotional
intelligence as well as other ‘‘supra-rational’’ faculties, such as a
sense of self and a theory of mind”
• Tronto (1993): “Care is only thought of as good care when it is
personalized”
11Den Haag, 10-06-2013 NWO Bessensap 2013
12. Problem: Not Able to Simulate
Trolley Dilemma vs Footbridge Dilemma
• Greene et al. (2001): morele dilemma's verschillen
systematisch in de mate waarin emotionele
processing plaatsvindt en dat deze variaties in
mate van emotionele processing de morele
beslissing beinvloeden.
• Hun studie was geinspireerd door het verschil tussen
twee varianten van een moreel dilemma:
Trolley dilemma (moreel
onpersoonlijk)
Footbridge dilemma (moreel persoonlijk)
12Den Haag, 10-06-2013 NWO Bessensap 2013
13. Oplossing: Voeg Emotionele Processing toe
• Eerder ontwikkelden we Silicon Coppelia, een
computermodel van emotionele intelligentie.
• Dit kan in anderen geprojecteerd worden voor een
Theory of Mind
• Het leert van ervaringen Personalisatie
Voeg Moral Reasoning toe aan Silicon Coppelia
• Moral reasoning menselijker
• Personaliseer morele beslissingen en
communicatie daarover
13Den Haag, 10-06-2013 NWO Bessensap 2013
16. Silicon Coppelia + Moral Reasoning:
Beslissingen gebaseerd op:
1. Rationele invloeden
• Helpt deze actie me mijn doelen te bereiken?
2. Affectieve invloeden
• Reflecteert deze actie de betrokkenheid die ik voel
tegenover de gebruiker?
• Reflecteert deze actie de distantie die ik voel tegenover de
gebruiker?
3. Moral reasoning
• Is deze actie ethisch goed?
Den Haag, 10-06-2013 16NWO Bessensap 2013
17. Resultaten Moral Reasoning +
Silicon Coppelia
Kill 1 to Save 5 Do Nothing
Moral system
Trolley X
Footbridge X
Moral Coppelia
Trolley X
Footbridge X
17Den Haag, 10-06-2013 NWO Bessensap 2013
18. Teaser Voorlopige Resultaten:
• We onderzoeken in hoeverre het model aansluit op
data van criminologen, over invloed ratio en affect op
criminele keuzes
• Het model blijkt gebruikt te kunnen worden om
criminele keuzes van mensen te simuleren en te
voorspellen
Den Haag, 10-06-2013 18NWO Bessensap 2013
19. Conclusies
• Door behulp van theorieen uit (medische) ethiek
kunnen we robots bouwen die autonomie mensen
stimuleren
• Affect toevoegen aan rationeel moreel redeneren is
belangrijk wanneer robots communiceren met
mensen over beslissingen
• De combinatie van ratio en affect is nuttig voor
toepassingen waarin menselijk beslisgedrag wordt
gesimuleerd (bijvoorbeeld bij het verlenen van zorg,
of in entertainment)
19Den Haag, 10-06-2013 NWO Bessensap 2013
20. Bedankt voor jullie aandacht!
20
Matthijs Pontier
matthijspon@gmail.com
http://camera-vu.nl/matthijs
http://www.linkedin.com/in/matthijspontier
http://crispplatform.nl/projects/selemca
Den Haag, 10-06-2013 NWO Bessensap 2013