Belangrijkste afhaalrestaurants
- Kunstmatige intelligentieprogramma's zoals Cogito proberen mensen empathie bij te brengen in de omgang met klanten.
- Experts zijn het er niet over eens of het mogelijk is dat een machine mensen empathie bijbrengt of dat het gewoon datapunten vindt.
- Sommige experts zijn ook bezorgd dat het aanleren van AI-empathie de mensheid van die emotie zou kunnen beroven.
Stel je voor dat je in een callcenter werkt en een klant belt. Je antwoordt en meteen begint het slecht te gaan. De klant is boos en de spanningen lopen op.
Je begint dingen te zeggen waar je later misschien spijt van krijgt. Plots verschijnt er een bericht op uw computerscherm. "Empathy Cue-Denk na over hoe de klant zich voelt. Probeer te relateren."
Het is geen echte persoon die je vertelt wat je moet doen. Het is een bericht van Cogito, een programma voor kunstmatige intelligentie dat is ontworpen om werknemers te helpen zich in te leven in gefrustreerde bellers en de prestaties te verbeteren. Cogito is een van een groeiend aantal AI-programma's die mensen empathie proberen bij te brengen.
Er is hier een duidelijke ironie. Menselijke wetenschappers proberen al tientallen jaren om meer levensechte computers te maken. Nu vertellen de machines ons hoe we ons moeten gedragen. Maar kan software ons echt leren hoe we empathischer kunnen zijn? Het is een probleem dat ingrijpende gevolgen kan hebben naarmate kunstmatige intelligentie het dagelijks leven begint door te dringen.
AI bootst menselijk gedrag na
Vanuit technisch oogpunt is het duidelijk dat AI aanwijzingen kan oppikken over hoe mensen zich voelen en feedback kan geven.
"AI en machine learning-systemen zijn erg goed in het vinden van patronen in gegevens", zei Adam Poliak, een postdoctoraal onderzoeker in computerwetenschappen aan het Barnard College, in een e-mailinterview.
"Als we een AI veel voorbeelden van empathische tekst geven, kan de AI patronen en signalen ontdekken die empathie oproepen of demonstreren."
AI is misschien geprogrammeerd om een deel van het menselijke gedrag dat gepaard gaat met empathie af te breken en mensen eraan te herinneren ze uit te voeren, maar dat leert geen empathie.
AI die menselijke reacties analyseert, kan helpen de groeiende kloof tussen mensen te overbruggen terwijl we digitaal communiceren, zei Bret Greenstein, een AI-expert bij Cognizant Digital Business, in een e-mailinterview.
"In het afgelopen jaar groeiden re altime, video, spraak en berichten sneller dan iemand zich had kunnen voorstellen, en daarmee kwamen enorme uitdagingen bij het creëren van echt empathische relaties zonder daadwerkelijk fysieke tijd met mensen door te brengen," hij toegevoegd.
AI kan helpen bij het analyseren en beoordelen van kenmerken zoals toon en emotie in spraak, zei Greenstein. "Dit kan de persoon die communicatie ontvangt helpen om beter te begrijpen wat er wordt bedoeld, en helpt de persoon te 'spreken' door te laten zien hoe berichten kunnen worden geïnterpreteerd," voegde hij eraan toe.
Terwijl bedrijven zich haasten om AI-trainingssoftware zoals Cogito te verzilveren, blijft de vraag open of AI mensen empathie kan leren. En het antwoord heeft misschien net zoveel te maken met filosofie als met technologie.
Ilia Delio is een theoloog aan de Villanova University wiens werk zich concentreert op het snijvlak van geloof en wetenschap. Ze gelooft dat AI empathie kan aanleren.
Delio wees erop dat een team van MIT robots heeft gebouwd die menselijke emoties zoals geluk, verdriet en mededogen kunnen nabootsen. "Terwijl de robotemoties zijn geprogrammeerd, kunnen de robots interageren met mensen en zo neurale patronen tot stand brengen of versterken," zei ze.
Kan een machine empathie begrijpen?
Experts definiëren ten minste drie vormen van empathie, die allemaal betrekking hebben op het vermogen om een andere persoon te begrijpen en ermee om te gaan, zei Karla Erickson, een socioloog aan het Grinnell College in Iowa en auteur van het binnenkort te verschijnen boek, Messy Humans: A Sociology of Human/Machine Relations, waarin onze relaties met technologie worden onderzocht.
"Verbinden is niet iets wat AI kan doen, en het is de basis voor empathie", zei Erickson in een e-mailinterview.
"AI is misschien geprogrammeerd om een deel van het menselijke gedrag dat gepaard gaat met empathie af te breken en mensen eraan te herinneren om ze uit te voeren, maar dat is geen empathie aanleren. Relaties, vooral in termen van empathie, zou van de luisteraar vereisen dat hij de noodzakelijke context om te relateren - hiermee bedoel ik dat het 'leven' van een AI geen verlies, verlangen, hoop, pijn of dood omvat."
Deskundigen botsen echter over de vraag of AI ons kan leren hoe we ons moeten inleven. Een deel van het probleem is dat niet iedereen het eens is over wat 'empathie' of 'AI' betekent. De term kunstmatige intelligentie wordt veel gebruikt, maar het is momenteel niet het soort intelligentie dat we als mens beschouwen.
Dit is puur technisch werk en ik heb niet de illusie dat de AI in kwestie zelf emoties heeft of echt emoties begrijpt.
"De "empathie-aanwijzingen" hebben niets te maken met empathie", zei Michael Spezio, een professor in psychologie, neurowetenschappen en datawetenschap aan het Scripps College, in een e-mailinterview.
"Het zijn signalen van stemmen die menselijke beoordelaars hebben geclassificeerd als stemmen van mensen die geïrriteerd/geërgerd zijn. Dus het is gewoon menselijke expertise gebruiken in een wiskundig model en vervolgens beweren dat het model, gebaseerd op menselijke expertise, intelligent. Beperkte machine learning-benaderingen zoals deze worden vaak gehyped als AI zonder intelligent te zijn."
Bij het Rensselaer Polytechnic Institute bouwt het laboratorium van Selmer Bringsjord wiskundige modellen van menselijke emoties. Het onderzoek is bedoeld om een AI te creëren die hoog kan scoren op emotionele intelligentietests en deze toe te passen op mensen. Maar Bringsjord, een AI-expert, zegt dat elke les die AI doet onbedoeld is.
"Maar dit is puur technisch werk, en ik heb niet de illusie dat de AI in kwestie zelf emoties heeft of echt emoties begrijpt", zei hij in een e-mailinterview.
Wat kan er fout gaan?
Terwijl bedrijven als Cogito een mooie toekomst zien in het opleiden van mensen door AI, zijn andere waarnemers voorzichtiger.
Supportiv, een online geestelijke gezondheidsdienst, gebruikt AI om elke gebruiker, op basis van een enkele gedachte die ze uiten, in re altime naar een onderwerpspecifieke peer-ondersteuningsgroep te leiden die dynamisch bijeenkomt voor gebruikers met vergelijkbare problemen.
Elke groep heeft een "superkrachtige" menselijke moderator die de op tekst gebaseerde chat veilig en troll-vrij houdt en die, opnieuw via AI, relevante bronnen, aanbevelingen en verwijzingen rechtstreeks in het groepsgesprek kan opduiken. Met behulp van AI traint Supportiv zijn moderators om bedreven te zijn in het herkennen van de intensiteit van emotionele behoeften.
"Empathie is een spier die we opbouwen", zei Zara Dana, een datawetenschapper bij Supportiv, in een e-mailinterview.
"Als we een kruk gaan gebruiken om te lopen, zullen onze spieren atrofiëren. Ik kan het niet helpen, maar ik vraag me af, zou een afhankelijke werknemer vertrouwen hebben als het AI-systeem op een dag niet online is? Is ze in staat om haar effectief te werk te gaan? Wat zijn de langetermijneffecten op de werknemers? Hoe gaan ze om met complexe sociale situaties waarin de AI afwezig is?"
Zelfs als het gebruik van AI om empathie aan te leren werkt, wat gebeurt er dan als we te veel op AI gaan vertrouwen om emoties te trainen? Een mogelijk nadeel is dat mensen meer gehecht kunnen raken aan robots dan aan andere mensen, omdat robots niet tegen hun programma kunnen kiezen, benadrukte Delio.
"De menselijke capaciteit voor vrije wil plaatst menselijke keuzevrijheid in een meer dubbelzinnige positie", zei Delio. "Een persoon kan de ene dag medelevend zijn en de volgende meedogenloos; een robot zal consequent medelevend blijven tenzij hij is getraind om iets anders te doen."
Er kan veel misgaan als AI mensen leert hoe ze zich als mensen moeten gedragen, zeggen experts.
We zijn geëvolueerd om sociale dieren te zijn, en onze empathie staat centraal in ons vermogen om contact te maken met anderen en om te geven om collectieven waartoe we behoren.
"Zonder menselijk toezicht zou de student iets absoluut geks kunnen leren", zei Bringsjord.
"Toon en toonhoogte zijn louter gedragscorrelaties, zonder enige inhoud. Dollars naar donuts mijn stem tijdens het lesgeven in de klas zou door velen worden gelezen … als een indicatie dat ik van streek ben, terwijl ik in werkelijkheid' Ik ben gewoon gepassioneerd en heb op zijn minst behoefte aan empathie."
Als AI-training van mensen floreert, gaan we er misschien op vertrouwen. En dat is niet per se een goede zaak.
"Deze training devalueert menselijke vaardigheden, die aanzienlijk zijn, en verschuift de aandacht naar AI alsof zij degenen zijn met expertise", zei Erickson."We zijn geëvolueerd om sociale dieren te zijn, en onze empathie staat centraal in ons vermogen om contact te maken met anderen en om te geven om collectieven waartoe we behoren."