Gedurende seizoen twee van de Intel on AI-podcast hebben veel van 's werelds meest prominente experts op het gebied van kunstmatige intelligentie (AI) gesproken over waarom ze geloven dat machines niet simpelweg de prestaties op grote datasets kunnen verbeteren, zodat de mensheid haar ware potentieel kan realiseren. AI-machines zullen moeten evolueren om te leren van hun omgeving en de acties van mensen in de wereld.
State-of-the-art resultaten zijn geweldig, ik hou net zo veel van een goede benchmark-busting als de volgende persoon, maar wat ik nodig heb – wat we allemaal nodig hebben – is om betere machines in ons dagelijks leven te zien komen. In verschillende podcastafleveringen hebben we experts horen praten over de noodzaak van kunstmatige intelligentie om het hoofd te bieden aan de rommelige complexiteit van de echte wereld, en tot nu toe hebben we vooral de fysieke complexiteit van onze omgeving bedoeld. In aflevering elf van de podcast met gastheer Intel Tech Evangelist Abigail Hing Wen verkennen we een ander soort complexiteit. Rana el Kaliouby, Ph.D. medeoprichter en CEO van Affectiva en auteur van Girl Decoded: A Scientist's Quest to Reclaim Our Humanity by Bringing Emotional Intelligence to Technology, sluit zich aan bij het programma om te praten over de noodzaak om emotionele intelligentie (EQ) in AI te brengen.
“Ik geloof dat op een bepaald moment in de toekomst de standaard mens-machine-interface perceptueel zal zijn, gemoedelijk zal zijn, empathie zal hebben en zal weerspiegelen hoe mensen met elkaar communiceren.”
– Rana el Kaliouby
Academia to Industry
Zoals Rana het vertelt, ging ze van een studie informatica als student in Caïro naar meer interactie met machines dan met mensen terwijl ze aan haar Ph.D. te Cambridge. Daar had ze het idee: “Wat als ik computervisie zou kunnen gebruiken om technologie te bouwen die mijn emoties kan lezen via mijn gezichtsuitdrukkingen?” Zelfs vóór de isolerende gebeurtenissen van COVID-19 gebruikte Rana technologie om te communiceren met vrienden en familie in Egypte en merkte dat ze de rijkdom aan menselijke signalen miste die we allemaal oppikken als we face-to-face met elkaar praten.
Na haar doctoraat trad Rana in dienst bij het MIT als postdoc bij professor Rosalind Picard, auteur van het boek Affective Computing. Samen werkten het paar aan een Google Glass-achtig apparaat om autistische kinderen te helpen non-verbale signalen te lezen en te begrijpen door de drager realtime feedback te geven over de mensen voor hen. In 2009 lanceerden de twee, na interesse van de industrie op een demodag, het bedrijf Affectiva om EQ in een aantal velden te introduceren.
EQ-toepassingen
Rana ziet EQ worden geïntroduceerd in een verscheidenheid aan AI-producten en -gebieden, van aspecten van klantenservice, zoals het aanleren van spraakbesturingssystemen zoals Amazon's Alexa of Apple's Siri om op een aangenamere en nauwkeurigere manier te reageren tot veiligheidsmechanismen in auto's. Terwijl bedrijven zoals Intel's Mobileye werken aan het aanpakken van de complexiteit van de wereld buiten het voertuig om zelfrijdende auto's tegen 2025 op de markt te brengen, richt Affectiva zich naar binnen door detectieoplossingen in de cabine te ontwikkelen die kunnen voorspellen of passagiers of assistent-chauffeurs slaperig worden of hulp krijgen als een kind in de auto is achtergelaten. In mijn eigen werk heb ik een paar uitdagingen gehad bij het verzamelen van gegevens, maar niets om te vergelijken met de uitdagingen die Affectiva heeft overwonnen. Als je aan machine learning-projecten werkt, is het de moeite waard om te luisteren naar Rana die praat over de evolutie van hun strategie voor gegevensverzameling. Affectiva is door de Harvard Business School geprofileerd in een casestudy over hoe uit te breiden naar nieuwe zakelijke verticale markten, en Rana voorspelt dat het type technologie dat zij en haar team ontwikkelen binnen de komende drie tot vijf jaar in voertuigen zal zitten.
Rana ziet toepassingen voor EQ in allerlei systemen die interactie hebben met mensen: telefoons, auto's, mediaplatforms, gezondheidszorg enzovoort. Ik had aanvankelijk gedacht aan EQ als een manier om machines minder frustrerend te maken om mee te werken, maar er is potentieel om veel verder te gaan dan een betere UX. Door de gezichts- en vocale biomarkers van een persoon te kwantificeren, kunnen systemen het niveau van stress, angst en depressie aangeven. Een dergelijk inzicht zou de ontwikkeling van een objectievere benadering van geestelijke gezondheid mogelijk maken. Nu ik de levens van naaste familieleden zie die verwoest zijn door chronische psychische aandoeningen, ben ik vooral benieuwd naar vooruitgang op dit gebied. Misschien kan het equivalent van indicatoren zoals bloedsuikerspiegels of hartslag in rust ons helpen om de tijdigheid en effectiviteit van de behandeling te verbeteren.
Het realiseren van de belofte van EQ is echter moeilijk! EQ-systemen moeten brede datasets verzamelen met voldoende steekproefomvang van culturen en gemeenschappen over de hele wereld om het volledige scala aan emotionele signalen bij mensen vast te leggen. Als je reizen je bijvoorbeeld naar zowel de VS als Europa hebben gebracht, heb je waarschijnlijk opnieuw moeten kalibreren voor een glimlach (groot in de VS, minder hier). Lichaamstaal gaat gepaard met enorme culturele variaties. Komend van de Britse eilanden, kwam mijn grootste ‘cultuurschok’-moment toen ik als stagiair in Italië door het kantoor liep met de CEO, die (dit was onze eerste ontmoeting) vrij nonchalant zijn arm om mijn schouder sloeg en hem vasthield daar. (Wij in het VK omarmen natuurlijk ook – als we oude vrienden of naaste familie zijn en iemand net is geboren, getrouwd of begraven). In feite variëren zowel lichaamstaal als gezichtsuitdrukking enorm van cultuur tot cultuur, iets wat in fascinerend detail is gedocumenteerd door Lisa Feldman Barrett in haar boek How Emotions are Made: The Secret Life of the Brain.
AI Safety and Misbruik
Kwaliteit is veiligheid, wordt goedkoper en gemakkelijker als we ze vanaf het begin ontwerpen. Rana merkt op dat toen ze een Ph.D. student twintig jaar geleden werden algoritmen beoordeeld op één nauwkeurigheidsscore. Als een wetenschapper bijvoorbeeld wilde testen hoe nauwkeurig zoiets als een smile-classifier was, zouden ze de prestaties meten met deze ene statistiek in één enkele dataset. Eén nummer kan een 'state-of-the-art” paper voor een research paper, maar is nooit goed genoeg voor een product. Misschien is uw testdataset in LA gebouwd en gaat u deze ook in Moskou inzetten? Het is belangrijk om niet alleen te weten hoe goed uw model het gemiddeld doet, maar ook hoe goed het het doet in het 'worst case'-scenario – net zoals we auto's niet alleen beoordelen op rijkwaliteit, maar ook op de veerkracht van crashtests. Het identificeren van faalwijzen is het juiste om te doen, maar ook het slimme om te doen, want mislukkingen zijn wegwijzers om te weten hoe we een beter product kunnen bouwen.
Rana maakt zich zorgen over de mogelijkheid dat AI kan worden gebruikt om discriminatie en manipulatie te mechaniseren. Affectiva weigert vanwege deze angst te werken aan bewakings- of beveiligings- of leugendetectietoepassingen. Rana ziet AI, net als eerdere podcastgasten, Intel Vice President Sandra Rivera en MIT-professor Bernhard Trout, als een versterker van menselijke beslissingen. Zoals oom Ben tegen Peter Parker (ook bekend als Spider-Man) in het Marvel-stripboek zei: “Met grote kracht komt grote verantwoordelijkheid.”
Verder lezen
Abigail en Rana sluiten hun gesprek af door over schrijven te praten, vooral het idee dat het lezen van fictie een geweldige manier is om emotionele intelligentie op te bouwen. Ik zou heel graag willen denken dat dit waar is! Mijn eigen vroege lezing neigde sterk naar non-fictie en 'harde' sci-fi. (Asimov zette mijn loopbaantraject uit voordat ik mijn tienerjaren bereikte). Maar naarmate ik de middelbare leeftijd bereik, ben ik de meer subtiele geneugten van Chekov en Somerset Maugham gaan waarderen, wier werk zo sterk afhankelijk is van het innerlijke leven van hun personages. Misschien zullen we ooit zien dat machines worden beoordeeld op hun emotionele intelligentie door middel van hun literaire analyses.
Hoor meer geweldige gesprekken met AI-leiders op: https://www.intel.com/content/www/us/en /artificial-intelligence/podcast.html
Edward Dixon
Gegevenswetenschapper, Intel