Contents
De kans bestaat dat u “het trolleyprobleem” kent – een beroemd gedachte-experiment waarbij een persoon moet kiezen tussen het veranderen van de richting van een uit de hand gelopen trein, waarbij wordt geselecteerd of een of meerdere mensen sterven. Op het eerste gezicht lijkt het antwoord eenvoudig utilitair: kies het spoor dat het minste aantal mensen schaadt. Maar het dilemma zit in de details. Wat als je de enige persoon kent die zal worden vermoord? Wat als de grotere groep mensen op de een of andere manier moreel verwerpelijk is? Welke verantwoordelijkheid heb je, of helemaal niet, om de richting van de trein te veranderen?
Deze ethische vragen, zoals MIT-professor Bernhardt Trout opmerkt in een recente aflevering van Intel over AI, zijn door de eeuwen heen opgekomen. Maar aangezien kunstmatige intelligentie (AI) fungeert als een versterker voor menselijke beslissingen, zijn deze vragen belangrijker dan ooit tevoren. Bernhardt erkent dat deze vragen ongemakkelijk zijn; er is een onderliggende spanning tussen techniek – een grotendeels utilitaire onderneming – en werkelijk geleefde menselijke waarden (ik ben een utilitarist als ik code schrijf, maar in mijn persoonlijke leven weegt mijn familie veel zwaarder in mijn morele calculus dan enig aantal waardig volk onbekend voor mij).
“Ik zou zeggen dat de technologie zeker een groot probleem is. Maar misschien is een belangrijker probleem hoe goed we omgaan met die technologie.”
–Bernhardt Trout
Ethische vragen bij autonome voertuigen
Het trolleyprobleem is tegenwoordig voor velen top-of-mind vanwege de vooruitgang die wordt geboekt in autonome voertuigen. In de podcast erkent Bernhardt dat de beslissingen die zelfrijdende auto's op de weg zullen nemen, door mensen worden geprogrammeerd. Hoewel dat sommige mensen achterdochtig of zelfs boos kan maken, worden dit soort beslissingen – het selecteren van aanvaardbare risiconiveaus – de hele tijd genomen in de samenleving. Bijvoorbeeld: airbag-inzetmodellen, plaatsing van afritten op snelwegen, nooduitgangen in gebouwen, snelheidslimieten instellen.
Zoals podcast-presentator Abigail Hing Wen opmerkt, zullen deze beslissingen tot op zekere hoogte cultureel zijn, net zoals de bestaande EU-normen voor autoveiligheid verschillen van de VS in termen van verwachtingen over de veiligheid van voetgangers, en individuele landen verschillende regels hebben voor zaken als snelheidslimieten. Ik moet hieraan toevoegen dat, hoe machtig deze bredere culturele krachten ook mogen zijn, ze geen partij zijn voor mijn echtgenoot, die absoluut geen voertuig zal kopen dat niet meedogenloos prioriteit geeft aan de veiligheid van haar kinderen.
Ingenieurs die worden gevraagd om over het trolleyprobleem na te denken, zullen het uitgangspunt reflexmatig uitdagen: "Dit trolleyontwerp is verschrikkelijk! Laten we overgaan op dat whiteboard en wat remmen ontwerpen!' En als bedrijf rijden we richting veiliger wegen. Onze overname van Mobileye was een enorme sprong voorwaarts voor de toewijding van het bedrijf aan de ontwikkeling van geavanceerde rijhulpsystemen (ADAS) die tot minder ongevallen kunnen leiden, naast de ontwikkeling van het Responsibility-Sensitive Safety-model dat specifieke en meetbare parameters bepaalt die een “Veilige Staat” voor voertuigen. Naarmate pilots en partnerschappen over de hele wereld worden uitgerold in plaatsen als China, Duitsland, Japan, de VAE, de VS en elders, zullen sommige van deze standaarden misschien universeel zijn.
Echte kunstmatige intelligentie definiëren
Een andere beroemde filosofische vraag met betrekking tot intelligentie is of machines kunnen worden gezegd dat ze het überhaupt bezitten. In Alan Turning's in zijn baanbrekende artikel uit 1950 “Computing Machinery and Intelligence” gepubliceerd in 1950, begint hij met te zeggen dat de vraag “Wat is denken?” is “te zinloos om discussie te verdienen” en stelt in plaats daarvan een test voor die hij “The Imitation Game” noemt. In de eerste variant die hij introduceert, communiceren een man die zich voordoet als een vrouw en een echte vrouw via een typemachine met een rechter, waarbij de rechter probeert te beslissen welke correspondent echt een vrouw is. Turing suggereert vervolgens dat als de machine de plaats van de man zou kunnen innemen en de rechter met succes voor de gek zou kunnen houden, we “functioneel bewijs” zouden hebben van mensachtige intelligentie, en meer vage vragen zouden omzeilen, zoals “wat is denken?” of “wat is intelligentie?”.
Het feit dat de “Turing-test” 70 jaar later nog steeds wordt besproken als een maatstaf voor intelligentie, getuigt van de moeilijkheid om echt bevredigende definities van intelligentie te bedenken. Schaken was bijvoorbeeld een populaire focus voor AI-onderzoek totdat machines de beste menselijke spelers ver overtroffen, en op dat moment zeiden we schaakmachines te beschouwen als gewoon “betere software”. Op het moment van schrijven moeten machines deze test nog doorstaan, en als ze dat doen, zullen we er waarschijnlijk van spreken als een interessant moment voor “natuurlijke taalverwerking” in plaats van machines als intelligent te verklaren.
De ethische betekenis van de geest
Het is eerlijk om te zeggen dat wetenschappers, waaronder ikzelf, neigen naar materialisme – om het universum als berekenbaar te beschouwen, en op deze basis de conclusies van Turing's paper gemakkelijk te accepteren. In hetzelfde artikel schreef Turing dat weerstand tegen zijn ideeën geworteld was in een verlangen om te geloven in menselijk uitzonderlijkheid – dat we speciale kwaliteiten hebben die niet worden gedeeld door niet-mensen, dieren of anderszins. Bernhardt lijkt van deze school te zijn en noemt het werk van Michelangelo als bewijs van een creatieve vonk die volgens hem van nature menselijk is. Bernhardt ziet hierin de ethische betekenis, als basis om te beweren dat de mens superieur is aan machines. Helaas zou zelfs mijn moeder niet beweren dat mijn artistieke inspanningen superieur zijn aan de output van zelfs maar een slecht getraind diep neuraal netwerk, maar ik kan mezelf troosten dat ze mijn menselijke waarde als intrinsiek beschouwt en niet afhankelijk is van het feit dat ik beter presteer dan een machine bij welke taak dan ook.
Bernhardt maakt zich nog zorgen over de test van Turing: als mensen zichzelf gaan beschouwen als in wezen biologische rekenmachines, kunnen we transhumanistische projecten beginnen, waarbij we proberen siliciumchips met onze geest te integreren. En hoe sci-fi het ook klinkt, er zijn startups die werken aan brein-machine-interfaces, dus deze zorg is niet zo theoretisch als het misschien klinkt. Op een meer dagelijks niveau maakt Bernhardt zich ook zorgen over de toenemende rol van AI bij het bemiddelen in onze interacties met andere mensen: AI kiest de berichten die in mijn Facebook-feed verschijnen. Het speelt zeer waarschijnlijk ook een vergelijkbare rol in mijn Twitter-account. Het is merkwaardig dat de vele ingenieurs, wetenschappers, VC's enzovoort met wie ik contact heb gehad, door een machine zijn geselecteerd. We moeten ons bewust zijn van hoe AI, vooral hoe het wordt gebruikt in onze interacties met andere mensen, de samenleving beïnvloedt, en dit geldt meer in het algemeen voor technologie. Films als Blade Runner, Ex Machina en The Matrix weerspiegelen deze bezorgdheid, evenals boeken als The Veldt en Brave New World.
Technology & Existentieel risico
Ondanks alle angsten dat machines slimmer worden dan mensen en opstaan om ons te vernietigen, ziet Bernhardt een grotere existentiële dreiging: dat we vergeten wat waardevol is in de werkelijkheid en onszelf verliezen, door technologie te gebruiken om onszelf van de natuur af te scheiden. In een wereld waar machines specifiek zijn getraind om ons te voeden met de meest stimulerende en boeiende inhoud die mogelijk is, lijkt dit geen volledig academische zorg; we weten dat veel soorten in zekere zin kwetsbaar zijn voor 'hyperstimuli', in feite inputs die hun beloningssystemen hacken. Een veelvoorkomend voorbeeld is het koekoeksei, dat zo succesvol een beroep doet op de moederinstincten van de ongelukkige pleegouder dat het haar aandacht van haar eigen kroost afleidt. Zouden we mogelijk eigen AI-aangedreven koekoekseieren kunnen maken?
Theorie & Oefenen
Een morele puzzel oplossen – welk spoor moet de trolley nemen? -is vaak gemakkelijker dan daadwerkelijk handelen naar de conclusie. Ik ben helemaal overtuigd van de voordelen van sporten, maar ik blijf mijn bank verkiezen boven mijn fiets! Het naleven van principes, persoonlijk of zakelijk, kan een enorme uitdaging zijn.
Intel, als fabrikant van halfgeleiders, is afhankelijk van inputs die tantaal bevatten, een mineraal dat in slechts enkele regio's wereldwijd wordt gedolven, waarvan vele conflictgebieden omvatten waarvan bekend is dat ernstige mensenrechtenschendingen in verband worden gebracht met de mijnbouwindustrie. Aangezien mineralen grondstoffen zijn die worden ontdekt, gewonnen en geraffineerd via een complexe toeleveringsketen die vaak moeilijk bereikbare gebieden omvat, hadden Intel-managers er gemakkelijk voor kunnen kiezen om onwetend te blijven over de precieze oorsprong van het tantaal dat in zijn faciliteiten wordt gebruikt. In plaats daarvan begon Intel met een onderzoek van zijn toeleveringsketen, waarbij hij meer dan honderd smelterijen en raffinaderijen in drieëntwintig landen bezocht om ervoor te zorgen dat alleen conflictvrije mineralen in onze processors zouden worden gebruikt. Dit was niet gemakkelijk of goedkoop, en we zullen nooit klaar zijn – meer dan een decennium later moeten we blijven controleren. Slogans zijn goedkoop. Wat er echt toe doet, is wat u doet als uw principes botsen met uw winst. Ik ben er trots op dat Intel veel heeft uitgegeven om het juiste te doen.
Door je principes op deze manier in het openbaar na te leven, wordt het gemakkelijker om ze na te leven. Toen ik ethische zorgen had over een aantal AI-projecten die we overwogen, voelde het als een natuurlijke zaak om die naar mijn VP te brengen vanwege de bereidheid die het senior leiderschap had getoond om ethiek voorrang te geven boven opportunisme. Deze inzet zie je ook op andere plaatsen terug. Het publiceren van gegevens over de loongelijkheid tussen mannen en vrouwen, zoals vermeld in de aflevering met Sandra Rivera, wordt tot nu toe door maar heel weinig bedrijven gevolgd.
Naast “eerst geen kwaad doen”, zijn we ons zeer bewust van het positieve ethische noodzaak om onze bedrijven te gebruiken’ zeer speciale mogelijkheden om levens te verbeteren door #AIForGood-projecten. Ik had het uitzonderlijke voorrecht om mijn vaardigheden te gebruiken om NCMEC te helpen, en sommige collega's hebben geweldig werk verricht om het genereren van kaarten van satellietbeelden te automatiseren om hulpverleners in rampgebieden te helpen.
Er valt hier veel uit te pakken. aflevering, en ik beveel Turing's verrassend toegankelijke paper ten zeerste aan als voorbereiding voor het lezen!
Ga voor meer informatie over Intel's werk op het gebied van AI naar: https://intel.com/ai
Om te horen meer Intel over AI-afleveringen met enkele van 's werelds meest prominente technologiegasten, bezoek: intel.com/aipodcast
Edward Dixon
Data Scientist, Intel