Deze blogpost is oorspronkelijk gepubliceerd door Bitfury. Het is hier herdrukt met toestemming van Bitfury.

Kunstmatige intelligentie heeft zijn keerpunt. De technologie is verder gevorderd dan eenvoudige toepassing en experimenten en wordt nu op verschillende gebieden gebruikt om de menselijke intelligentie aan te vullen en te verbeteren. De ethische implicaties van deze snelle vooruitgang zijn serieus, en na een grondige evaluatie van het AI-ecosysteem in de afgelopen twaalf maanden, heb ik vastgesteld dat er dringende technische en ethische fouten worden gemaakt. Deze vraagstukken liggen niet in de aard van kunstmatige intelligentie zelf, maar in de ontwerpkeuzes die onderzoekers en bedrijven maken. Ten eerste zijn er onbetwistbare vooroordelen in het ontwerp en de selectie van de datasets die worden gebruikt om AI te trainen. Naast de problematische gegevensselectie maak ik me zorgen over het voortschrijdende ontwerp van deze netwerken dat binnenkort ons begrip (en dus ons toezicht) zal overtreffen.

Kortom: mensen bouwen AI-systemen die bijna ondoordringbaar zijn voor menselijke analyse, coderen in vooroordelen en misleidend denken, terwijl ze niet de beste aspecten van menselijke intelligentie bevatten, inclusief ons vermogen tot complex denken. En ondanks verschillende mogelijke toepassingen van 'AI voorgoed', gebruiken we het in plaats daarvan om onszelf op te heffen en discriminerende praktijken te versterken.

Ethische/technische kwestie #1: datasets

Het menselijk brein is ongelooflijk – het is de thuisbasis van onze intelligentie, onze persoonlijkheid, onze vooroordelen en onze onwetendheid. We leren nog steeds hoe onze geest werkt, maar onderzoekers Kahneman en Tversky stelden voor dat we onze hersenen zien als twee subsystemen – een bewust, logisch rationeel systeem dat werkt onder auspiciën van een tweede onbewust, emotioneel systeem. Ons onbewuste brein werkt op instinct en beslist over veel van onze acties (vaak voordat we ons realiseren dat we een beslissing hebben genomen). Het doet dit door zelf te zoeken naar voorbeelden, meningen en herinneringen en voert het uit op basis van deze informatie – ongeacht ethische consequenties of zelfs feitelijke nauwkeurigheid. Je hersenen leggen deze gegevens al vanaf dag één vast. We trainen onszelf door deze gegevensverzameling en deze informatie vormt de basis van onze verschillende persoonlijkheden, culturen en overtuigingen. Europeanen geloofden bijvoorbeeld dat er maar één type zwaan was – de witte zwaan – totdat Australië en zijn zwarte zwaan werden ontdekt. Dit is slechts één voorbeeld van informatiebias. Als je hersenen alleen witte zwanen zien, ga je ervan uit dat er alleen witte zwanen zijn (en elke suggestie dat er zwarte zwanen zijn, is waanzin). Dit betekent dat we onbewust voortdurend vooroordelen in onze geest introduceren. En nu doen we hetzelfde met kunstmatige intelligentie.

Machine learning-systemen leren (zoals mensen) door voorbeelden – maar ze hebben een duizelingwekkend aantal voorbeelden nodig om dit te doen (meer dan mensen, wat bemoedigend is voor onze eigen toekomst). Het is dus logisch dat we deze systemen onbevooroordeelde voorbeelden geven om van te leren (bijvoorbeeld een kaartspel met een gelijk aantal witte en zwarte zwanen) – maar dat is niet wat er gebeurt. In plaats daarvan introduceren we gegevens die vooraf zijn geladen met onze eigen impliciete vooroordelen. De resultaten zijn expliciete voorbeelden van racisme, discriminatie en meer. In 2016 meldde ProPublica dat een AI-systeem dat door politiediensten wordt gebruikt om het risico van toekomstige misdaad begaan door een beklaagde (meestal gegeven aan rechters voor veroordeling), bevooroordeeld was. De formule “was bijzonder waarschijnlijk om zwarte beklaagden valselijk te markeren als toekomstige criminelen, en hen op deze manier ten onrechte bijna tweemaal zo vaak als blanke beklaagden te bestempelen. Witte beklaagden werden vaker verkeerd gelabeld als laag risico dan zwarte beklaagden.”

Dit is slechts één voorbeeld van tientallen waar AI het gewoon bij het verkeerde eind heeft – soms op grote schaal. In 2016 bracht Microsoft een intelligente chatbot uit die leerde van de interactie met andere echte gebruikers op sociale media. Hoewel het geen erg geavanceerde chatbot was, begon het binnen een dag racistische uitingen en grof taalgebruik te gebruiken (dankzij de dataset, openbare Twitter-interacties). Microsoft sloot de bot onmiddellijk af.

We hebben gedegen, representatieve datasets nodig die deze AI-toepassingen kunnen trainen – en onderzoekers moeten voortdurend hun eigen vooroordelen inventariseren wanneer ze deze samenstellen.

Ethische/technische kwestie #2: Menselijk toezicht

Als ons doel is om kunstmatige intelligentie te trainen om de taken te doen die we niet willen doen, moeten we (als professionals, maar ook als ethische mensen) ervoor zorgen dat AI deze taken goed en binnen onze richtlijnen doet. Dit kan worden gedaan door AI-doelen te stellen. Wat gaat de AI doen? Wat is het beoogde resultaat? Waar zijn de grenzen? Deze doelen kunnen voortkomen uit de oorspronkelijke menselijke programmering, maar als het systeem zichzelf in stand houdt (wat betekent dat het leert van zijn resultaten en omgeving), zullen deze doelen zijn acties sturen die veel verder gaan dan de oorspronkelijke bedoelingen van de ontwikkelaar. Helaas is er een groeiende professionele afstand van verantwoordelijkheid hier in het streven naar technische experimenten en efficiëntie.

Bijvoorbeeld: in 2017 creëerde Facebook AI-applicaties die met elkaar konden praten en projectonderhandelingen konden afronden. Deze applicaties vonden al snel hun eigen taal uit om te communiceren, wat geen probleem was – totdat de ontwikkelaars zich al snel realiseerden dat ze de taal niet konden begrijpen terwijl deze vorderde. Waar was het stellen van doelen in dit scenario? Waarom was er geen 'menselijk toezicht' nodig om projectbeslissingen te nemen? Misschien omdat mensen een impliciet en beperkt begrip hebben van onze eigen besluitvormingsprocessen. Hoe kun je verwachten dat AI-applicaties communiceren en zich gedragen als je team, als je de regels voor betrokkenheid niet in kaart hebt gebracht en ingebouwd (bijvoorbeeld: de voorkeurstaal van het bedrijfsleven aanduiden).

Een andere mogelijke reden is efficiëntie – het opnieuw toevoegen van mensen aan een besluitvormingsproces dat wordt uitgevoerd door AI-applicaties vertraagt ​​het. Het is veel gemakkelijker om mensen in plaats daarvan toezicht te laten houden op beslissingen en alleen in te grijpen in geval van problemen. Hoewel dit idyllisch klinkt, is de realiteit dat we nog steeds niet volledig begrijpen hoe intelligente machines beslissingen nemen, inclusief de factoren van hun keuzes en de basis van hun oordeel. Als we een beslissing niet begrijpen, kunnen we er dan op vertrouwen?

Volgens Machine Learning van MIT Press bieden verschillende modellen voor machine learning verschillende niveaus van interpreteerbaarheid van hun besluitvorming. Deep learning-modellen staan ​​bekend als het minst interpreteerbaar door mensen. Een deep learning-model is samengesteld uit eenvoudige verwerkingseenheden die met elkaar zijn verbonden tot een netwerk. De grootte van deze netwerken, samen met hun gedistribueerde aard en het vermogen om gegevens te transformeren terwijl ze worden gebruikt, maakt de beslissingen ongelooflijk moeilijk te interpreteren, te begrijpen en daarom uit te leggen. Het is essentieel dat we begrijpen hoe deze modellen gegevens gebruiken en een faalveilig mechanisme hebben om vooroordelen te detecteren voordat we ze autonomie geven.

Aanbevelingen

Kunstmatige intelligentie heeft het vermogen om onze wereld betrouwbaarder, transparanter en veiliger te maken – maar alleen als we onze eigen inherente vooroordelen kunnen bestrijden terwijl we deze ontwerpen en de verantwoordelijke pleitbezorgers en toezichthouders blijven. We hoeven zeker niet meer dan richtlijnen en doelen voor onszelf te stellen — hier zijn er een paar waarvan ik denk dat we ermee moeten beginnen.
1. Regelgeving.Op het moment van publicatie is er zelfs geen regelgeving voorgesteld voor het controleren van AI-systemen (laat staan ​​de datasets die worden gebruikt om ze te trainen). Dit moet worden verholpen, vooral wanneer AI wordt toegepast in sectoren met bestaande institutionele discriminatie en ongelijkheden. Organisaties zoals de AI-raad van het World Economic Forum boeken hierin ongelooflijke vooruitgang.
2. Externe controle. Elk bedrijf of elke organisatie die aan AI-toepassingen werkt, moet coalities vormen van adviseurs en partners uit verschillende sectoren, landen, geslachten, leeftijden en rassen. Anders is het bijna gegarandeerd dat er vooroordelen in deze projecten worden ingebouwd.
3. Samenwerking tussen mens en AI.Totdat we een veel sterkere greep hebben op hoe kunstmatige intelligentie beslissingen neemt en informatie analyseert, moeten mensen een integraal onderdeel zijn van elk project dat AI gebruikt. Dit betekent dat artsen zijn uitgerust met AI-diagnostiek in plaats van alleen-AI-diagnosticisten; recruiters die AI gebruiken om te zoeken naar sollicitanten die misschien niet passen in de traditionele “vorm” van werknemers, in plaats van werving die volledig door AI wordt gedaan, enz.

Voor meer informatie over de ethiek van kunstmatige intelligentie, raad ik de artikelen aan hierboven gelinkt, evenals deze uitstekende bronnen.

Boeken:

Wapens van wiskundige vernietiging: hoe big data de ongelijkheid vergroot en de democratie bedreigt, door Cathy O'Neil (2016)

Nieuwsartikelen:

Reuters: Amazon schrapt geheime AI-rekruteringstool die vooringenomenheid vertoonde tegen vrouwen

Quartz: Microsoft onderzoekt te midden van opschudding onder werknemers beschuldigingen van seksuele intimidatie die door HR over het hoofd zijn gezien

MIT Technology Review: de VS heeft zojuist 10 principes vrijgegeven waarvan ze hopen dat ze AI veiliger zullen maken

MIT Technology Review:

Bedraad: de beste algoritmen worstelen om zwarte gezichten op dezelfde manier te herkennen

GBP Nieuws: Hoe kunstmatige intelligentie menselijke vooroordelen weerspiegelt – en hoe het kan verbeteren

Onderzoek, studies en presentaties:

“50 jaar van (on)eerlijkheid testen: lessen voor machinaal leren.” Door Ben Hutchinson en Margaret Mitchell.

“Voorspellen en dienen?” door Kristian Lum en William Isaac.

The Perpetual Line-Up: ongereguleerde politie-gezichtsherkenning in Amerika. Door Clare Garvie, Alvaro Bedoya en Jonathan Frankle bij Georgetown Law, Center on Privacy & Technologie.

“Gendertinten: Intersectionele nauwkeurigheidsverschillen in commerciële geslachtsclassificatie.” Door Joy Buolamwin en Timnit Gebru.

“Gendererkenning of genderreductie?: De sociale implicaties van ingebedde gendererkenningssystemen.” Door Foad Hamidi, Morgan Klaus Scheuerman en Stacy M. Branham.

EU-richtlijnen over ethiek in kunstmatige intelligentie: context en implementatie. Door verschillende auteurs.

Fabrizio Del Maffeo
Hoofd Kunstmatige Intelligentie, Bitfury

0

Geef een antwoord

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *