Contents
Deze blogpost is oorspronkelijk gepubliceerd door Bitfury. Het is hier herdrukt met toestemming van Bitfury.
Afgezien van het onvolwassen ontwerp van veel AI-applicaties, doet zich een andere ethische valkuil voor in de manier waarop we deze applicaties gebruiken. We ontwerpen AI voor taken die door mensen kunnen (en zouden moeten) worden gedaan en verzuimen AI te gebruiken waar dit dringend nodig is, namelijk bij het repareren van ons online ecosysteem.
Onze echokamers opnieuw ontwerpen
Onze echokamers opnieuw ontwerpen
Het is de menselijke natuur om meningen te hebben. Velen zijn trots op het feit dat onze meningen gebaseerd zijn op feiten, of ze nu gebaseerd zijn op nieuwsberichten, persoonlijke ervaringen, een boek dat we onlangs hebben gelezen, enz. Maar zelfs de sterkste meningen zijn onderhevig aan vooringenomenheid, en het wordt steeds gemakkelijker dan ooit onze meningen te beïnvloeden via sociale media.
Algoritmen voor sociale media (deze die bepalen welke advertenties u ziet of met welke berichten u interactie zult hebben) gebruiken sentimentanalyse om onze persoonlijkheden te begrijpen en deze vervolgens te spiegelen. Dit betekent dat u advertenties, nieuwsberichten en berichten ziet die sterk bij u resoneren en uw persoonlijke opvattingen versterken – dit staat bekend als 'het algoritme', de 'filterbubbel' en, heel vaak, de 'echokamer'.
Dit is een kritieke kwestie omdat toegang tot verschillende informatie en standpunten een belangrijk aspect van het formuleren en opnieuw evalueren van uw mening is. Zo leer je en werk je je mening bij (bijvoorbeeld: leren dat zwarte zwanen inderdaad bestaan door een foto van ze te zien in hun Australische habitat). Maar in de echokamer van de sociale media gebeurt dit niet meer.
In plaats van kunstmatige intelligentie te gebruiken om de inhoud/advertenties te vinden en aan ons te leveren die het beste bij ons passen, zouden sociale-mediabedrijven AI moeten gebruiken om echokamerdenken te bestrijden. Het algoritme heeft onze voorkeuren (en vooroordelen) al geleerd. Het zou net zo gemakkelijk zijn om ons (authentieke, op feiten gebaseerde) inhoud te bieden die hen uitdaagt of een ander gezichtspunt biedt. Ik zou graag een socialmediaplatform willen zien dat me nieuwsverhalen laat zien die in tegenspraak zijn met enkele van mijn vastgeroeste meningen of misvattingen, of misschien een tool die automatisch elke link die ik wil delen controleert op feitelijke nauwkeurigheid of bevooroordeelde inhoud. En door mensen te delegeren om alleen toezicht te houden op dit proces (in plaats van het uit te voeren), verkleinen we de kans dat een even bevooroordeelde menselijke moderator buitensporige macht zou kunnen uitoefenen in deze 'anti-echokamer'.
AI kan ook worden getraind om ons te helpen enkele van onze meest verderfelijke cognitieve vooroordelen aan te pakken, zoals de 'gokker's misvatting', dat is wanneer we aannemen dat, omdat een gebeurtenis in het verleden vaak is gebeurd, dit waarschijnlijk in de toekomst zal gebeuren; “bevestigingsbias”, gezien wanneer we alleen gegevens selecteren die onze positie bevestigen; of 'valse consensus', wanneer we ons standpunt versterken door te geloven dat meer mensen het met ons eens zijn dan in werkelijkheid het geval is. AI kan worden toegepast om ons te helpen dit gedrag online te corrigeren (misschien door onze berichten of de artikelen die we willen delen te evalueren), of zelfs via geïndividualiseerde digitale trainingen. AI kan ons ook helpen toegang te krijgen tot meer feiten, in plaats van meningen en bevooroordeelde verhalen.
Door de manier waarop we de wereld om ons heen zien en beoordelen te helpen verbeteren, zou AI die op deze manier wordt toegepast de kwaliteit van inhoud enorm kunnen verbeteren wordt online gedeeld door ons te helpen inzichtelijker en verantwoordelijker te zijn.
Onethisch werk opnieuw toewijzen
Helaas is er een slechtere kant van de menselijke natuur te vinden in onze wreedste neigingen. Het internet heeft deze tendensen zichtbaarder dan ooit gemaakt, met websites, subreddits en zelfs Facebook-groepen gewijd aan seksistische, gewelddadige en/of illegale activiteiten.
In onze gezamenlijke inspanningen om deze activiteiten te bestrijden, hebben bedrijven en overheden teams van mensen ingeschakeld om aanstootgevende inhoud op te sporen, te beoordelen en te verwijderen. Dit is zonder twijfel een van de meest onethische stappen die we hebben gezet in de evolutie van het internet. Onderbetaalde, onderondersteunde en ondergetrainde mensen catalogiseren en verwijderen de video's van de schietpartij in Christchurch in Nieuw-Zeeland; het volgen van de verspreiding van kinderpornografie op websites; het modereren van racistische en seksistische trollen in discussiefora; en meer. Dit werk is diep ontroerend, traumatiserend en oneindig. Casey Newton heeft dit onderwerp uitgebreid besproken met voormalige moderators van Google en YouTube. Ik raad je ten zeerste aan het te lezen om te begrijpen welke emotionele en mentale tol dit werk vereist.
Ik geloof dat het onze ethische plicht is om te voorkomen dat mensen dit soort werk nog langer moeten doen. Elk bedrijf en elke organisatie die digitaal aanwezig is, zou deze toepassing van AI kunnen helpen bevorderen.
In plaats van AI te gebruiken om verdachten en hun kans op het plegen van een misdaad onjuist te beoordelen, zouden gerechtelijke systemen en politiediensten het kunnen gebruiken om bewakingsvideo's te analyseren om misdaad in realtime op te sporen (in plaats van mensen te verplichten dit te doen), wat zou kunnen helpen bij het inzetten van AI-toepassingen online illegale afbeeldingen en video beter detecteren. De mogelijkheden en voordelen van deze samenwerking en ethische focus zijn grenzeloos, maar zowel bedrijven als publieke organisaties moeten eerst prioriteit geven aan deze toepassing van AI.
Human-Centric AI
In september 2019, na een lang debat waarbij de wetenschappelijke, zakelijke en politieke gemeenschappen betrokken waren, heeft de Europese Unie (EU) haar richtlijnen over ethiek in kunstmatige intelligentie vrijgegeven. Ik moedig iedereen aan om de briefing eens te bekijken. Dit is het kernprincipe van hun richtlijnen, die ik volledig onderschrijf:
“De mensgerichte benadering van AI streeft ernaar ervoor te zorgen dat menselijke waarden centraal staan in de manier waarop AI-systemen worden ontwikkeld, ingezet, gebruikt en gecontroleerd, door te zorgen voor eerbiediging van de grondrechten, inclusief die welke zijn vastgelegd in de Verdragen van de Europese Unie en Handvest van de grondrechten van de Europese Unie, die allemaal verenigd zijn door te verwijzen naar een gemeenschappelijk fundament dat geworteld is in respect voor de menselijke waardigheid, waarin de mens een unieke en onvervreemdbare morele status geniet. Dit houdt ook in dat er rekening wordt gehouden met de natuurlijke omgeving en met andere levende wezens die deel uitmaken van het menselijk ecosysteem, en met een duurzame benadering die de bloei van toekomstige generaties mogelijk maakt.”
Kunstmatige intelligentie is niet iets om bang voor te zijn. Als het correct is ontworpen, op de juiste manier wordt gecontroleerd en wordt toegepast waar het het meest nodig is, zou AI een van de beste uitvindingen voor de mensheid tot nu toe kunnen zijn, door ons te helpen beschermen tegen onszelf.
Hier zijn meer links om te leren meer over deze problemen en de toekomst van kunstmatige intelligentie.
EU-richtlijnen over ethiek in kunstmatige intelligentie
Bouwen aan onze vooroordelen: ethiek in kunstmatige intelligentie
Blockchain en AI gebruiken om “deepfakes” te bestrijden ”
Hoop op de AI-horizon voor gegevensprivacy
Gegevens zijn inderdaad de nieuwe olie, maar niet om de reden die u verwacht
Fabrizio Del Maffeo Hoofd Kunstmatige Intelligentie, Bitfury
“De mensgerichte benadering van AI streeft ernaar ervoor te zorgen dat menselijke waarden centraal staan in de manier waarop AI-systemen worden ontwikkeld, ingezet, gebruikt en gecontroleerd, door te zorgen voor eerbiediging van de grondrechten, inclusief die welke zijn vastgelegd in de Verdragen van de Europese Unie en Handvest van de grondrechten van de Europese Unie, die allemaal verenigd zijn door te verwijzen naar een gemeenschappelijk fundament dat geworteld is in respect voor de menselijke waardigheid, waarin de mens een unieke en onvervreemdbare morele status geniet. Dit houdt ook in dat er rekening wordt gehouden met de natuurlijke omgeving en met andere levende wezens die deel uitmaken van het menselijk ecosysteem, en met een duurzame benadering die de bloei van toekomstige generaties mogelijk maakt.”
Bouwen aan onze vooroordelen: ethiek in kunstmatige intelligentie
Blockchain en AI gebruiken om “deepfakes” te bestrijden ”
Hoop op de AI-horizon voor gegevensprivacy
Gegevens zijn inderdaad de nieuwe olie, maar niet om de reden die u verwacht