Deze blogpost is oorspronkelijk gepubliceerd door Bitfury. Het is hier herdrukt met toestemming van Bitfury.

De democratisering van informatie via internet is een van de belangrijkste maatschappelijke verschuivingen van het afgelopen millennium. Het heeft ons in staat gesteld om van een eenrichtingsverkeer gecentraliseerd systeem voor het delen van informatie, waar we afhankelijk waren van onze regeringen en grote mediakanalen voor nieuws, naar een gedecentraliseerde wereld waarin iedereen journalist kan zijn en informatie op grotere schaal beschikbaar is.

Deze verschuiving is echter niet zonder maatschappelijke kosten geweest. Wanneer iedereen informatie kan delen, is het vaak moeilijk om te weten of de informatie juist is. Grenzen tussen feiten en meningen zijn blijven vervagen en zijn uitgebuit om alles te beïnvloeden, van nationale verkiezingen tot individuele beslissingen. Tegenwoordig is 'nepnieuws' net zo gewoon in ons leven als kranten waren voor onze grootouders – maar in tegenstelling tot kranten kunnen netwerken deze nep-ideeën binnen enkele seconden over de hele wereld verspreiden. Dit effect is vooral schadelijk bij 'deepfakes' of afbeeldingen en video's die ongelooflijk realistisch zijn, maar in feite door de computer zijn gegenereerd.

Deepfake-technologie is ontstaan ​​uit een legitieme poging om kunstmatige-intelligentienetwerken te trainen. Onderzoekers gebruikten meerdere benaderingen om afbeeldingen en inhoud te maken, maar de eindresultaten waren slecht met door de computer gegenereerde gezichten die vaak wazig waren of lichaamsdelen van het lichaam misten.

Ian Goodfellow, een PhD-student in machine learning aan de Universiteit van Montreal, kwam met een briljante oplossing. Hij stelde voor om een ​​versterkingslus te maken – een computer met een generatief algoritme dat alleen 'nep'-inhoud zou creëren. Die nep-inhoud zou naast echte inhoud verschijnen en zou worden gebruikt om een ​​tweede algoritme te “testen” om te bepalen of de inhoud echt of nep was. Door deze vijandige benadering kan het tweede algoritme veel sneller worden getraind en kunnen de resultaten worden gebruikt om het eerste algoritme te trainen om nog realistischere inhoud te creëren. Zo ontstonden 'Generative Adversarial Networks' of GAN's.

De technologie ging van start – en gaf een “digitale verbeelding” aan machines die hen konden helpen grote hoeveelheden goedkope maar levensechte inhoud te genereren. Deze inhoud is absoluut noodzakelijk voor het trainen van neurale netwerken – de meeste AI-programma's hebben immers veel gegevens nodig om de nodige nauwkeurigheid te bereiken. Een diagnostisch hulpmiddel met AI kan bijvoorbeeld alleen hartziekten detecteren als het weet hoe hartziekten eruit zien. GAN's laten veelbelovende resultaten zien in deze sector, waar privacyoverwegingen de toegankelijkheid van gegevens beperken. GAN's worden ook gebruikt om real-world video's te genereren van scenario's voor het trainen van autonome auto's (wat betekent dat Tesla en andere bedrijven niet echt naar buiten hoeven te gaan om een ​​autonome auto in de echte wereld te besturen voor zijn training – een veel veiliger en milieuvriendelijker alternatief).

Maar naarmate de 'digitale verbeelding' van de machine geavanceerder werd, werd het moeilijker om te zeggen of de inhoud die door de computer werd gemaakt of echt was. De term 'deepfake' kwam in 2017 op Reddit in de conversatie toen een gebruiker met de naam 'deepfakes' deze technologie gebruikte om nepvideo's te maken. Een beroemd voorbeeld is het 'photoshoppen' van het gezicht van acteur Nicolas Cage in verschillende bekende films. Voor het ongetrainde oog zagen deze 'swaps' er authentiek uit.

Tegenwoordig is de technologie zo geavanceerd dat ze niet eens hoeven te worden geruild – je kunt een hyperrealistische animatie van bijvoorbeeld Mark Zuckerberg of Barack Obama genereren – en ze laten zeggen wat je maar wilt, zonder enige input. De kwaliteit van deze deepfakes verbetert snel en is volledig open source beschikbaar. Techbedrijven beginnen de bedreiging die deze technologie vormt voor hun netwerken te herkennen – afgelopen september bracht Google een grote dataset van deepfake-video's uit om detectiesystemen te helpen ontwikkelen, terwijl Facebook een “deepfake-detectie-uitdaging” lanceerde met een prijs van $ 10 miljoen.

Ook overheden zijn alert. Onlangs woonde ik een workshop bij, georganiseerd door de afdeling AI en Robotica van de afdeling Criminal Investigation van de Verenigde Naties, die volledig was gericht op het probleem van deepfakes. Verschillende aanwezigen uitten hun bezorgdheid over het feit dat deepfakes een ernstige bedreiging vormen voor democratieën en legitieme regeringen over de hele wereld. Het evenement begon met een ontnuchterende discussie over de vooruitgang van de technologie. De intrinsieke aard van de technologie en de feedbacklus betekent dat hoe beter een algoritme nep-inhoud kan detecteren, hoe sterker en realistischer de inhoud wordt. Er worden nu echter verschillende benaderingen gebruikt om deze 'deepfakes' te detecteren.

De eerste is antropometrische consistentie. Dit is een machine learning-techniek die geselecteerde punten in het gezicht van een persoon meet, inclusief de beweging van de mond, lippen en neus om te zien of deze consistent is met real-life gegevens. Veel deepfakes, hoewel geavanceerd, hebben nog steeds vervormde gezichtsbewegingen die door de computer gegenereerde bewegingen logenstraffen – dit zijn de deepfakes die vaak realistisch lijken, maar 'onhandig'. UC Berkeley heeft veelbelovende resultaten van deze methode gedeeld: door de subtiele kenmerken van hoe beroemde mensen spreken en bewegen te leren, wordt het gemakkelijker om nepvideo's te detecteren.

Een andere benadering is de datakwaliteitstechniek.

Het analyseert het digitale spectrum van een afbeelding, inclusief de controlerende kleuren, gamma, verzadiging en evolutie in de fotolijsten om eventuele inconsistenties op te sporen.

Metadata-analyse is een vergelijkbare techniek die controleert of de metadata in een foto (inclusief het cameramodel, data, locatie en andere informatie) is gemanipuleerd.

Deze benaderingen, afzonderlijk of samen gebruikt, kunnen ons een goede schatting geven van de authenticiteit van een afbeelding of video, en zullen uiteindelijk resulteren in een reeks digitale forensische hulpmiddelen die automatisch deepfake-inhoud kunnen ontmaskeren. Maar zodra de inhoud als nep is bestempeld, moet deze als zodanig worden gelabeld (ongeacht waar de inhoud wordt weergegeven).

Hier kan blockchain een sleutelrol spelen. Een digitale handtekening kan worden toegevoegd aan de deepfake-gegevens en de metagegevens ervan, die kunnen worden gepubliceerd op een blockchain (openbaar of privé) waartoe iedereen toegang heeft om de geldigheid van de inhoud te controleren. Dit zou de informatie onveranderlijk en onmiddellijk controleerbaar maken voor iedereen (van overheden tot individuen). Dezelfde aanpak kan worden geïmplementeerd om originele inhoud ook direct bij de bron te valideren – een telefoon of digitale camera kan een eenvoudige app gebruiken om de inhoud onmiddellijk na creatie digitaal te ondertekenen (waarbij de authenticiteit wordt geverifieerd). Webbrowsers kunnen plug-ins voor “deepfake-detectie” bevatten die het web en de blockchain doorzoeken op bekende deepfake-inhoud en u informeren of deepfake-inhoud wordt gebruikt op uw sociale media-feed of in uw inbox terechtkomt.

Helaas, ondanks deze mogelijkheden lopen de wereldwijde inspanningen om deepfake-inhoud te bestrijden ver achter op de inspanningen die dit bevorderen. Overheidsinstanties, regeringen, socialemediagiganten en wetenschappers moeten samenwerken om deze dreiging het hoofd te bieden. We moeten ervoor zorgen dat hoewel onze toegang tot informatie gedecentraliseerd blijft, we allemaal over tools beschikken om ervoor te zorgen dat de informatie die we zien echt is.

Fabrizio Del Maffeo
Hoofd Kunstmatige Intelligentie, Bitfury

0

Geef een reactie