Filmpjes manipuleren is niks nieuws. Zet een voice-over over beelden van spelende katten en je creëert een soort documentaire. Of hergebruik beelden van bekende mensen en laat ze iets anders zeggen. Het levert leuk en tamelijk onschuldig vermaak op, maar de wereld van deepfake heeft ook duistere kanten.
Deepfake gaat veel verder dan een andere stem toevoegen of een stukje video eindeloos herhalen zodat er een soort grappige dans ontstaat. Verhalen over wraakporno, waarbij mensen zichzelf ineens terug lijken te zien in een pornofilm, geven een ongemakkelijk gevoel. Bij deepfake wordt het getoonde beeld opgebouwd en samengesteld uit vele andere foto’s en videobeelden. Goed gedaan is het op het oog nauwelijks van echt te onderscheiden. Het geeft het gevoel dat alles wat op tv en online te zien is, niet waar is.
Te kakken
Maar deepfake heeft ook positieve kanten, aldus kunstenaar-ontwerper Yori Ettema. Hij maakte tijdens zijn studie aan de Willem de Kooning Academie in Rotterdam kennis met het fenomeen deepfake en raakte geïntrigeerd. “Ik wilde weten hoe mensen dat doen, verkennen wat de mogelijkheden zijn. Niet om mijn vrienden te kakken te zetten met gekke filmpjes. In eerste instantie heb ik vooral mezelf onderworpen aan mijn experimenten met beeldmanipulatie.”
Verslaggeefster Gerry van Bakel in gesprek met kunstenaar Yori Ettema over hoe deepfake op een positieve manier kan worden ingezet.
Ettema snapt dat mensen schrikken van de wraakporno en de manipulatie van nieuwsbeelden. Maar hij richt zich liever op de positieve kanten. Hij gelooft dat je mensen via deepfake-techniek iets kan laten ervaren dat ze zelf niet durven en daardoor angsten kunnen overwinnen. “Stel dat je bang bent voor hoogtes en je ziet jezelf vervolgens over een plank lopen op grote hoogte zonder angst. Dan zou dat je kunnen helpen bij het overwinnen van die angst. Ik denk dat als je vanuit het perspectief van een derde persoon naar jezelf kunt kijken dat iets teweeg brengt. Dat geeft een nieuw inzicht: hé, ik kan dat wel.”
Het woord deepfake heeft een negatieve lading, het is een samenstelling van de Engels woorden ‘deep learning’ en ‘fake’. Deepfake video’s maken kost tijd en moeite. Het is niet een kwestie van wat simpel knip- en plakwerk. Je hebt veel beeldmateriaal nodig om het computerprogramma te leren hoe iemand eruit ziet en beweegt. Ettema: “Ik begin met een persoon te filmen, uiteraard met toestemming, want ik heb wel vijfduizend foto’s van iemand nodig. Door al die foto’s leert het programma ‘deepface lab’ dat ik gebruik hoe het iemands gezicht kan namaken. Daarna is het zaak om een acteur te vinden die lijkt op die persoon en die laat je dan iets doen, bijvoorbeeld over een plank lopen en vervolgens kopieer je daar dan iemands gezicht in.”
Feyenoord
Afgelopen zomer studeerde Ettema af aan de Academie met een onderzoek naar het gebruik van deepfake beeldmanipulatie. Hij vroeg een aantal mensen in zijn omgeving om mee te werken. Op de website van Ettema zijn een paar van die voorbeelden terug te zien. Zoals zijn goede vriend Tim die al jaren in een rolstoel zit, eigenlijk nooit goed heeft kunnen lopen en fan is van Feyenoord. In de deepfake-video die Ettema voor hem maakte, ziet Tim zichzelf in het shirt van zijn favoriete voetbalclub over het veld rennen en scoren. Zijn reactie op het zien van dit filmpje, dat volledig gemanipuleerd is en dus een echte deepfake, is ontroerend door de blijdschap en de trots die hij ervaart bij het zien van de beelden. De tegenstelling tot wraakporno kan niet groter zijn.
Op die weg zou Ettema graag verder gaan. “Ik wil graag mensen helpen en ondersteunen. Ik ben ook in gesprek met mensen in de psychische gezondheidszorg of we deze techniek daarin kunnen toepassen. Het kost tijd om zo’n video te maken en het is niet voor alles de beste oplossing, maar ik wil graag de mogelijkheden onderzoeken. Wat doet het precies met mensen als ze naar zichzelf kijken in een situatie die ze eigenlijk heel eng vinden. En wat voegt dit dan toe aan bestaande therapieën en behandelmethodes.”
Daglicht
Zoals gezegd is beeldmanipulatie niks nieuws en Ettema denkt dat mensen elke keer schrikken van de nieuwe mogelijkheden. Bij film en fotografie wordt altijd gemanipuleerd. Zowel achter de camera, als later bij de bewerking. “Het camerastandpunt wat je kiest, de momenten die je laat zien en wanneer je de opname juist stopt. Of je kunt iets versneld laten afspelen. Ik vind het nu al moeilijk om alles zomaar aan te nemen als de waarheid. Ik wil zaken altijd vanuit meerdere bronnen en hoeken bekijken. Elke nieuwe techniek is voor kunstenaars en designers een manier om de maatschappij in een nieuw daglicht te zetten. Ik denk niet dat de wereld eerst echt was en nu door deepfake ineens nep is geworden.”
Sleutelstad Media
Middelstegracht 87A
2312 TT Leiden
E-mail
redactie@sleutelstad.nl
Telefoon Redactie
071 - 5235907