NOS Nieuws•
-
Nando Kasteleijn
redacteur Tech
-
Nando Kasteleijn
redacteur Tech
Inwoners van de Amerikaanse staat New Hampshire kregen begin dit jaar een telefoontje dat van president Biden leek te komen: de spreker adviseerde hun niet te stemmen bij de voorverkiezing. Alleen de echte verkiezing in november telde.
Het was alleen niet echt de president die belde, maar een AI-stem die de boodschap overbracht, een voorbeeld van een deepfake. De belletjes kwamen van een bedrijf uit Texas. Dat bedrijf wordt nu onderzocht wegens illegale activiteiten.
Al jaren wordt desinformatie verspreid rond verkiezingen, waarbij in het verleden vaak werd gewezen naar Rusland. 2024 is een bijzonder verkiezingsjaar, meer dan de helft van de wereldbevolking gaat naar de stembus. In India zijn de verkiezingen al bezig, Europa volgt begin volgende maand en de VS dit najaar.
Er staat dus veel op het spel, terwijl het steeds makkelijker wordt om deepfakes te maken, dankzij de opkomst van generatieve AI (kunstmatige intelligentie).
Eén deepfake is genoeg
“Eén met AI-gegenereerd audiobestand, een of twee dagen voor de verkiezingen, is genoeg om impact te hebben op de stembusgang”, zegt Tomasso Canetta, die bij de European Digital Media Observatory het factchecken coördineert. Het gebeurde afgelopen jaar al in Slowakije, om de leider van de liberale partij in een kwaad daglicht te stellen.
Volgens Canetta is audio op dit moment de meest problematische variant. Bij met AI-gemaakte afbeeldingen zie je vaak nog (kleine) afwijkingen in beeld. Dat was goed zichtbaar bij een afbeelding van Frans Timmermans die afgelopen najaar circuleerde op X. De foto was overduidelijk nep.
Door AI gemaakte video’s zijn nog niet zo goed dat ze niet van echt te onderscheiden zijn, al kan Sora, het tekst-naar-video-model van OpenAI, daar weleens verandering in brengen. Op dit moment gaat het vaak om video’s waarbij de audio nep is en de lippen zijn gesynchroniseerd.
“Audiodeepfakes zijn het schadelijkst omdat de gemiddelde gebruiker die niet zo makkelijk kan herkennen, zeker als je niet heel veel aandacht besteedt aan de manier van praten en grammatica”, zegt Canetta. Hij benadrukt dat er goede manieren zijn om dit soort deepfakes te herkennen, maar die geven geen 100 procent garantie.
Beluister hier de deepfake van Joe Biden. Je hoort eerst de echte stem van Biden en dan de nagemaakte:
Nep niet van echt te onderscheiden: beluister hier een deepfake van Joe Biden
De organisatie van Canetta maakt maandelijks rapportages over het aantal factchecks door Europese factcheckorganisaties en houdt daarbij ook in de gaten hoeveel daarvan waren gemaakt met AI. In maart waren er van de 1729 gefactcheckte items 87 gemaakt met AI, ofwel 5 procent.
Maar goed, je hebt volgens Canetta dus ook niet eens een groot aantal nodig. Een deepfake kan hoe dan ook effect hebben op kiezers. Die conclusie trok ook Tom Dobber, verbonden aan de Universiteit van Amsterdam, samen met andere onderzoekers na een test. Zij lieten een panel kijken naar een deepfakevideo van de Amerikaanse Democratische politicus Nancy Pelosi, waarin zij de bestorming van het Capitool goedpraatte.
Democraten waren daarna negatiever over Pelosi. Tegelijkertijd zegt Dobber dat een direct verband leggen tussen zo’n incident en een verkiezingsuitslag heel lastig is.
Nieuwsuur onderzocht hoe AI is ingezet tijdens de verkiezingen in Indonesië en wat de regels zijn. Bedrijven bleken zichzelf vaak niet aan hun eigen regels te houden:
AI als onzichtbaar wapen in de verkiezingsstrijd
Luc van Bakel, factcheckcoördinator bij de Vlaamse omroep VRT, verwacht een geringe rol voor deepfakes bij de Europese verkiezingen in België en Nederland. “Het is een van de zaken die erbij komen, een nieuwe manier die wordt toegevoegd.”
Uiteindelijk wint desinformatie aan kracht als die breed wordt verspreid, vaak via sociale media als TikTok, Facebook, Instagram en X. “X wordt gekenmerkt door een grote hoeveelheid desinformatie”, zegt Canetta. “Maar ik denk dat andere platforms ook nog veel te doen hebben.”
In een reactie laten TikTok en YouTube weten video’s te verwijderen die misleidend zijn. TikTok benadrukt daarnaast dat het niet altijd mogelijk is om materiaal dat met AI is gemanipuleerd goed te herkennen. Meta (het moederbedrijf van Facebook) en X reageerden niet op vragen van de NOS.
Van Bakel van de VRT wijst ook op een onderstroom die niet publiekelijk zichtbaar is: privégesprekken in apps als WhatsApp. Hij denkt dat video veel rondgaat op openbare sociale media en audio juist meer op plekken waar deepfakes minder snel worden opgemerkt.