Er heerste 5 minuten lang lichte paniek op de Amerikaanse beursvloeren. Op maandag 22 mei 2023 daalde de Dow Jones tijdelijk 80 punten, omdat er een foto rondging waarop een explosie bij het Pentagon stond. Onnodig, want de foto van het gebouw van het Amerikaanse ministerie van Defensie was nep: het beeldmateriaal was met kunstmatige intelligentie gegenereerd. Pointer onderzoekt de komende tijd meer afbeeldingen en berichten die met AI zijn gegenereerd, en daar kunnen we jouw hulp bij gebruiken.
Dat je niet alles moet geloven wat op internet staat, is al jarenlang algemene kennis. En dat foto’s bewerkt kunnen worden om je te manipuleren is ook niets nieuws. Maar de recente opkomst van AI-gegenereerd beeldmateriaal werpt een nieuw probleem op: hoe betrouwbaar is een foto als je het ook zonder camera kunt genereren?
In 2023 bekende de Duitse fotograaf Boris Eldagsen dat hij een fotografiewedstrijd won met een AI-gegenereerde afbeelding. Hij weigerde de prijs in ontvangst te nemen. De Canadees Miles Astray deed een jaar later het tegenovergestelde: hij won de publieksprijs, maar werd gediskwalificeerd toen bleek dat zijn foto bij een competitie voor AI-beeld echt bleek te zijn. En in het NOS Journaal van 18.00 uur op 24 augustus 2023 werd per ongeluk een nepfoto van pinguïns op de achtergrond gebruikt. Het verschil tussen echte en gegenereerde foto’s is steeds moeilijker vast te stellen met het blote oog.
Hey guys, I got a little big favor to ask: could you please take 10 seconds to vote for my picture F L A M I N G O N E via this link:https://t.co/HZTuXyVvOl pic.twitter.com/7btnwbuDXY
— Miles Astray (@MilesAstray) June 3, 2024
Ook rondom tekst bestaan discussies over authenticiteit. Het modetijdschrift Harper's Bazaar kwam begin dit jaar in opspraak omdat een redacteur samenvattingen van boeken door ChatGPT had laten schrijven. En de website Nieuws.nl heeft onlangs een schikking getroffen met de website De Nieuwe Ster, omdat artikelen werden gejat en herschreven door kunstmatige intelligentie.
'Problematisch'
Op nieuwsredacties speelt dit dilemma al langer. Hoe ga je verantwoord om met de mogelijkheden van AI, zonder dat je lezers misleidt? In april 2025 publiceerde de Universiteit Leiden (met onder meer Pointer als mediapartner) het rapport AI In Beeld. Daarin wordt beschreven hoe journalisten op een verantwoorde manier AI-tools kunnen gebruiken om beeldmateriaal te genereren.
Want enerzijds leveren AI-tools flinke tijdwinst op zodra je repetitieve taken moet uitvoeren. En je kunt beeldmateriaal genereren voor situaties waarin het vanuit ethische, juridische of veiligheidsoverwegingen niet mogelijk is om een foto te publiceren. Maar er heerst op redacties ook angst over de mogelijkheden van AI: een dalend vertrouwen in de geloofwaardigheid van nieuws, copyrightproblemen bij de trainingsdata, het versterken van vooroordelen en mogelijk baanverlies in de journalistiek. Niet elke journalist staat te popelen bij de onstuitbare opmars van AI-gereedschappen.
Oproep
Waarheidsvinding
Deze discussie raakt namelijk aan een van de kernwaarden van journalistiek: waarheidsvinding. Voor het Leidse onderzoek zijn 59 experts op het gebied van AI, of die in de praktijk met kunstmatige intelligentie in aanraking komen, anoniem geïnterviewd. "Als je een nieuwsorganisatie bent die zich committeert aan de waarheid, dan is het gebruik van een stochastisch model dat niets met de waarheid te maken heeft per definitie problematisch", merkt een van de geïnterviewde experts op in het rapport.
Betekent dit dat we bang moeten zijn om in nepnieuws te trappen? Nee, enige nuance is op zijn plek. De angst voor misinformatie door AI-gegenereerd nepnieuws lijkt sterk overdreven te zijn, blijkt uit dit onderzoek uit 2023. Er blijkt namelijk nauwelijks hard bewijs te zijn voor rampscenario’s waarin meer, kwalitatief betere en gepersonaliseerde misinformatie wordt gemaakt en verspreid. Onder sceptici heerst bijvoorbeeld de angst dat verspreiders van misinformatie AI kunnen trainen om voor elke individuele lezer een specifiek nepbericht te maken: een schrikbeeld dat technisch mogelijk is, maar waarvoor in de praktijk nog geen enkel bewijs is gevonden.
"De tijd zal leren of alarmerende krantenkoppen over generatieve AI gerechtvaardigd waren of niet", concludeert dit onderzoek. "Maar ongeacht de uitkomst zou de discussie over de impact van generatieve AI op desinformatie gebaat zijn bij meer nuance en bewijs, vooral tegen de achtergrond van de aanhoudende inspanningen op het gebied van regelgeving."
Waar zie jij AI-pulp?
De gereedschappen om nepfoto’s te maken zijn niet alleen voorbehouden aan professionals. Online diensten om beeldmateriaal mee te genereren schieten als paddenstoelen uit de grond. Omdat de kwaliteit en waarde van dit beeldmateriaal relatief laag is, wordt oneerbiedig gesproken over AI-pulp (betaallink NRC): een goedkope versie van iets dat niet is gebeurd, maar wel in beeld gevat wordt.
Deze foto’s zetten je niet altijd op het verkeerde been, maar ze proberen soms wel bestaande gevoelens te versterken. Ben je al anti-migratie, dan is de kans groot dat een foto van een grote groep vluchtelingen negatieve gevoelens aanwakkert. Deze methodiek is zelfs al een politiek wapen geworden: PVV’er Maikel Boon genereerde tientallen racistische nepfoto’s voor Facebookgroepen, bleek vorig jaar uit onderzoek van De Groene Amsterdammer.
Het gebruik van AI kan dus gevaarlijk worden als een groep die weinig moet hebben van nuance, richtlijnen of waarheidsvinding, zoals de verspreiders van misinformatie, er gebruik van maakt. Vooral rondom grote nieuwsgebeurtenissen zoals aanslagen, boerenprotesten, de Week van de Lentekriebels, #ditismijnzorg of verkiezingen pompen zij feitelijk onjuiste berichten rond. De NAVO-top (op 24 en 25 juni in Den Haag) lijkt het volgende grote evenement waarop deze personen hun slag willen slaan: Pointer doet in de voorafgaande weken een zogeheten factchecksprint om te checken welke berichten wel en niet kloppen.