Hoe identificeer ik door AI gegenereerde afbeeldingen? – DW – 04/09/2023

Het is nog nooit zo eenvoudig geweest om cCreëer afbeeldingen die er schokkend realistisch uitzien, maar in werkelijkheid nep zijn.

Iedereen met een internetverbinding en toegang tot een tool die gebruik maakt van kunstmatige intelligentie (AI) kan binnen enkele seconden realistische beelden makenen ze kunnen het vervolgens razendsnel op sociale netwerken plaatsen.

De afgelopen dagen zijn er veel van dergelijke foto’s opgedoken Het ging viraal: Vladimir Poetin werd blijkbaar betrapt of Elon Musk bleef bij GM-CEO Mary Barra, om er maar een paar te noemen.

Het probleem is dat BBeide AI-beelden tonen gebeurtenissen die nooit hebben plaatsgevonden. tot Paparazzi plaatste selfies wat AI-gegenereerde afbeeldingen bleken te zijn.

En hoewel sommige van deze afbeeldingen misschien grappig zijn, kunnen ze volgens de door DW geraadpleegde experts ook een reëel risico vormen op het gebied van desinformatie en propaganda.

Dit virale beeld gegenereerd door kunstmatige intelligentie is bedoeld om Elon Musk te laten zien met Mary Barra, CEO van General Motors. het is nep

Er is nooit een aardbeving geweest

Foto’s van de arrestatie van politici zoals de Russische president Vladimir Poetin of De voormalige Amerikaanse president Donald Trump Ze kunnen vrij snel door gebruikers worden geverifieerd als ze gerenommeerde mediabronnen controleren.

Andere afbeeldingen zijn moeilijker, zoals een waarin de mensen in de afbeelding niet herkenbaar zijn, vertelde AI-expert Henry Ader aan DW.

Een voorbeeld hiervan: het Duitse extreemrechtse parlementslid Alternatieve Partij a AI-gegenereerde afbeelding van schreeuwende mannen op zijn Instagram-account om te laten zien dat hij tegen de komst van vluchtelingen is.

En volgens Ajder zijn het niet alleen door AI gegenereerde afbeeldingen van mensen die verkeerde informatie kunnen verspreiden.

Hij zegt dat er voorbeelden zijn van gebruikers die gebeurtenissen creëren die nooit hebben plaatsgevonden.

Dat was het geval met de krachtige aardbeving die naar verluidt de Pacific Northwest van de Verenigde Staten en Canada in 2001 deed schudden.

Maar deze aardbeving is nooit gebeurd, en Foto’s gedeeld op Reddit Gemaakt door kunstmatige intelligentie.

En volgens Ader kan dit een probleem zijn. “Als je een landschap maakt in plaats van een portret van een mens, kan het moeilijk te herkennen zijn”, legt hij uit.

READ  De komende iPad Pro zou MagSafe-opladen en een 'gloednieuwe chip' bieden

AI-tools maken echter fouten, ook al evolueren ze snel. Momenteel, vanaf april 2023, hebben programma’s als Midjourney, Dall-E en DeepAI last van glitches, vooral met afbeeldingen waarop mensen te zien zijn.

Het feitencontroleteam van DW heeft enkele suggesties samengesteld die u kunnen helpen bepalen of een foto nep is. Maar een eerste waarschuwing: AI-tools evolueren zo snel dat dit advies enkel de huidige stand van zaken weergeeft.

1. Zoom in en kijk goed

Veel door AI gegenereerde afbeeldingen zien er op het eerste gezicht echt uit.

Daarom is onze eerste suggestie om goed naar de afbeelding te kijken. om dit te doen, Zoek de afbeelding in de hoogst mogelijke resolutie en zoom vervolgens in op de details.

Door de afbeelding te vergroten, worden inconsistenties en fouten zichtbaar die op het eerste gezicht misschien niet zijn opgemerkt.

2. Zoek de afbeelding bron

Als je niet zeker weet of de afbeelding echt is of door AI is gegenereerd, probeer dan de bron te vinden.

Mogelijk kunt u wat informatie zien over waar de foto voor het eerst is geplaatst door de opmerkingen te lezen die andere gebruikers onder de foto hebben geplaatst.

Of u kunt omgekeerd zoeken naar afbeeldingen. Om dit te doen, uploadt u de afbeelding naar tools zoals Google Image Reverse Search, TinEye of Yandex, en misschien vindt u de originele bron van de afbeelding.

De resultaten van deze zoekopdrachten kunnen ook links bevatten naar factchecks die zijn uitgevoerd door gerenommeerde media die aanvullende context bieden.

Op deze foto zou Poetin op zijn knieën zitten voor Xi Jinping.
Poetin zou moeten buigen voor Xi Jinping, maar bij nadere beschouwing blijkt dat de foto nep isfoto: Twitter/DW

3. Let op lichaamsverhoudingen

Hebben de afgebeelde personen de juiste lichaamsverhoudingen?

Het is niet ongebruikelijk dat door AI gegenereerde afbeeldingen inconsistenties vertonen als het gaat om verhoudingen. De handen kunnen te klein zijn of de vingers te lang. Of dat het hoofd en de voeten niet passen bij de rest van het lichaam.

READ  Verschillende eigenaren van Google Pixel 6 en 6 Pro hebben een willekeurig gebroken scherm gemeld

Dat is het geval met de foto hierboven, die van Poetin zou moeten zijn Hij knielde voor Xi Jinping neer. De schoenen van de knielende persoon zijn onevenredig groot en breed. Het kalf lijkt langwerpig. De halfbedekte kop is ook erg groot en staat niet in verhouding tot de rest van het lichaam.

Meer over deze nep in onze speciale factcheck.

4. Pas op voor typische AI-fouten

Handen zijn momenteel de belangrijkste bron van fouten in AI-beeldsoftware zoals Midjourney of DALL-E.

SMensen hebben vaak een zesde vinger, zoals de politieman links van Poetin op onze foto hierboven.

of ook binnen Dit zijn foto’s van paus Franciscus, die je misschien hebt gezien.

Maar wist je dat paus Franciscus op de juiste foto maar vier vingers lijkt te hebben? En is het je opgevallen dat zijn linkervingers ongewoon lang zijn? Deze foto’s zijn nep.

Andere veelgemaakte fouten in door AI gegenereerde afbeeldingen zijn mensen met veel tandenof Het montuur van de bril is vreemd vervormdof oren met onrealistische vormen, zoals op de eerder genoemde nepfoto van Xi en Poetin.

Oppervlakken die reflecteren, zoals helmvizieren, veroorzaken ook problemen voor AI-programma’s, die soms lijken uiteen te vallen, zoals in het geval van de vermeende arrestatie van Poetin.

Henry is een expert op het gebied van kunstmatige intelligentie Ajder waarschuwt echter dat nieuwere versies van programma’s zoals Midjourney steeds beter worden in het genereren van handen, wat betekent dat gebruikers niet veel langer kunnen vertrouwen op het opvangen van dit soort fouten.

5. Ziet de afbeelding er kunstmatig en zacht uit?

sollicitatie Vooral Midjourney zorgt voor veel beelden die te mooi lijken om waar te zijn.

Volg hier je onderbuikgevoel: zou dit perfecte plaatje met onberispelijke mensen echt echt kunnen zijn?

“De gezichten zijn heel puur en het tentoongestelde textiel is heel harmonieus”, vertelde Andreas Dingel van het Duitse onderzoekscentrum voor kunstmatige intelligentie aan DW.

READ  Er wordt gezegd dat Amazon dit jaar zijn eigen tv's in de VS zal lanceren

De huid van de onderwerpen in veel AI-afbeeldingen is vaak glad en zonder enige irritatie, en zelfs hun haar en tanden zijn onberispelijk. Dit is in het echte leven meestal niet het geval.

Veel afbeeldingen hebben ook een artistiek, glanzend en glimmend uiterlijk dat moeilijk te bereiken is voor professionele fotografen in studiofotografie.

AI-tools lijken vaak perfecte afbeeldingen te maken die perfect zouden moeten zijn en zoveel mogelijk mensen tevreden moeten stellen.

6. Achtergrondcontrole

De achtergrond van een foto laat vaak zien of deze gemanipuleerd is.

Ook hier kunnen dingen vervormd lijken; Bijvoorbeeld, Straatverlichting palen.

In enkele gevallen klonen AI-programma’s mensen en objecten en gebruiken ze deze twee keer. Het is niet ongebruikelijk dat de achtergrond van AI-beelden onscherp is.

Maar zelfs deze onduidelijkheid kan fouten bevatten. Zoals het bovenstaande voorbeeld, dat beweert een boze Will Smith te laten zien bij de Academy Awards. De achtergrond is niet alleen onscherp, maar ziet er kunstmatig wazig uit.

Conclusie

Er bestaan ​​nog steeds veel door AI gegenereerde afbeeldingen Stel bloot met een beetje onderzoek. Maar de technologie verbetert en bugs zullen in de toekomst waarschijnlijk zeldzamer worden. Kan AI-detectoren zoals Hugging Face Help ons manipulatie op te sporen?

Op basis van onze bevindingen geven detectoren aanwijzingen, maar niet meer dan dat.

Deskundigen die we hebben geïnterviewd raden het gebruik ervan vaak af, omdat ze zeggen dat de tools niet voldoende ontwikkeld zijn. Zelfs de originele foto’s werden vals verklaard en vice versa.

Daarom kunnen gebruikers bij twijfel het beste wat ze kunnen doen om onderscheid te maken tussen echte en nepgebeurtenissen, het gezond verstand gebruiken, vertrouwen op gerenommeerde media en het delen van afbeeldingen vermijden.

Grafische lijst van hoe u nepfoto's kunt herkennen

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *