Meta zei op woensdag dat het "waarschijnlijk door AI gegenereerde" inhoud had gevonden die op bedrieglijke wijze werd gebruikt op zijn Facebook- en Instagram-platforms, waaronder commentaren waarin Israels aanpak van de oorlog in Gaza werd geprezen, gepubliceerd onder berichten van wereldwijde nieuwsorganisaties en Amerikaanse wetgevers.

Het sociale mediabedrijf zei in een driemaandelijks beveiligingsrapport dat de accounts zich voordeden als Joodse studenten, Afro-Amerikanen en andere bezorgde burgers, en zich richtten op doelgroepen in de Verenigde Staten en Canada. Het bedrijf schreef de campagne toe aan het in Tel Aviv gevestigde politieke marketingbedrijf STOIC.

STOIC reageerde niet onmiddellijk op een verzoek om commentaar op de beschuldigingen.

WAAROM HET BELANGRIJK IS

Hoewel Meta sinds 2019 basisprofielfoto's heeft gevonden die door kunstmatige intelligentie zijn gegenereerd bij beinvloedingsoperaties, is het rapport het eerste dat het gebruik van geavanceerdere generatieve AI-technologieen onthult sinds deze eind 2022 opdoken.

Onderzoekers zijn bang dat generatieve AI, die snel en goedkoop mensachtige tekst, afbeeldingen en audio kan produceren, kan leiden tot effectievere desinformatiecampagnes en verkiezingen kan beinvloeden.

In een persgesprek zeiden leidinggevenden van Meta Security dat ze niet dachten dat nieuwe AI-technologieen hun vermogen om invloedsnetwerken te verstoren, wat gecoordineerde pogingen zijn om berichten te verspreiden, hadden belemmerd.

Leidinggevenden zeiden dat ze nog geen door AI gegenereerde afbeeldingen van politici hadden gezien die realistisch genoeg waren om met authentieke foto's verward te worden.

SLEUTELWOORD

"Er zijn verschillende voorbeelden in deze netwerken van hoe ze waarschijnlijk generatieve AI-tooling gebruiken om inhoud te creeren. Misschien geeft het hen de mogelijkheid om dat sneller te doen of om dat met meer volume te doen. Maar het heeft niet echt invloed gehad op ons vermogen om ze te detecteren," aldus Mike Dvilyanski, hoofd bedreigingsonderzoek bij Meta.

BIJ DE AANTALEN

In het rapport worden zes geheime beinvloedingsoperaties genoemd die Meta in het eerste kwartaal heeft verstoord.

Naast het STOIC-netwerk schakelde Meta een in Iran gebaseerd netwerk uit dat zich richtte op het Israel-Hamas-conflict, hoewel er geen gebruik van generatieve AI in die campagne werd geidentificeerd.

CONTEXT

Meta en andere techgiganten hebben geworsteld met de vraag hoe om te gaan met mogelijk misbruik van nieuwe AI-technologieen, vooral bij verkiezingen.

Onderzoekers hebben voorbeelden gevonden van beeldgeneratoren van bedrijven zoals OpenAI en Microsoft die foto's produceerden met stemgerelateerde desinformatie, ondanks het feit dat deze bedrijven beleid hebben tegen dergelijke inhoud.

De bedrijven hebben de nadruk gelegd op digitale etiketteersystemen om AI-gegenereerde inhoud te markeren op het moment van creatie, hoewel de tools niet werken op tekst en onderzoekers twijfels hebben over hun effectiviteit.

WAT VOLGT

Meta staat voor belangrijke tests van haar verdediging met verkiezingen in de Europese Unie begin juni en in de Verenigde Staten in november.