Google heeft maandag gezegd dat het adverteerders gaat verplichten om verkiezingsadvertenties te vermelden waarin digitaal gewijzigde inhoud wordt gebruikt om echte of realistisch ogende mensen of gebeurtenissen af te beelden, de nieuwste stap in de strijd tegen verkiezingsmisleiding.

De update van de openbaarmakingsvereisten onder het beleid voor politieke inhoud vereist dat marketeers een selectievakje inschakelen in het gedeelte "gewijzigde of synthetische inhoud" van hun campagne-instellingen.

De snelle groei van generatieve AI, die in enkele seconden tekst, afbeeldingen en video's kan maken als reactie op aanwijzingen, heeft geleid tot bezorgdheid over mogelijk misbruik.

De opkomst van deepfakes, overtuigend gemanipuleerde inhoud om iemand verkeerd voor te stellen, heeft de grenzen tussen echt en nep verder doen vervagen.

Google zei dat het een in-advertentie zal genereren voor feeds en shorts op mobiele telefoons en in-streams op computers en televisie. Voor andere formaten zullen adverteerders een opvallende "prominente vermelding" moeten geven aan gebruikers.

De "aanvaardbare openbaarmakingstaal" zal variëren afhankelijk van de context van de advertentie, aldus Google.

In april, tijdens de algemene verkiezingen in India, gingen nepvideo's van twee Bollywood-acteurs online die kritiek hadden op premier Narendra Modi. Beide AI-gegenereerde video's vroegen mensen om op de oppositiepartij Congress te stemmen.

Los daarvan zei OpenAI onder leiding van Sam Altman in mei dat het vijf geheime beïnvloedingsoperaties had verstoord die probeerden zijn AI-modellen te gebruiken voor "misleidende activiteiten" op het internet, in een "poging om de publieke opinie te manipuleren of politieke resultaten te beïnvloeden".

Meta Platforms had vorig jaar gezegd dat het adverteerders openbaar zou maken als AI of andere digitale hulpmiddelen worden gebruikt om politieke, sociale of verkiezingsgerelateerde advertenties op Facebook en Instagram te wijzigen of te creëren.