Een werkgroep van de privacywaakhond van de Europese Unie zei dat OpenAI's recente inspanningen om het risico te beperken dat zijn beroemde chatbot feitelijk onjuiste output produceert, niet genoeg waren om naleving van de EU-gegevensregels te garanderen.

"Hoewel de maatregelen die zijn genomen om te voldoen aan het transparantieprincipe gunstig zijn om verkeerde interpretatie van de output van ChatGPT te voorkomen, zijn ze niet voldoende om te voldoen aan het principe van nauwkeurigheid van gegevens," zei de taskforce in een rapport dat vrijdag op haar website werd gepubliceerd.

De gezamenlijke onderzoeken van de nationale EU-privacywaakhonden lopen nog, aldus het rapport, en het was daarom nog niet mogelijk om een volledige beschrijving van de resultaten te geven. (Verslaggeving door Tassilo Hummel; Redactie door Benoit Van Overstraeten)