Een onderzoeker van de Chinese eigenaar van TikTok, ByteDance, is vorige week ten onrechte toegevoegd aan een groepchat voor Amerikaanse veiligheidsdeskundigen op het gebied van kunstmatige intelligentie, aldus het Amerikaanse National Institute of Standards and Technology (NIST) maandag.

De onderzoeker was toegevoegd aan een Slack-instantie voor discussies tussen leden van het U.S. Artificial Intelligence Safety Institute van NIST, volgens een persoon die bekend is met de zaak.

In een e-mail zei NIST dat het de onderzoeker had toegevoegd in de veronderstelling dat zij een vrijwilliger was.

"Zodra NIST erachter kwam dat de persoon een werknemer van ByteDance was, werd ze snel verwijderd wegens het schenden van de gedragscode van het consortium over onjuiste voorstellingen van zaken," aldus de e-mail.

De onderzoeker, die volgens haar LinkedIn-profiel in Californië werkt, beantwoordde geen berichten; ByteDance reageerde niet op e-mails waarin om commentaar werd gevraagd.

De persoon die bekend is met de zaak zei dat het verschijnen van een onderzoeker van ByteDance de wenkbrauwen deed fronsen binnen het consortium, omdat het bedrijf geen lid is en TikTok in het middelpunt staat van een nationaal debat over de vraag of de populaire app een achterdeur heeft geopend voor de Chinese overheid om Amerikanen op grote schaal te bespioneren of te manipuleren. Vorige week keurde het Amerikaanse Huis van Afgevaardigden een wetsvoorstel goed om ByteDance te dwingen zich van TikTok te ontdoen of een landelijk verbod tegemoet te zien; het ultimatum gaat een onzekere weg tegemoet in de Senaat.

Het AI Safety Institute is bedoeld om de risico's van geavanceerde programma's voor kunstmatige intelligentie te evalueren. Het instituut, dat vorig jaar werd aangekondigd, werd opgericht onder NIST en de oprichtende leden omvatten honderden grote Amerikaanse technologiebedrijven, universiteiten, AI-startups, niet-gouvernementele organisaties en anderen, waaronder Reuters' moederbedrijf Thomson Reuters.

Het consortium werkt onder andere aan de ontwikkeling van richtlijnen voor de veilige inzet van AI-programma's en helpt AI-onderzoekers bij het vinden en verhelpen van zwakke plekken in de beveiliging van hun modellen. NIST zei dat de Slack-instantie voor het consortium ongeveer 850 gebruikers omvat. (Verslaggeving door Raphael Satter; Bewerking door Sharon Singleton)