Het National Institute of Standards and Technology (NIST) van het Ministerie van Handel zei dat het voor 2 februari openbare input zocht voor het uitvoeren van belangrijke tests die cruciaal zijn voor het waarborgen van de veiligheid van AI-systemen.

Gina Raimondo, de minister van Handel, zei dat de inspanning werd ingegeven door het uitvoeringsbevel van president Joe Biden over AI van oktober en gericht was op het ontwikkelen van "industrienormen voor AI-veiligheid, -beveiliging en -vertrouwen die Amerika in staat zullen stellen om de wereld te blijven leiden in de verantwoorde ontwikkeling en het verantwoorde gebruik van deze zich snel ontwikkelende technologie".

Het agentschap ontwikkelt richtlijnen voor het evalueren van AI, faciliteert de ontwikkeling van standaarden en biedt testomgevingen voor het evalueren van AI-systemen. Het verzoek is om input van AI-bedrijven en het publiek over risicobeheer van generatieve AI en het verminderen van risico's van door AI gegenereerde verkeerde informatie.

Generatieve AI - die tekst, foto's en video's kan maken als reactie op open vragen - heeft de afgelopen maanden zowel opwinding veroorzaakt als angst dat het sommige banen overbodig kan maken, verkiezingen kan verstoren en mogelijk mensen kan overmeesteren met catastrofale gevolgen.

Het bevel van Biden gaf agentschappen de opdracht om normen op te stellen voor dat testen en de gerelateerde chemische, biologische, radiologische, nucleaire en cyberbeveiligingsrisico's aan te pakken.

NIST werkt aan het opstellen van richtlijnen voor het testen, waaronder waar zogenaamde "red-teaming" het meest nuttig zou zijn voor de beoordeling en het beheer van AI-risico's en het vaststellen van best practices om dit te doen.

Externe red-teaming wordt al jaren gebruikt in cyberbeveiliging om nieuwe risico's te identificeren, waarbij de term verwijst naar simulaties uit de Koude Oorlog in de VS waarbij de vijand het "rode team" werd genoemd.

In augustus werd tijdens een grote cyberbeveiligingsconferentie voor het eerst in de VS een openbare evaluatie van het "red-teaming"-evenement gehouden, georganiseerd door AI Village, SeedAI en Humane Intelligence.

Duizenden deelnemers probeerden of ze "de systemen ongewenste output konden laten produceren of op een andere manier konden laten falen, met als doel een beter begrip te krijgen van de risico's die deze systemen met zich meebrengen", aldus het Witte Huis.

Het evenement "liet zien hoe externe red-teaming een effectief hulpmiddel kan zijn om nieuwe AI-risico's te identificeren", voegde het eraan toe.