De regering Biden is klaar om een nieuw front te openen in haar poging om Amerikaanse AI te beschermen tegen China en Rusland met voorlopige plannen om vangrails te plaatsen rond de meest geavanceerde AI-modellen, de kernsoftware van kunstmatige intelligentiesystemen zoals ChatGPT, aldus bronnen.

Het Ministerie van Handel overweegt een nieuwe regelgevende stap om de export van propriëtaire of closed source AI-modellen te beperken, waarvan de software en de gegevens waarop het getraind is geheim worden gehouden, aldus drie mensen die bekend zijn met de zaak.

Elke actie zou een aanvulling zijn op een reeks maatregelen die de afgelopen twee jaar zijn genomen om de export van geavanceerde AI-chips naar China te blokkeren in een poging om Pekings ontwikkeling van deze geavanceerde technologie voor militaire doeleinden af te remmen. Toch zal het voor de toezichthouders moeilijk zijn om gelijke tred te houden met de snelle ontwikkelingen in de sector.

Het ministerie van Handel gaf geen commentaar, terwijl de Russische ambassade in Washington niet onmiddellijk reageerde op een verzoek om commentaar. De Chinese ambassade beschreef de stap als een "typische daad van economische dwang en eenzijdige intimidatie, waar China fel op tegen is," en voegde eraan toe dat het "noodzakelijke maatregelen" zou nemen om zijn belangen te beschermen.

Momenteel weerhoudt niets Amerikaanse AI-giganten zoals OpenAI, het door Microsoft gesteunde Alphabet DeepMind en rivaal Anthropic, die enkele van de krachtigste closed source AI-modellen hebben ontwikkeld, ervan om deze zonder overheidstoezicht aan bijna iedereen ter wereld te verkopen.

Onderzoekers uit de overheid en de privésector maken zich zorgen dat Amerikaanse tegenstanders de modellen, die enorme hoeveelheden tekst en afbeeldingen verzamelen om informatie samen te vatten en inhoud te genereren, zouden kunnen gebruiken om agressieve cyberaanvallen uit te voeren of zelfs krachtige biologische wapens te maken.

Een van de bronnen zei dat elke nieuwe exportcontrole waarschijnlijk gericht zou zijn op Rusland, China, Noord-Korea en Iran. Microsoft zei in een rapport van februari dat het hackinggroepen had opgespoord die gelieerd waren aan de Chinese en Noord-Koreaanse regering, evenals aan de Russische militaire inlichtingendienst en de Revolutionaire Garde van Iran, terwijl ze probeerden hun hackingcampagnes te perfectioneren met behulp van grote taalmodellen.

REKENKRACHT

Om een exportcontrole op AI-modellen te ontwikkelen, zouden de VS zich volgens de bronnen kunnen baseren op een drempelwaarde in een AI-uitvoeringsbevel van oktober vorig jaar, die gebaseerd is op de hoeveelheid rekenkracht die nodig is om een model te trainen. Wanneer dat niveau is bereikt, moet een ontwikkelaar zijn plannen voor de ontwikkeling van AI-modellen melden en testresultaten aan het ministerie van Handel verstrekken.

Deze rekenkrachtdrempel zou de basis kunnen worden om te bepalen welke AI-modellen onder exportbeperkingen zouden vallen, volgens twee Amerikaanse functionarissen en een andere bron die op de hoogte is van de besprekingen. Ze wilden niet bij naam genoemd worden omdat de details niet openbaar zijn gemaakt.

Als het gebruikt zou worden, zou het waarschijnlijk alleen de export beperken van modellen die nog uitgebracht moeten worden, aangezien er nog geen enkele de drempel bereikt zou hebben, hoewel Google's Gemini Ultra volgens EpochAI, een onderzoeksinstituut dat AI-trends volgt, dicht in de buurt zou komen.

Het agentschap is nog ver verwijderd van de afronding van een regelvoorstel, benadrukten de bronnen. Maar het feit dat zo'n stap wordt overwogen, laat zien dat de Amerikaanse overheid gaten probeert te dichten in haar poging om de AI-ambities van Beijing te dwarsbomen, ondanks de serieuze uitdagingen om een streng regelgevend regime op te leggen aan de zich snel ontwikkelende technologie.

Terwijl de regering Biden de concurrentie met China en de gevaren van geavanceerde AI onder de loep neemt, zijn AI-modellen "duidelijk een van de hulpmiddelen, een van de potentiële choke points waar je hier over na moet denken," zei Peter Harrell, een voormalig ambtenaar bij de Nationale Veiligheidsraad. "Of je er in de praktijk een uitvoerbaar chokepunt van kunt maken, valt nog te bezien," voegde hij eraan toe.

BIOWAPENS EN CYBERAANVALLEN?

De Amerikaanse inlichtingendiensten, denktanks en academici maken zich steeds meer zorgen over de risico's van buitenlandse slechte actoren die toegang krijgen tot geavanceerde AI-capaciteiten. Onderzoekers van Gryphon Scientific en Rand Corporation merkten op dat geavanceerde AI-modellen informatie kunnen verschaffen die kan helpen bij het maken van biologische wapens.

Het Department of Homeland Security (Ministerie van Binnenlandse Veiligheid) zei in zijn dreigingsanalyse voor 2024 dat cyberactoren AI waarschijnlijk zouden gebruiken om "nieuwe tools te ontwikkelen" om "grootschaligere, snellere, efficiëntere en meer ontwijkende cyberaanvallen" mogelijk te maken.

"De potentiële explosie voor het gebruik en de exploitatie van [AI] is radicaal en we hebben het eigenlijk heel moeilijk om dat te volgen," zei Brian Holmes, een ambtenaar bij het Office of the Director of National Intelligence, tijdens een bijeenkomst over exportcontrole in maart, waarbij hij de vooruitgang van China als een bijzonder punt van zorg bestempelde.

AI CRACKDOWN

Om deze zorgen weg te nemen, heeft de VS maatregelen genomen om de stroom van Amerikaanse AI-chips en de hulpmiddelen om ze te maken naar China tegen te houden.

Er is ook een regel voorgesteld om Amerikaanse cloudbedrijven te verplichten de overheid te vertellen wanneer buitenlandse klanten hun diensten gebruiken om krachtige AI-modellen te trainen die gebruikt kunnen worden voor cyberaanvallen.

Maar tot nu toe zijn de AI-modellen zelf nog niet aan bod gekomen. Alan Estevez, die toezicht houdt op het Amerikaanse exportbeleid bij het ministerie van Handel, zei in december dat het agentschap opties aan het bekijken was voor het reguleren van de export van open source grote taalmodellen (LLM), voordat het feedback van de industrie zocht.

Tim Fist, een AI-beleidsdeskundige bij de denktank CNAS in Washington DC, zegt dat de drempel "een goede tijdelijke maatregel is totdat we betere methoden ontwikkelen om de mogelijkheden en risico's van nieuwe modellen te meten".

Jamil Jaffer, een voormalig ambtenaar van het Witte Huis en het Ministerie van Justitie, zegt dat de regering Biden geen drempelwaarde voor rekenkracht zou moeten gebruiken, maar zou moeten kiezen voor een controle op basis van de capaciteiten en het beoogde gebruik van het model. "Focussen op het nationale veiligheidsrisico in plaats van op de technologiedrempels is het betere spel, omdat het duurzamer is en meer gericht op de dreiging," zei hij.

De drempel staat niet vast. Een van de bronnen zei dat Commerce misschien een lagere drempel vaststelt, in combinatie met andere factoren, zoals het type gegevens of het potentiële gebruik van het AI-model, zoals de mogelijkheid om eiwitten te ontwerpen die gebruikt kunnen worden om een biologisch wapen te maken.

Ongeacht de drempel zal de export van AI-modellen moeilijk te controleren zijn. Veel modellen zijn open source, wat betekent dat ze buiten het bereik blijven van de exportcontroles die nu worden overwogen.

Zelfs het opleggen van controles op de meer geavanceerde propriëtaire modellen zal een uitdaging blijken te zijn, omdat regelgevers waarschijnlijk moeite zullen hebben om de juiste criteria te definiëren om te bepalen welke modellen überhaupt gecontroleerd moeten worden, aldus Fist, die opmerkte dat China waarschijnlijk slechts ongeveer twee jaar achterloopt op de Verenigde Staten bij het ontwikkelen van zijn eigen AI-software.

De exportcontrole die wordt overwogen, zou gevolgen hebben voor de toegang tot de backend-software die sommige consumententoepassingen zoals ChatGPT aanstuurt, maar zou de toegang tot de downstream-toepassingen zelf niet beperken. (Verslaggeving door Alexandra Alper; Aanvullende rapportage door Karen Freifeld en Anna Tong; Bewerking door Chris Sanders en Anna Driver)