OpenAI licht gelaagde waarborgen toe in pact met Amerikaanse defensie
In dit artikel:
OpenAI maakte eind februari bekend dat de overeenkomst die het kort daarvoor sloot met het Pentagon extra waarborgen bevat voor inzet van zijn technologie op het geclassificeerde netwerk van het Amerikaanse ministerie van Defensie. De deal, die tegelijk met steun van onder andere Microsoft, Amazon en SoftBank werd aangekondigd, kwam na een conflict rond concurrent Anthropic: president Trump beval vorige week de samenwerking met Anthropic te staken en het Pentagon bestempelde die startup als een ‘risico in de toeleveringsketen’; Anthropic zegt die status juridisch aan te vechten.
Volgens OpenAI bevat het contract strengere beperkingen dan eerdere overeenkomsten voor geclassificeerde AI-implementaties. Het legt drie “rode lijnen” vast: geen gebruik voor massale binnenlandse surveillancesystemen, geen inzet om autonome wapens te besturen, en geen toepassing voor risicovolle geautomatiseerde beslissingen. OpenAI zegt die grenzen te waarborgen via een gelaagde aanpak: controle over de beveiligingsstack, uitvoering via de cloud, inzet van gescreend OpenAI-personeel en stevige contractuele clausules. Het bedrijf waarschuwt dat de overheid bij contractschending tot beëindiging kan overgaan, maar verwacht dat niet.
Het Pentagon sloot vorig jaar meerdere contracten tot ongeveer $200 miljoen met grote AI-labs en wil flexibiliteit behouden in defensietoepassingen, ondanks bezwaren van technologieleveranciers over risico’s en ethiek. OpenAI benadrukte bovendien dat Anthropic volgens hen niet zomaar als toeleveringsrisico bestempeld moet worden.