openAi en de overeenkomst met US department of War

OpenAI heeft nu een overeenkomst met het Amerikaanse ministerie van Defensie, maar de Verenigde Staten mogen er niet alles mee doen.
Hieronder staan de gegevens die door OpenAI zijn vrijgegeven.

Onze overeenkomst met het ministerie van Oorlog

Gisteren hebben we met het Pentagon een overeenkomst gesloten voor de inzet van geavanceerde AI-systemen in geclassificeerde omgevingen. Daarbij hebben we verzocht dat zij deze voorwaarden ook beschikbaar maken voor alle AI-bedrijven.

Wij vinden dat onze overeenkomst meer veiligheidswaarborgen bevat dan eerdere overeenkomsten voor geclassificeerde AI-inzet, waaronder die van Anthropic. Dit is waarom.

We hanteren drie belangrijkste rode lijnen voor ons werk met het ministerie van Oorlog (DoW), die in grote lijnen ook door meerdere andere toonaangevende AI-labs worden gedeeld:

  • Geen gebruik van OpenAI-technologie voor grootschalige binnenlandse massasurveillance.
  • Geen gebruik van OpenAI-technologie om autonome wapensystemen aan te sturen.
  • Geen gebruik van OpenAI-technologie voor geautomatiseerde beslissingen met grote impact (bijv. systemen zoals “social credit”).

Andere AI-labs hebben hun veiligheidswaarborgen verminderd of verwijderd en vertrouwen bij nationale veiligheidsinzet vooral op gebruiksbeleid als belangrijkste bescherming. Wij vinden dat onze aanpak beter beschermt tegen onaanvaardbaar gebruik.

In onze overeenkomst beschermen we onze rode lijnen via een bredere, meerlagige aanpak. Wij behouden volledige zeggenschap over onze safety stack, we leveren uitsluitend via de cloud, gescreend OpenAI-personeel blijft betrokken, en we hebben sterke contractuele waarborgen. Dit komt bovenop de stevige bescherming die al in de Amerikaanse wetgeving is verankerd.

Wij geloven sterk in democratie. Gezien het belang van deze technologie vinden wij dat een goede weg vooruit alleen mogelijk is met nauwe samenwerking tussen AI-ontwikkeling en het democratische proces. Tegelijkertijd verwachten we dat deze technologie nieuwe risico’s introduceert, en we willen dat degenen die de Verenigde Staten verdedigen over de best mogelijke middelen beschikken.

Onze overeenkomst bevat onder meer:

1. Implementatie-architectuur

Dit is een cloud-only implementatie, met een safety stack die wij beheren en die onder andere deze principes bevat. We leveren het DoW geen modellen “zonder guardrails” of modellen die niet op veiligheid zijn getraind. Ook implementeren we onze modellen niet op edge-apparaten (waar er een mogelijkheid zou bestaan dat ze worden ingezet voor autonome dodelijke wapens).

Onze implementatie-architectuur maakt het mogelijk dat wij onafhankelijk kunnen verifiëren dat deze rode lijnen niet worden overschreden, onder meer door classifiers te draaien en te actualiseren.

2. Ons contract

Hieronder staat de relevante contracttekst (origineel, Engels):

The Department of War may use the AI System for all lawful purposes, consistent with applicable law, operational requirements, and well-established safety and oversight protocols. The AI System will not be used to independently direct autonomous weapons in any case where law, regulation, or Department policy requires human control, nor will it be used to assume other high-stakes decisions that require approval by a human decisionmaker under the same authorities. Per DoD Directive 3000.09 (dtd 25 January 2023), any use of AI in autonomous and semi-autonomous systems must undergo rigorous verification, validation, and testing to ensure they perform as intended in realistic environments before deployment.

For intelligence activities, any handling of private information will comply with the Fourth Amendment, the National Security Act of 1947 and the Foreign Intelligence and Surveillance Act of 1978, Executive Order 12333, and applicable DoD directives requiring a defined foreign intelligence purpose. The AI System shall not be used for unconstrained monitoring of U.S. persons’ private information as consistent with these authorities. The system shall also not be used for domestic law-enforcement activities except as permitted by the Posse Comitatus Act and other applicable law.

3. Betrokkenheid van AI-experts

We zetten gescreende, vooruit geplaatste OpenAI-engineers in om de overheid te ondersteunen, met gescreende safety- en alignment-onderzoekers die betrokken blijven.


Veelgestelde vragen (FAQ)

Waarom doen jullie dit?

Ten eerste vinden we dat het Amerikaanse leger sterke AI-modellen nodig heeft om zijn missie te ondersteunen, zeker gezien de groeiende dreigingen van potentiële tegenstanders die AI-technologie steeds vaker in hun systemen integreren. In eerste instantie zijn we niet direct in een contract voor geclassificeerde inzet gestapt, omdat we vonden dat onze waarborgen en systemen daar nog niet klaar voor waren. We hebben sindsdien hard gewerkt om te zorgen dat geclassificeerde inzet mogelijk is mét waarborgen die voorkomen dat rode lijnen worden overschreden.

We waren—en blijven—niet bereid om essentiële technische veiligheidsmaatregelen te verwijderen om prestaties voor nationale veiligheidsdoeleinden te verhogen. Dat is niet de juiste manier om het Amerikaanse leger te ondersteunen.

Ten tweede wilden we de spanningen tussen het DoW en de Amerikaanse AI-labs verminderen. Een goede toekomst vereist echte en nauwe samenwerking tussen de overheid en AI-labs. Als onderdeel van deze overeenkomst hebben we gevraagd dat dezelfde voorwaarden beschikbaar worden gemaakt voor alle AI-labs, en specifiek dat de overheid probeert het conflict met Anthropic op te lossen. De huidige situatie is een zeer slechte start voor deze volgende fase van samenwerking tussen overheid en AI-labs.

Waarom konden jullie wel een akkoord bereiken en Anthropic niet? Hebben jullie een deal getekend die zij niet wilden tekenen?

Op basis van wat wij weten, biedt ons contract betere garanties en meer verantwoorde waarborgen dan eerdere overeenkomsten, waaronder het oorspronkelijke contract van Anthropic. We denken dat onze rode lijnen hier beter afdwingbaar zijn omdat de implementatie beperkt is tot cloud-only (niet op edge), onze safety stack blijft functioneren op de manier die wij het beste achten, en gescreend OpenAI-personeel betrokken blijft.

We weten niet waarom Anthropic deze deal niet kon bereiken, en we hopen dat zij en andere labs dit alsnog zullen overwegen.

Vinden jullie dat Anthropic moet worden aangemerkt als “supply chain risk”?

Nee, en we hebben dit standpunt duidelijk aan de overheid kenbaar gemaakt.

Maakt deze deal het mogelijk dat het ministerie van Oorlog OpenAI-modellen inzet voor autonome wapens?

Nee. Op basis van onze safety stack, onze cloud-only implementatie, de contracttekst en de bestaande wet- en regelgeving en beleidskaders, hebben we er vertrouwen in dat dit niet kan gebeuren. Daarnaast blijft OpenAI-personeel betrokken voor extra zekerheid.

Maakt deze deal het mogelijk dat het ministerie van Oorlog OpenAI-modellen gebruikt voor massasurveillance op Amerikaanse personen?

Nee. Op basis van onze safety stack, de contracttekst en bestaande wetten die het DoW sterk beperken in binnenlandse surveillance, hebben we er vertrouwen in dat dit niet kan gebeuren. Daarnaast blijft OpenAI-personeel betrokken voor extra zekerheid.

Moeten jullie modellen implementeren zonder safety stack?

Nee. Wij behouden volledige controle over de safety stack die we inzetten en zullen niet implementeren zonder veiligheidswaarborgen. Bovendien blijven onze safety- en alignment-onderzoekers betrokken en helpen zij de systemen in de loop van de tijd te verbeteren. We weten dat andere AI-labs modelwaarborgen hebben verminderd en vooral op gebruiksbeleid vertrouwen als belangrijkste bescherming, maar wij vinden dat onze meerlagige aanpak beter beschermt tegen onaanvaardbaar gebruik.

Wat gebeurt er als de overheid de contractvoorwaarden schendt?

Zoals bij elk contract kunnen we het beëindigen als de wederpartij de voorwaarden schendt. We verwachten niet dat dat zal gebeuren.

Wat als de overheid de wet of het bestaande DoW-beleid gewoon wijzigt?

Ons contract verwijst expliciet naar de wetten en beleidsregels rond surveillance en autonome wapens zoals die vandaag bestaan, zodat zelfs als die wetten of beleidsregels in de toekomst veranderen, het gebruik van onze systemen nog steeds in lijn moet blijven met de huidige normen zoals vastgelegd in de overeenkomst.

Hoe reageren jullie op de argumenten die Anthropic in hun blogpost aanhaalde over hun gesprekken met het DoW?

In hun bericht noemt Anthropic twee rode lijnen (wij hebben dezelfde twee, plus een derde: geautomatiseerde besluitvorming met grote impact) en redenen waarom zij niet geloven dat deze rode lijnen zouden worden gerespecteerd in de contracten die zij destijds van het DoW hadden gezien. Hieronder staat waarom wij denken dat diezelfde rode lijnen in ons contract wel standhouden:

  • Grootschalige binnenlandse massasurveillance. In onze gesprekken was duidelijk dat het DoW massasurveillance binnenlands als illegaal beschouwt en niet van plan was dit daarvoor te gebruiken. We hebben ervoor gezorgd dat expliciet in het contract staat dat dit niet onder “rechtmatig gebruik” valt.
  • Volledig autonome wapens. De cloud-implementatie die in ons contract is vastgelegd, maakt het niet mogelijk om volledig autonome wapens aan te sturen, omdat dit edge-implementatie zou vereisen.

Naast deze bescherming biedt ons contract extra, gelaagde waarborgen, waaronder onze safety stack en OpenAI’s technische experts die betrokken blijven.

  • Eater

    vraag en ik antwoord

    Related Posts

    Mogelijke lek van OpenAI’s ChatGPT 5.4 opgemerkt tijdens Codex-demo

    De AI-wereld gonst van de speculaties na een vermeende lek van OpenAI’s model ChatGPT 5.4. Het bericht zorgt tegelijk voor enthousiasme en onrust. Volgens Universe of AI laat een eerste…

    openAi en de overeenkomst met US department of War

    OpenAI heeft nu een overeenkomst met het Amerikaanse ministerie van Defensie, maar de Verenigde Staten mogen er niet alles mee doen. Hieronder staan de gegevens die door OpenAI zijn vrijgegeven.…

    Geef een reactie