Anthropic verliest slag om Amerikaanse overheidsopdrachten
Een federaal hof van beroep in de Verenigde Staten heeft geweigerd de zwarte lijst van de regering-Trump tegen AI-bedrijf Anthropic tijdelijk op te schorten. Anthropic, de organisatie achter de populaire Claude AI, diende een noodverzoek in nadat het bedrijf werd uitgesloten van alle federale opdrachten en samenwerkingen met defensie-aannemers. Hoewel de rechter de blokkade nu niet opheft, is de behandeling van de zaak wel versneld. De mondelinge pleidooien staan gepland voor 19 mei.
De kern van het conflict draait om de ethische kaders van het techbedrijf. Anthropic weigerde Claude AI beschikbaar te stellen voor autonome oorlogsvoering en massasurveillance van Amerikaanse burgers. Volgens het bedrijf is de daaropvolgende uitsluiting door de overheid een directe vergelding voor het uitoefenen van hun grondwettelijke rechten op vrije meningsuiting. Defensieminister Pete Hegseth bestempelde de firma echter als een risico voor de nationale veiligheid.
Politieke druk op Anthropic en de AI-sector
De uitspraak van het panel, bestaande uit drie door Republikeinen benoemde rechters, is een flinke tegenvaller voor het bedrijf. De rechters erkenden weliswaar dat Anthropic onherstelbare financiële schade lijdt, maar stelden dat de belangen van de nationale veiligheid zwaarder wegen. In de woorden van waarnemend procureur-generaal Todd Blanche: de militaire autoriteit en operationele controle behoren toe aan de opperbevelhebber, niet aan een techbedrijf.
Terwijl deze zaak in Washington speelt, boekte Anthropic in Californië eerder wel een klein succes. Een andere rechter oordeelde daar dat de blacklisting waarschijnlijk een schending is van het recht op vrije meningsuiting. Deze tegenstrijdige signalen zorgen voor grote onzekerheid in de markt. Het toont aan hoe kwetsbaar leveranciers van AI-technologie zijn wanneer hun ethische kompas botst met de politieke koers van de dag.
Voor de zakelijke markt is de situatie rondom Anthropic een waarschuwing. De politieke inmenging bij grote AI-spelers kan de continuïteit van diensten direct in gevaar brengen. Bedrijven die zwaar leunen op specifieke modellen voor hun bedrijfsvoering, moeten rekening houden met een scenario waarin overheden de druk op leveranciers verder opvoeren of de toegang beperken.
Wat valt ons op?
Militaire autoriteit en operationele controle behoren toe aan de opperbevelhebber en het ministerie van Oorlog, niet aan een techbedrijf.
Wat betekent dit voor jou?
Deze strijd laat zien dat politieke conflicten direct invloed hebben op de beschikbaarheid van jouw zakelijke tools. Voor ondernemers is het essentieel om geopolitieke risico’s mee te wegen in hun softwareselectie.
- Spreid je risico: zorg dat je bedrijfsprocessen niet afhankelijk zijn van één enkele AI-leverancier.
- Controleer de voorwaarden: wees je bewust van de ethische en politieke beperkingen die leveranciers opgelegd kunnen krijgen.
- Monitor alternatieven: houd vergelijkbare modellen van andere aanbieders achter de hand voor het geval Claude AI tijdelijk minder toegankelijk wordt.




