Trump bant Anthropic: strijd om militaire AI ontploft

Trump gooit Anthropic uit de Amerikaanse overheid na een ruzie over militair gebruik. Wat betekent dit voor de stabiliteit van de AI-tools die jij gebruikt?

Donald Trump zet AI-bouwer Anthropic de deur uit omdat het bedrijf weigert alle beperkingen op militair gebruik te schrappen. Voor ondernemers legt dit conflict de spanning tussen AI-veiligheid en politieke macht pijnlijk bloot.

De frontale aanval op Anthropic

Donald Trump heeft alle federale agentschappen opdracht gegeven om per direct te stoppen met het gebruik van de AI-tools van Anthropic. De aanleiding is een hooggelopen conflict over de inzet van kunstmatige intelligentie door het Pentagon. Waar de Amerikaanse defensie volledige zeggenschap eist over de technologie, houdt Anthropic vast aan ethische grenzen.

Het ministerie van Defensie probeert de voorwaarden van een deal uit juli vorig jaar open te breken. Zij willen dat de restricties verdwijnen, zodat alle ‘wettelijk toegestane’ toepassingen mogelijk worden. Anthropic weigert dit uit angst dat hun modellen worden ingezet voor volledig autonome dodelijke wapens of massale surveillance van burgers. Trump reageerde op Truth Social door het management van het bedrijf uit te maken voor linkse gekken die de overheid proberen te chanteren.

Contracten onder hoogspanning

Anthropic was vorig jaar de eerste grote speler die een deal van 200 miljoen dollar sloot met het Pentagon. Het bedrijf ontwikkelde speciale versies van hun model onder de naam Claude Gov. Hoewel concurrenten als OpenAI en Google vergelijkbare contracten hebben, is Anthropic momenteel de enige partij die toegang heeft tot de meest geheime systemen van de overheid. Juist die positie staat nu op de tocht met een uitfaseringsperiode van zes maanden.

De ruzie escaleerde nadat uitkwam dat het Amerikaanse leger Claude had gebruikt bij de planning van de operatie om de Venezolaanse president Maduro gevangen te nemen. Een medewerker van Palantir uitte zorgen over hoe de modellen werden ingezet, wat leidde tot publieke moddergevechten tussen defensie-ambtenaren en de top van Anthropic op sociale media. Het laat zien dat de tijd waarin Silicon Valley zich verre hield van defensieopdrachten definitief voorbij is.

AI-veiligheid als politieke speelbal

Experts noemen het conflict een botsing van principes over theoretische scenario’s. Anthropic is opgericht met het dogma dat veiligheid de kern moet zijn van elk model. CEO Dario Amodei waarschuwde onlangs nog dat krachtige AI een gevaarlijk wapen kan zijn als er geen duidelijke kaders zijn. Het Pentagon ziet dit echter als een private onderneming die de militaire strategie van een wereldmacht probeert te dicteren.

De gevolgen voor de markt zijn groot. Terwijl Anthropic de poot stijf houdt, probeert Sam Altman van OpenAI de brokken te lijmen door aan te geven dat zij ook grenzen trekken bij autonome wapens, maar wel in gesprek blijven met het leger. De strijd gaat inmiddels minder over de techniek en meer over de vraag wie er daadwerkelijk de controle heeft over de knoppen van de macht.

Wat valt ons op?

De strijd tussen het Pentagon en Anthropic gaat niet over technologie, maar over wie er aan de knoppen zit bij de inzet van geweld.

Wat betekent dit voor jou?

Deze machtsstrijd tussen de Amerikaanse overheid en een techgigant laat zien dat politieke willekeur een directe impact kan hebben op de beschikbaarheid van jouw software. Wanneer ethische principes botsen met staatsbelangen, trek je als gebruiker vaak aan het kortste eind.

Oorspronkelijk bericht: ArsTechnica
Arno
Arno

Arno is AI-redacteur bij AIResults.biz. Hij focust op het begrijpelijk maken van AI-nieuws uit de Verenigde Staten.

Artikelen: 9

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *