Trump kieltää Yhdysvaltain hallintoa käyttämästä Anthropicin tekoälyä – kiista sotilaallisesta käytöstä kärjistyy
Yhdysvaltain presidentti Donald Trump ilmoitti perjantaina määräävänsä kaikki liittovaltion virastot lopettamaan välittömästi tekoäly-yhtiö Anthropicin teknologian käytön. Päätös tulee keskelle kiihtynyttä kiistaa siitä, miten kehittynyttä tekoälyä voidaan hyödyntää sotilaallisissa tarkoituksissa ja valvonnassa.
Jyrkkä kielto: ”Emme tarvitse sitä emmekä halua sitä”
Trump kirjoitti Truth Social -alustalla, että liittovaltio ei enää tee yhteistyötä Anthropicin kanssa: ”Emme tarvitse sitä, emmekä halua sitä, emmekä tee enää koskaan liiketoimintaa heidän kanssaan!”
Päätös tarkoittaa, että Anthropicin tekoälytyökalut, kuten Claude, poistuvat kaikesta Yhdysvaltain hallinnon käytöstä seuraavien kuuden kuukauden aikana. Tämä koskee sekä siviilivirastoja että puolustushallintoa, jossa yhtiön teknologiaa on käytetty vuodesta 2024 alkaen myös salaisissa hankkeissa.
Kiista vapaasta pääsystä tekoälytyökaluihin
Taustalla on syvä erimielisyys Anthropicin ja Valkoisen talon välillä. Yhtiö on kieltäytynyt hyväksymästä Yhdysvaltain puolustusministeriön vaatimusta, jonka mukaan armeijalla tulisi olla rajoittamaton pääsy sen tekoälytyökaluihin ”kaikkeen lailliseen käyttöön”.
Yhdysvaltain puolustusministeri Pete Hegseth on tämän seurauksena julistanut, että hän pitää Anthropicia niin sanottuna ”supply chain risk” -toimijana eli toimitusketjuriskinä. Tällainen leima olisi ensimmäinen laatuaan yhdysvaltalaiselle teknologiayritykselle.
Anthropic ilmoitti kuitenkin perjantai-iltana aikovansa haastaa mahdollisen toimitusketjuriskiluokituksen oikeudessa ja kuvaili sitä sekä lain kannalta heikosti perustelluksi että vaaralliseksi ennakkotapaukseksi kaikille amerikkalaisille yrityksille, jotka neuvottelevat hallituksen kanssa.
Huoli massavalvonnasta ja autonomisista aseista
Anthropic on viime kuukausina ilmaissut kasvavaa huolta siitä, että hallitus voisi käyttää sen tekoälyä massavalvontaan ja täysin autonomisiin asejärjestelmiin. Yhtiö on julkisesti linjannut, ettei se tue kotimaista massavalvontaa tai täysautonomisia tappavia aseita missään olosuhteissa.
Trumpin nimeämää ”Sotaministeriötä” (Department of War) johtava Hegseth on puolestaan vaatinut, että yhtiö suostuu mihin tahansa lailliseen käyttöön, mukaan lukien sotilaalliset sovellukset. Sekä Trump että Hegseth julkistivat päätöksensä sosiaalisessa mediassa, ja Hegseth kirjoitti X:ssä, että Anthropic nimetään välittömästi toimitusketjuriskiksi, mikä estäisi kaikkia puolustushallinnon kanssa toimivia yrityksiä tekemästä kaupallista yhteistyötä Anthropicin kanssa.
Anthropic: ”Emme taivu pelottelulle”
Anthropic kertoi perjantai-iltana, ettei se ollut vielä saanut suoraa virallista ilmoitusta Valkoisesta talosta tai armeijalta neuvottelujen tilanteesta, vaikka julkiset uhkaukset olivatkin jo esillä sosiaalisessa mediassa. Yhtiö toisti kuitenkin periaatteellisen kantansa:
”Mikään Sotaministeriön harjoittama pelottelu tai rangaistus ei muuta kantaamme kotimaiseen massavalvontaan tai täysin autonomisiin aseisiin.”
Trump puolestaan kovensi retoriikkaansa Truth Socialissa ja varoitti, että jos Anthropic ei ”auta” hallintoa siirtymävaiheessa muihin palveluntarjoajiin, hän on valmis käyttämään ”presidentin kaiken vallan” pakottaakseen yhtiön yhteistyöhön, myös siviili- ja rikosoikeudellisten seuraamusten uhalla.
Taloudellinen mittakaava: miljardiyhtiö vastaan puolustusministeriö
Anthropic on yksi maailman arvokkaimmista tekoälystartup-yrityksistä. Yhtiön viimeisin arvonmääritys, tehty aiemmin tässä kuussa, arvioi sen arvoksi noin 380 miljardia dollaria yhtiön nykyisen liikevaihdon ja tulevien tuotto-odotusten perusteella.
Yhteistyö Pentagonin kanssa on osa noin 200 miljoonan dollarin arvoista sopimuskokonaisuutta. Entinen puolustusministeriön virkamies, joka kommentoi asiaa nimettömänä BBC:lle, arvioi, että Anthropic on neuvottelutilanteessa vahvoilla: yhtiö ei hänen mukaansa ”tarvitse rahaa” ja kiista on sille jopa hyödyllistä julkisuutta.
Saman lähteen mukaan puolustusministeriön oikeudellinen perusta sekä Defense Production Act -lain käyttöönotolle että toimitusketjuriskiksi leimaamiselle on ”äärimmäisen hatara”.
Defense Production Act ja toimitusketjuriski – kovat keinot pöydällä
Hegseth kutsui Anthropicin toimitusjohtajan Dario Amodein Washingtoniin kasvokkain käytäviin keskusteluihin kasvavan jännitteen keskellä. Tapaaminen johti kahteen rinnakkaiseen uhkaukseen, jos Anthropic ei antaisi puolustusministeriölle vapaata pääsyä tekoälytyökaluihinsa:
- Defense Production Act -lain käyttäminen, mikä antaisi hallitukselle oikeuden määrätä Anthropicin tuotteet hallituksen käyttöön sen haluamalla tavalla.
- Anthropicin nimeäminen toimitusketjuriskiksi, mikä sulkisi yhtiön ulos laajasta joukosta puolustussektorin sopimuksia ja yhteistyömahdollisuuksia.
Amodei ilmoitti torstaina, että yhtiö on valmis lopettamaan yhteistyön Pentagonin kanssa mieluummin kuin suostumaan tällaisiin vaatimuksiin. Anthropic oli jo aiemmin luvannut, että mikäli puolustusministeriö päättää itse lopettaa työkalujen käytön, yhtiö auttaa järjestämään ”hallittavan siirtymän” toiseen palveluntarjoajaan.
Vaikutukset muihin asiakkaisiin ja teknologia-alalle
Anthropic painotti, että Trumpin päätöksen välitön vaikutus koskee ensisijaisesti yrityksiä, jotka tekevät samanaikaisesti töitä sekä Anthropicin että puolustusministeriön kanssa. Nämä yritykset voivat joutua lopettamaan Anthropicin työkalujen käytön niissä projekteissa, jotka liittyvät suoraan puolustushallintoon.
Laajemmin katsottuna kiista heijastuu koko tekoälyalan suhteeseen valtioihin ja armeijoihin. Tekoälyn sotilaallinen käyttö, autonomiset asejärjestelmät ja kansalaisten massavalvonta ovat nousseet yhdeksi keskeisistä eettisistä ja poliittisista kiistakysymyksistä, aivan kuten urheilun puolella keskustellaan esimerkiksi talviolympialaiset 2026 -kisoihin liittyvistä teknologia- ja turvallisuuskysymyksistä.
OpenAI:n Sam Altman asettuu Anthropicin rinnalle
Anthropic ei ole kiistassa yksin. OpenAI:n toimitusjohtaja Sam Altman ilmaisi tukensa kilpailijalleen Dario Amodeille sisäisessä viestissä henkilöstölle. Altman kertoi jakavansa samat ”punaiset linjat” armeijasopimusten suhteen.
Altmanin mukaan myös OpenAI:n sopimuksissa armeijan kanssa kiellettäisiin sellaiset käyttötarkoitukset, jotka ovat lainvastaisia tai ”pilviympäristöihin sopimattomia”, kuten kotimainen massavalvonta ja autonomiset hyökkäysaseet. Altman vahvisti myöhemmin X:ssä, että OpenAI on päässyt sopimukseen Sotaministeriön kanssa tekoälymallien käytöstä luokitelluissa pilviympäristöissä – mutta yhtiö pitää kiinni omista rajoistaan käyttöehtojen osalta.
Amodei on teknologia-alalla pitkään vaikuttanut hahmo ja entinen OpenAI:n avainhenkilö. Hän ja joukko muita työntekijöitä lähtivät OpenAI:sta perustamaan Anthropicin erimielisyyksien jälkeen Altmanin kanssa. Nyt yhtiöt kilpailevat samoista käyttäjistä, yritysasiakkaista ja pilvipalvelukumppaneista tekoälymallien, agenttien ja muiden työkaluratkaisujen avulla.
Alan tulevaisuus: ennakkotapauksen vaikutus voi olla laaja
Altman kirjoitti henkilöstölle, ettei hän ”täysin ymmärrä”, miten tilanne kärjistyi tähän pisteeseen, eikä miksi Anthropic teki sopimuksensa Pentagonin ja Palantirin kanssa alun perin sillä tavoin kuin teki. Hänen mukaansa kyse ei kuitenkaan ole enää vain Anthropicin ja Sotaministeriön välisestä kiistasta, vaan koko alan periaatekysymyksestä.
Jos puolustusministeriö leimaa Anthropicin virallisesti toimitusketjuriskiksi tai turvautuu Defense Production Act -lakiin pakottavalla tavalla, se voi muodostua ennakkotapaukseksi, joka vaikuttaa kaikkiin yhdysvaltalaisiin tekoäly- ja teknologia-alan yrityksiin. Monet pelkäävät, että tällainen linja heikentäisi yritysten neuvotteluasemaa ja voisi pakottaa ne joustamaan eettisistä periaatteistaan valtion vaatimusten edessä.
Toisaalta osa asiantuntijoista katsoo, että Anthropicin jyrkkä linjaus voi rohkaista muitakin teknologiayrityksiä asettamaan selkeitä rajoja asejärjestelmiin ja valvontaan liittyville käyttötapauksille – myös silloin, kun vastassa on maailman vaikutusvaltaisin puolustusministeriö.
Ei sisällä instagram post:eja


