Yhdysvallat alkaa turvallisuustestata Googlen, Microsoftin ja xAI:n uusia tekoälymalleja
Yhdysvaltain kauppaministeriö alkaa jatkossa testata Googlen, Microsoftin ja Elon Muskin omistaman xAI:n uusia tekoälytyökaluja ja -malleja ennen kuin ne julkaistaan laajasti yleisölle. Tavoitteena on varmistaa, että kaupalliset tekoälyjärjestelmät ovat mahdollisimman turvallisia, läpinäkyviä ja hallittavissa, erityisesti kun niitä otetaan käyttöön kriittisissä kohteissa, kuten puolustuksessa ja julkisessa hallinnossa.
Vapaaehtoinen, mutta laajeneva yhteistyömalli
Teknologiajätit ovat sitoutuneet vapaaehtoisesti toimittamaan uudet tekoälymallinsa testattaviksi kauppaministeriön alaiselle Center for AI Standards and Innovation -yksikölle (CAISI). Kyseessä on Bidenin hallinnon aikana solmittujen, OpenAI:n ja Anthropicin kaltaisten toimijoiden kanssa tehtyjen sopimusten laajennus, joka kattaa nyt entistä laajemman joukon suuria tekoälytoimijoita.
CAISI:n johtaja Chris Fall kuvaa yhteistyötä tärkeäksi käännekohdaksi: hänen mukaansa laajennetut teollisuussopimukset mahdollistavat työn skaalaamisen julkisen edun mukaisesti juuri silloin, kun tekoälyjärjestelmien teho ja vaikutus kasvavat nopeasti.
Arvioinnit kattavat muun muassa mallien teknisen suorituskyvyn, turvallisuuden, väärinkäytön riskit sekä parhaiden käytäntöjen kehittämisen tekoälyn kaupalliseen käyttöön. Yhteistyö ei rajoitu pelkkään testaamiseen, vaan sisältää myös yhteisiä tutkimushankkeita ja standardointityötä.
Gemini, Copilot ja Grok suurennuslasin alla
Googlen tunnetuin tekoälyalusta on DeepMindin kehittämä Gemini-malliperhe. Gemini on integroitu laajasti Googlen tuotteisiin, mutta sitä käytetään myös Yhdysvaltain puolustus- ja sotilasvirastoissa. Tämä tekee sen turvallisuudesta ja luotettavuudesta erityisen tärkeän kansallisen turvallisuuden näkökulmasta.
Microsoftin vastaava lippulaivatuote on Copilot, joka on upotettu Windowsiin, Office-työkaluihin ja lukuisiin pilvipalveluihin. Copilotin kyky käsitellä arkaluonteista yritysdataa ja automatisoida päätöksentekoa nostaa esiin kysymyksiä tietoturvasta, yksityisyydestä ja virheellisten vastausten (hallusinaatioiden) hallinnasta.
xAI:n ainoa kaupallinen tuote on tällä hetkellä Grok-chatbotti, joka on joutunut julkisen tarkastelun kohteeksi erityisesti kuvankäsittelyyn liittyvien ongelmien vuoksi – esimerkiksi tapauksissa, joissa järjestelmä on riisunut ihmisiä kuvissa vastoin heidän suostumustaan. Tällaiset tapaukset ovat lisänneet painetta viranomaisille valvoa generatiivisen tekoälyn eettistä ja lakien mukaista käyttöä entistä tarkemmin.
CAISI on jo pysäyttänyt julkaisemattomia huippumalleja
CAISI kertoi tiistaina suorittaneensa jo 40 arviota ja testiä erilaisille tekoälytyökaluille. Näihin sisältyy myös niin sanottujen state-of-the-art -mallien arviointia – osa niistä on jäänyt julkaisematta yleisölle turvallisuushuolten vuoksi.
Keskus ei kuitenkaan täsmentänyt, mitkä mallit on päätetty pitää poissa julkisesta käytöstä. Tämä lisää keskustelua siitä, missä kulkee raja innovaatioiden edistämisen ja yhteiskunnan suojelemisen välillä, etenkin kun mallien kyvykkyydet kasvavat nopeasti ja niiden tarkkaa toimintaa on vaikea ennakoida.
Google, Microsoft ja xAI:ta hallinnoiva SpaceX eivät vastanneet tiedotusvälineiden pyyntöihin kommentoida uusia sopimuksia. Hiljaisuus korostaa sitä, että yritykset tasapainoilevat samanaikaisesti avoimuuden, kilpailuedun ja sääntelypaineiden välillä.
Politiikan suunnanmuutos: Trumpin hallinnon vapaista käsistä tiukempaan valvontaan
Laajennettu yhteistyö kauppaministeriön kanssa merkitsee selkeää muutosta Yhdysvaltain tekoälypolitiikassa. Trumpin hallinto suhtautui aiemmin tekoälyyn ja teknologiajätteihin pääosin vapaiden markkinoiden logiikalla ja vältti tiukkaa sääntelyä.
Viime vuonna presidentti Donald Trump allekirjoitti sarjan toimeenpanomääräyksiä, joista muodostettiin hänen hallintonsa niin kutsuttu AI Action Plan. Suunnitelman tavoitteena oli purkaa byrokratiaa ja vähentää tekoälyn kehitykseen liittyvää sääntelyä, jotta Yhdysvallat voisi hänen mukaansa ”voittaa” teknologisessa kilpailussa ja säilyttää johtoasemansa tekoälyn hallinnassa.
Nyt linja on kuitenkin tarkentumassa: kun Yhdysvaltain armeija ja puolustusvoimat laajentavat tekoälyn käyttöä, kasvavat myös huoli tekoälyn sotilaallisesta eskalaatiopotentiaalista, autonomisten asejärjestelmien eettisyydestä ja siitä, miten virheelliset tai manipuloidut mallit voisivat vaikuttaa turvallisuuteen.
Liian vaarallinen julkaistavaksi? Anthropic ja Mythos-malli
Keskustelua on kiihdyttänyt myös Anthropicin ilmoitus kehittämästään Mythos-nimisestä mallista, jonka yhtiö on arvioinut toistaiseksi liian voimakkaaksi julkiseen käyttöön. Mythos nostaa esiin kysymyksen siitä, milloin tekoälymalli on niin kyvykäs, että sen avoin julkaisu voi lisätä kyberhyökkäysten, bioturvariskien tai massavaikuttamisen todennäköisyyttä.
Valkoinen talo näyttää ottaneen varoitukset vakavasti. Trumpin hallinnon avainhenkilöt tapasivat hiljattain Anthropicin toimitusjohtajan Dario Amodein, kuten BBC aiemmin raportoi. Samalla Anthropic käy oikeustaistelua Yhdysvaltain puolustusministeriötä vastaan, koska yhtiö on kieltäytynyt poistamasta turvallisuusrajoitteita hallituksen käyttöön tarkoitetuista malleistaan.
Kiista korostaa perustavanlaatuista ristiriitaa: hallitukset haluavat yhä tehokkaampia työkaluja esimerkiksi tiedusteluun ja kyberpuolustukseen, kun taas osa tutkijoista ja yrityksistä pitää tiukkoja turvamekanismeja välttämättöminä ihmisoikeuksien, demokratian ja globaalin vakauden turvaamiseksi.
Tekoäly, turvallisuus ja auto-urheilun tulevaisuus
Tekoälyn turvallisuus ei ole ajankohtainen vain valtionhallinnossa ja teknologiayrityksissä, vaan myös huippu-urheilussa. Esimerkiksi Formula 1:ssä tekoälyä ja kehittyneitä simulaatioita hyödynnetään yhä enemmän auton kehityksessä, strategisessa päätöksenteossa ja kuljettajien suoritusten analysoinnissa. Laajempi ymmärrys tekoälyn riskeistä ja sääntelystä auttaa hahmottamaan myös, miten teknologia voi muuttaa moottoriurheilun voimasuhteita ja turvallisuutta tulevina vuosina.
Jos haluat syventyä tarkemmin siihen, miten data, analytiikka ja uudet teknologiat muokkaavat F1-sarjaa ja sen kuljettajia, voit lukea analyysin aiheesta Kimi Antonellin nousu, George Russellin haasteet ja F1:n moottorikiista – syväanalyysi kaudesta 2026.
Ei sisällä instagram post:eja
