Uutiset

Teknologiajätit avaavat tekoälymallinsa kansallisen turvallisuuden testeihin Yhdysvalloissa

Yhdysvalloissa suuret teknologiayritykset, kuten Google DeepMind, Microsoft ja xAI, ovat tehneet merkittävän päätöksen jakaa kehittyneimmät tekoälymallinsa kansallisen turvallisuuden testejä varten ennen niiden julkistamista. Tämä yhteistyö on osa pyrkimyksiä varmistaa, että tekoälyteknologiat ovat turvallisia ja luotettavia ennen niiden laajamittaista käyttöönottoa.

Yhteistyö CAISI:n kanssa

Yritykset ovat solmineet sopimukset Yhdysvaltain kauppaministeriön alaisen Center for AI Standards and Innovationin (CAISI) kanssa. Tämä organisaatio on hallituksen ensisijainen yhteyspiste tekoälyteollisuuteen ja se työskentelee yhdessä alan kanssa testauksen, yhteistyötutkimuksen ja parhaiden käytäntöjen kehittämisen parissa. CAISI on jo suorittanut yli 40 tekoälymallin ennakkoarviointia, mukaan lukien sellaisia malleja, joita ei ole vielä julkaistu.

Turvallisuushuolien taustalla

Viimeaikaiset raportit ovat nostaneet esiin huolenaiheita tekoälyn mahdollisista uhkista kyberturvallisuudelle. Yhdysvaltain valtiovarainministeri Scott Bessent kertoi, että hän ja keskuspankin johtaja Jerome Powell keskustelivat Wall Streetin johtajien kanssa Anthropic-yhtiön Mythos AI -mallin kyberuhkiin liittyvistä huolista. He kehottivat pankkeja suhtautumaan malliin vakavasti ja käyttämään sitä puolustuksen aukkojen löytämiseksi.

AI:n rooli kyberturvallisuusstrategioissa

Maailman talousfoorumin Global Cybersecurity Outlook 2026 -raportti osoittaa, että tekoäly on keskeinen tekijä, joka muokkaa kyberturvallisuusstrategioita tänä vuonna. Raportin mukaan 94 % kyselyyn vastanneista johtajista näkee teknologian voimakertoimena sekä puolustuksessa että hyökkäyksessä.

Miksi tämä on tärkeää

Tekoälyteknologioiden kehittyessä niiden vaikutus kansalliseen turvallisuuteen ja kyberturvallisuuteen kasvaa. Teknologiajättien ja hallituksen yhteistyö varmistaa, että nämä teknologiat testataan huolellisesti ennen niiden julkistamista, mikä auttaa minimoimaan riskit ja maksimoimaan turvallisuuden. Tämä on kriittistä, jotta voidaan vastata uusiin uhkiin ja hyödyntää tekoälyn tarjoamia mahdollisuuksia turvallisesti.