Yhdysvaltalainen tekoälyyritys Anthropic hakee asiantuntijaa estämään ohjelmistojensa väärinkäyttöä kemiallisten ja radioaktiivisten aseiden valmistuksessa. Yritys pelkää, että sen tekoälytyökalut voisivat antaa ohjeita tällaisten aseiden tekemiseen, ja haluaa varmistaa, että sen turvatoimet ovat riittävän vahvoja.
Asiantuntijan rooli ja vaatimukset
Anthropic etsii henkilöä, jolla on vähintään viiden vuoden kokemus kemiallisten aseiden ja/tai räjähteiden puolustuksesta sekä tietämystä radioaktiivisista hajautuslaitteista, eli niin sanotuista likaisista pommeista. Yrityksen LinkedIn-rekrytointi-ilmoituksessa korostetaan, että tämä asiantuntija varmistaisi tekoälytyökalujen turvallisuuden ja estäisi niiden väärinkäytön.
Vastaavanlaista asiantuntijaa etsii myös toinen merkittävä tekoälytoimija, OpenAI, joka on tunnettu ChatGPT-kehittäjänä. OpenAI on ilmoittanut avoimesta työpaikasta tutkijalle, joka keskittyisi biologisiin ja kemiallisiin riskeihin. Tässä tehtävässä palkka voi olla jopa 455 000 dollaria, mikä on lähes kaksinkertainen verrattuna Anthropicin tarjoamaan palkkaan.
Huolia tekoälyn käytöstä
Vaikka tekoälyalan yritykset varoittavat jatkuvasti teknologiansa mahdollisista eksistentiaalisista uhista, niiden kehitystä ei ole hidastettu. Jotkut asiantuntijat ovat huolissaan siitä, että tekoälyn käyttö tällaisissa herkissä kysymyksissä saattaa antaa välineille tietoa aseista, vaikka niitä olisi ohjeistettu olemaan käyttämättä sitä.
Teknologiatutkija ja BBC:n AI Decoded -ohjelman juontaja, Dr. Stephanie Hare, on kyseenalaistanut, onko koskaan turvallista käyttää tekoälyjärjestelmiä käsittelemään herkkiä kemikaaleja ja räjähteitä koskevaa tietoa. Hän painottaa, että tällaiselle työlle ei ole kansainvälistä sopimusta tai sääntelyä, ja kaikki tapahtuu kulissien takana.
Anthropic ja Yhdysvaltain hallitus
Anthropic on ollut julkisessa kiistassa Yhdysvaltain hallituksen kanssa, joka on luokitellut yrityksen toimitusketjuriskiksi. Tämä tapahtui sen jälkeen, kun Anthropic vaati, että sen järjestelmiä ei saa käyttää täysin autonomisissa aseissa tai amerikkalaisten massavalvonnassa. Yrityksen perustaja Dario Amodei on kirjoittanut, ettei teknologia ole vielä tarpeeksi kehittynyttä näihin tarkoituksiin.
Yhdysvaltain hallitus on kuitenkin todennut, että maan armeijaa ei hallinnoida teknologiayritysten toimesta. Tämä riskiluokitus asettaa Anthropicin samaan asemaan kuin kiinalainen telekommunikaatioyritys Huawei, joka on mustalla listalla eri kansallisiin turvallisuushuoliin liittyen.
Miksi tämä on tärkeää
Tekoälyn kehitys ja sen mahdolliset väärinkäytöt ovat merkittävä huolenaihe kansainvälisesti. Teknologian edetessä on välttämätöntä varmistaa, että sen käyttö on turvallista ja eettistä. Yritysten, kuten Anthropicin, pyrkimykset palkata asiantuntijoita estämään väärinkäyttö osoittavat, kuinka vakavasti ne suhtautuvat näihin riskeihin. Tämä on tärkeää, jotta voidaan suojella yhteiskuntaa ja estää teknologian joutuminen vääriin käsiin.