Mainos
Mainos

Tutkijat varoittavat tekoälyn heikkouksista: Rikollinen voi kaapata auton tai lennokin ja tehdä siitä "aseen"

Tekoälylaitteita on yhä enemmän arkiympäristössämme. Niitä suunnitellaan helpottamaan elämää, ja ne mullistavat työelämää ja työn käsitettä. Joukko tutkijoita varoittaa, että tekoäly myös houkuttelee rikollisia sen käyttöön.

Nyt kohistaan kuskittomasta autosta. Puhutaan sen matkustajaturvallisuudesta. Mutta mitä jos rikollinen – henkilö, järjestö tai vaikkapa valtio – sieppaa sen toiminnot ja ohjaa auton esimerkiksi törmäämään johonkin henkilöön tai muuhun kohteeseen? 

Tai vaikka lennokin, tai muun automaattisesti ja itsenäisesti liikkuvaksi suunnitellun tai toimivan esineen? Tai täysin itsenäisesti ja itsenäisiä päätöksiä tekevän aseen, joita jo on käytössä? Tai automatisoitu hakkeri-isku?

– Kaikki olemme yhtä mieltä siitä, että AI (artificial intelligence, tekoäly) mahdollistaa paljon myönteisiä sovelluksia. Tähän mennessä on ollut puutetta sen pahantahtoiseen käyttöön liittyvää tutkimusta, toteaa tutkija Miles Brundage Oxfordin yliopiston Ihmiskunnan tulevaisuuden instituutista uutistoimisto Reutersille. 

Iskuja laajasti, täsmällisesti, tehokkaasti

Huoli nousi esiin tuoreessa Oxfordin, Cambridgen ja Yalen yliopistojen tutkijoiden, sekä sotilas- ja kansalaisten yksityisyyttä tutkivien asiantuntijoiden raportissa.   

AI-iskuja voidaan tehdä laajalla rintamalla, täsmällisesti, tuloksiltaan tehokkaasti ja myös taloudellisesti suhteellisen edullisesti, raportti arvioi.

Tutkijat kaipaavatkin teknologian sääntelyä niin kutsutussa kaksoiskäytössä, eli kun sitä voidaan hyödyntää sekä siviili- että sotilaskäytössä.


Mitä tutkimustietoa kannattaa julkaista?

Raportti myös kehottaa tutkijayhteisöjä miettimään, kannattaako kaikkea tutkimustietoa julkaista, ennen kuin sen mahdolliset vaarat ja väärinkäyttömahdollisuudet on tiedossa. 

Kyse ei ole futuristisesta näkymästä. Raportti puhuu AI:n käytön tarkoituksellisesta väärinkäytöstä jopa välittömänä uhkana niin fyysiselle, poliittiselle kuin digitaaliselle turvallisuudelle. 

"Syvävale"videoita jo olemassa

Jo nyt on esimerkiksi mahdollista luoda vääristeltyä ääntä ja kuvaa hyvin uskottavasti. Konkreettinen esimerkki on jo olemassa. Reuters mainitsee viime vuonna ilmestyneitä "deepfake"- eli "syvävale"pornovideoita, joissa julkkisten kasvot oli liitetty täysin uskottavasti toisiin vartaloihin. 

– Nyt se tapahtui pornossa eikä propagandassa, mutta mikään "syvävaleessa" ei estä käyttämästä sitä propagandassa, pohtii Jack Clark, joka toimii voittoa tavoittelemattomassa, tekoälyn hyödyllisiä puolia tutkivassa OpenAI-yrityksessä. OpenAI:n perustivat liikemies Elon Musk ja sijoittaja Sam Altman.

Tällaisen teknologian käyttö esimerkiksi valtioiden propagandassa on todellinen uhka, tutkijat varoittavat. 


Kommentoi

Mainos

Käytämme palveluissamme evästeitä parantaaksemme palveluiden käyttökokemusta. Jatkamalla palvelun käyttöä hyväksyt evästeiden käytön. Tutustu päivitettyyn tietosuojakäytäntöömme