Paikallisuutiset
Arvaisitko sinä heti, että tässä ei puhu todellinen ihminen? Uskoisitko näitä valokuvia?
Jos näkisit yllä olevan kuvan, jossa rakennus näyttää olevan tulessa, kuinka reagoisit? Jakaisitko kuvan eteenpäin vai lähtisitkö selvittämään, onko kuva aito? Tässä jutussa näytämme esimerkkejä tekoälyllä käsitellyistä kuvista ja äänestä. Journalismiin tällaiset manipuloidut sisällöt eivät kuulu.
Kuuntele alta klikkaamalla kaksi lyhyttä ääniklippiä, joissa kuuluu tämän jutun kirjoittajan ääni:
Huomaatko jotain erikoista? Alemmalla ääniklipillä kuuluu todellista puhettani. Sen sijaan ylemmässä klipissä en puhu itse mitään, vaan tekstiä lukee minun ääneni pohjalta muodostettu tekoälyääni.
Nykyään on mahdollista luoda suhteellisen realistisia kopioita todellisten henkilöiden äänistä. Nauhoitin ensin omaa puhettani noin puolen tunnin ajan ja syötin sen sitten Elevenlabs-nettipalveluun, joka lupaa "ammattimaista äänen kloonausta" hieman yli kympin kuukausihintaan. Vastaavia palveluita on lukuisia.
Tekoäly muodosti näytteen perusteella kopion äänestäni. Kun ohjelmaan kirjoittaa tekstiä, se puhuu kirjoitetun tekstin halutulla äänellä.
Tekaistua ääntä ja videota käytetään paljon hupailumielessä. Sosiaalisessa mediassa leviävät videot, joissa Urho Kekkonen muka haastattelee Irwin Goodmania tai Sauli Niinistö pelaa Alexander Stubbin kanssa Minecraft-tietokonepeliä.
Kyse on syväväärennösteknologiasta, joka yleisemmin tunnetaan englanninkielisellä sanalla deepfake. Sitä voidaan käyttää myös ihmisten huijaamiseen. Tarkoituksena voi olla rikoshyödyn saaminen esimerkiksi pyytämällä rahaa. Viime vuonna liikenne- ja viestintävirasto Traficomin tietoon tuli yksi huijauspyrkimys, jossa hyödynnettiin väärennettyä ääntä.
– Kyseessä oli niin sanottu toimitusjohtajahuijaus, jossa jonkin yrityksen johtajan nimissä pyritään tehtailemaan laskutuspetoksia. Toimitusjohtajan ääntä oli saatu jostakin nauhalle sen verran, että sen tekoälykopiolla saatiin tehtyä ääniviestille nauhoitettu laskutuspyyntö, kertoo tietoturva-asiantuntija Niclas Koskinen.
Koskisen tietoon ei ole tullut tapauksia, joissa vastaavia äänihuijauksia olisi lähetetty esimerkiksi yksityishenkilön perheenjäsenille.
– Kyllä sekin on mahdollista, että tällaisia voitaisiin kohdistaa yksityishenkilöihin. Se kuitenkin vaatii huijarilta aika paljon tutkimusta löytää sopiva taho ja hänen lähipiirinsä, jolle huijausta lähdetään suoltamaan.
Esimerkiksi Whatsappissa leviää huijausviestejä, jotka tunnetaan ”hei äiti” -huijauksina. Niissä esiinnytään perheen lapsena, joka kertoo rikkoneensa kännykkänsä ja tarvitsevansa rahaa uuden ostamiseen.
– Mikäli oikean lapsen ääntä ei ole mahdollisesti saatu mistään nauhalle, voidaan käyttää jotain yleisluontoista lapsiääntä, Koskinen sanoo.
Mitäpä jos joku vaikkapa lähettäisi sukulaiselleni alla olevan tapaisen ääniviestin ja perään tekstiviestinä tilinumeron?
Todellisuudessa en ole koskaan sanonut ääneen tällaista. Ääniviesti ei kuitenkaan ole kovin uskottava, koska siinä ei ole mukana aiheeseen sopivaa tunteiden ilmaisua.
– Ainakin toistaiseksi tekoälyäänitteisiin on vaikeaa sisällyttää erilaisia äänensävyjä ja tunnetiloja. Toisinaan deepfaken voi tunnistaa erityisen latteasta puhetavasta. Suomi on sen verran pieni kielialue, että tekoälyllä voi olla myös vaikeuksia joidenkin sanojen lausumisessa.
Rikoshyödyn lisäksi tavoitteena voi olla saattaa henkilö huonoon valoon laittamalla hänet sanomaan mielipiteitä, joita hän ei todellisuudessa koskaan sanoisi. Esimerkiksi poliitikon ääni saadaan melko aidon oloisesti käyttöön, mikäli netistä löytyy tallenteita hänen puheistaan.
Yksityishenkilön ääni saatetaan napata lyhyestäkin somevideosta tai puhelusta, mutta usein huijauksen lopputulos jää sitä epäaidommaksi, mitä vähemmän pohjamateriaalia on käytössä.
Näin tunnistat valesisällöt
Teksti: Takavuosina sähköpostiin kilahtavat huijauskirjeet tunnisti helposti huonosta kieliopista ja englannin ja suomen sekoittamisesta. Tekstiä tuottava tekoäly on helpottanut huijausviestien tehtailua. Huomiota kannattaakin kiinnittää aiempaa pienempiin vivahteisiin. Viime aikoina poliisi on esimerkiksi varoittanut huijaussähköposteista, jotka on lähetetty poliisin nimissä. Viestien allekirjoituksena on ollut "Kansallinen poliisi", mutta tällaista nimitystä ei Suomessa poliisista ole tapana käyttää. Onko Postin tai Kelan nimissä tulleen sähköpostin lähettäjä omituinen osoite kuten h3d8af8sale8casinos@outlook.com?
Kuva: Kuvia voidaan väärentää joko muokkaamalla todellista valokuvaa tai luomalla kuva kokonaan tyhjästä tekoälyllä. Tekoälykuvissa on usein erikoinen valaistus. Kuvat ovat helposti mainosmaisia: ihmiset näyttävät epäilyttävän täydellisiltä ja iho on vahamainen. Toisaalta ihmiset voivat näyttää vinksahtaneilta ja heillä voi olla esimerkiksi väärä määrä sormia. Tarkenna esimerkiksi katukuvassa näkyvien kylttien teksteihin, ovatko ne todellista tekstiä vai sotkua?
Muokatuissa valokuvissa kannattaa kiinnittää huomiota siihen, sopivatko valot ja varjot yhteen vai onko kuvassa esimerkiksi esine, jolla ei ole varjoa lainkaan. Myös suttuiset kohdat muuten hyvälaatuisessa valokuvassa herättävät epäilyksiä.
Ääni: Ääniväärennöksessä ihmisen puheen rytmi voi poiketa normaalista tai hän voi käyttää itselleen epätavallisia ilmauksia. Mikäli epäilet, että sinuun on otettu yhteyttä väärennetyllä äänellä, kannattaa kysyä jotain sellaista, jonka vain todellinen henkilö tietäisi.
Video: Kun valevideolla esiintyvä henkilö puhuu, hänen sanansa ja huulenliikkeensä eivät välttämättä sovi yhteen. Henkilö voi näyttää ”häilyvältä”, hänen kasvonpiirteensä tai ääriviivansa voivat olla sumeat. Henkilö voi liikkua luonnottomasti tai hänen ilmeensä voi olla ristiriidassa puheen sävyn kanssa.
Lähde: Traficom.fi
Netissä liikkuu myös paljon manipuloitua kuvasisältöä. Alla on kaksi esimerkkikuvaa, joita on muokattu kuvankäsittelyohjelma Adobe Photoshopilla. Photoshopista ja monista muista kuvankäsittelyohjelmista löytyy nykyään mahdollisuus antaa tekoälylle sanallinen ohje. Tämän pyynnön pohjalta tekoäly voi esimerkiksi lisätä kuviin asioita, joita ei oikeasti ole olemassa.
Kuvanmuokkauksen uskottavuuteen vaikuttavat muun muassa käytetty työkalu ja tekoälylle annettujen ohjeiden tarkkuus. Tarkastelemalla kuvia huolellisesti niistä voi löytää merkkejä tekoälyn käytöstä. Esimerkkikuvassamme kaupungintalon katolla on omituisia mutkaisia viivoja, ja rakennuksen korkein osa on kadonnut kuvasta kokonaan. Torikadulla näkyvät jalankulkijat ovat tarkemmin katsottuna vain tummia ja oudon muotoisia siluetteja vailla yksityiskohtia.
Journalismissa kuvaa tai ääntä ei saa koskaan käyttää harhaanjohtavasti. Luoteis-Lapin toimitus ei normaalisti muokkaa kuvia tai ääntä tekoälyn avulla. Tämän jutun manipuloidut sisällöt on luotu vain tätä juttua varten havainnollistamaan, millaisia valesisällöt voivat olla.
Journalismissa yleisesti hyväksyttynä pidetään sellaista lievää kuvankäsittelyä, jolla kuva saadaan paremmin vastaamaan sitä, miltä tilanne tosielämässä näytti. Jos valoisassa huoneessa otettu valokuva näyttää hieman liian hämärältä, kuvasta voi jälkikäteen säätää valoisamman.
Sen sijaan kuvista ei ole sallittua esimerkiksi poistaa taustalla näkyviä ihmisiä, koska silloin kuvan sisältö muuttuisi. Mikäli valokuvasta poikkeuksellisesti joudutaan esimerkiksi sumentamaan auton rekisterinumero yksityisyydensuojan vuoksi, tällaisesta muokkauksesta on aina kerrottava lukijoille.
Huijauksiin pätee yleisesti se, että jos jokin kuulostaa liian hyvältä ollakseen totta, niin luultavasti se ei ole totta.
Tekoälyä ja muuta teknologiaa hyödyntämällä voidaan väärentää paitsi ääntä ja kuvia, myös kokonaisia videoita.
– On vaikeaa sanoa, kuka huijausten taustalla on. Yleensä niissä ollaan rahan perässä. Se voi olla järjestäytynyttä toimintaa tai sitten kyseessä saattaa olla yksittäinen huijari, joka yrittää hyötyä tekoälystä, Koskinen sanoo.
Tällaisia videoita voidaan esimerkiksi tehdä käsittelemällä tunnetun henkilön kasvot näyttelijän tekemän videon päälle tai yhdistämällä tekoälyn tekemä ääni todelliseen videoon tunnetusta henkilöstä.
– On nähty kryptovaluutta-aiheisia huijausvideoita, joissa joku korkeassa asemassa oleva poliitikko näyttää kertovan sijoitusmahdollisuudesta. Poliitikko voi myös videolla muka kertoa tienanneensa rahaa tällä sijoituksella.
Koskinen neuvoo, että tällaisten videoiden sisältöä kannattaa pysähtyä miettimään ennen toimimista. Kuten esimerkiksi tekstiviestihuijauksissa, myös deepfake-huijauksissa vedotaan usein kiireen tuntuun: rahat pitäisi lähettää tilille mahdollisimman pian.
– Huijauksiin pätee yleisesti se, että jos jokin kuulostaa liian hyvältä ollakseen totta, niin luultavasti se ei ole totta.
Väärennettyjen sisältöjen tunnistamista voi harjoitella katsomalla vaikkapa Youtubesta esimerkkejä.
– Kaikkien kannattaa perehtyä siihen, miltä tämänhetkiset deepfake-sisällöt näyttävät ja kuulostavat. Se voi auttaa silmää ja korvaa harjaantumaan tällaisten sisältöjen havaitsemiseen.
Huijausten tekemiseen ei edes tarvita tekoälyä tai kalliita tietokoneohjelmia. Aivan perinteiset kuvanmuokkaukset porskuttavat netissä edelleen. Alla oleva kuva vaikuttaa olevan kuvankaappaus Keskipohjanmaa-lehden mobiilisovelluksesta. Todellisuudessa juttujen otsikot on tehty parissa minuutissa Paint-kuvankäsittelytyökalulla. Vastaava ilmainen ohjelma löytyy lähes kaikkien tietokoneelta. Tällaisia valeuutisia levittämällä voidaan pyrkiä heikentämään ihmisten luottamusta journalistiseen mediaan.
Uskottavuuden lisäämiseksi huijarit usein yhdistelevät aitoja ja keksittyjä elementtejä. Alla olevassa kuvassa on käytetty pohjana todellista ruutukaappausta sovelluksesta, joten mukaan on saatu Keskipohjanmaan tuttu logo ja sovellusnäkymä.
Kuvankaappauksiin törmätessään kannattaa pysähtyä miettimään sisällön uskottavuutta. Esimerkkikuvassa feikkiuutiset ovat tarkoituksellisen lennokkaita, mutta huijauksen paljastaa myös se, että otsikkofontti näyttää erilaiselta kuin sovelluksessamme oikeasti.