Tästä alkaa sukellus syvälle deepfaken ytimeen! Deepfake on sanana uusi tuttavuus, etenkin Suomessa. Deepfake on englantia ja suomeksi se kääntyy syväväärennös-sanaksi.
Deepfake tarkoittaa äänen, kuvan, videon tai muun digitaalisen sisällön keinotekoista luomista tai jo valmiin sisällön manipulointia. Sillä saadaan aikaan efekti, että joku tapahtuma tai henkilö/hahmo olisi käyttäytynyt tai näyttänyt erilaiselta kuin todellisuudessa eli väärennös tapahtumasta tai henkilöstä. (Berdardo)
Deepfake on pompannut viimeisen vuoden aikana esille enemmän kuin koskaan. Teknologia on kehittynyt ja nykyään saadaan luotua sekä niin huonolaatuista että vaikeasti todellisuudesta erotettavaa sisältöä.
Deepfake-sisältöä tehdään koneoppivan tekoälyn avulla. Sitä voidaan hyödyntää mm. kyberrikollisuudessa. Sitä ei käytetä välttämättä tietojenkalasteluun eikä sillä saa aikaan virusta järjestelmään, mutta deepfake-sisällöllä rikolliset pystyvät mm. luomaan vääriä mielikuvia ja aiheuttaa mainehaittaa kohteelle. (Kyberturvallisuuskeskus, 2024)
Esimerkkinä voisi olla suuri organisaatio, joka joutuu deepfake:n avulla tehdyn rikoksen uhriksi. Rikolliset tekevät organisaation johdosta deepfake-sisältöä, kuvia, joissa johtajat esiintyvät organisaation imagoa haittaavasti. Nämä kuvat leviävät ja päätyvät uutisiin. Tästä aiheutuu mainehaittaa organisaatiolle ennen kuin saadaan selville, että kuvat eivät ole aitoja.
Kuvien alkuperän selvittämiseen menee aikaa, jolloin maine on jo kärsinyt. Todennäköisesti maine ei ole tahriutunut lopullisesti, mutta tällainen ilkivalta ei ole hyväksi, ja se voi aiheuttaa paljon kuormitusta etenkin yksilölle, johon teko on kohdistunut.
Deepfakella voidaan siis tehdä lukuisia erilaisia rikollisia toimia. Deepfake-kuvat voivat helposti hämmentää ja harhauttaa, niillä voidaan tehdä asioista tai ihmisistä aivan erilaisia kuin ne todellisuudessa olisivat sekä niitä voidaan käyttää myös vaikuttamiskeinona.
Deepfakea voidaan hyödyntää myös poliittisesti, jolloin usein halutaan juuri käyttää näitä väärennettyjä materiaaleja vaikuttamiseen. Viime vuonna Slovakian vaalien alla, demokraattisessa valtiossa, Michael Šimečkasta tehtiin deepfake-äänivideo.
Siinä liberaalipoliitikko kertoi täysin päinvastoin omien arvojensa äänestävänsä äärioikeistolaista puoluetta. Video oli teknisesti loistava ja johtava varautumisasiantuntija Antti Sillanpää Huoltovarmuuskeskuksesta kertoo Yle.fi:n artikkelissa Lankaan menivät, että tavallisen ihmisen on mahdotonta luokitella kehittyneitä deepfake-materiaaleja. (yle.fi, 2023)
Mitä deepfake-sisällölle voi sitten tehdä? Euroopan unioni on rakentanut säädöksen, jonka avulla luodaan raamit sille, mikä on sallittua ja mikä ei tekoälyä käytettäessä. Lain tarkoituksena on asettaa selkeät rajat ja säännöt tekoälyn soveltamiselle eri tarkoituksissa. Jos on mahdollista, että tekoälyjärjestelmä aiheuttaa uhan ihmisille, sen käyttö ei ole sallittua tämän uuden lain mukaan.
Euroopan parlamentin sivuilla oli tästä uudesta lain säädöksestä kattava kokonaisuus “EU:n tekoälysäädös on ensimmäinen laatuaan”. Siellä kiellettyjen järjestelmien listalla on yksilöiden tai heikossa asemassa olevien ryhmien käytöksen manipulointi (kuten ääniaktivoituvat lelut, joilla kannustetaan lapsia vaaralliseen käytökseen), sosiaalinen pisteytys (ihmisten jakaminen ryhmiin erilaisin perustein) ja luonnollisten henkilöiden biometrinen tunnistaminen ja luokittelu sekä reaaliaikainen ja etäisyydeltä tapahtuva biometristen tunnistusjärjestelmien käyttö (kuten kasvojentunnistus). (Euroopan Parlamentti, 2024)
EU:n sääntelyn lisäksi Suomen rikoslaki kattaa monia syväväärennösten väärinkäytön muotoja hyvin. Luvattomasti tehdyt syväväärennökset esimerkiksi jostain henkilöstä voivat täyttää rikoksen tunnusmerkit. Kyseessä voi olla kunnianloukkaus, seksuaalirikos, identiteettivarkaus tai väärennös. (Maija Kunnas, 2022)
Deepfake-sisältöä voidaan hyödyntää myös petoksen tai kiristyksen välineenä. Väärän tiedon levittäminen tai ylempänä mainittu vaalivaikuttaminen syväväärennöksiä hyödyntäen ovat kuitenkin haasteellisempia tapauksia, koska Suomessa näihin ei voida puuttua rikoslain mukaan. Niihin täytyisi liittyä jotain muuta Suomen rikoslaissa tuomittavaa lisäksi, kuten kunnianloukkaus. (Maija Kunnas, 2022)
Suomessa deepfake-sisällöstä, jota käytetään vaaleissa harhauttamiseen, voisi saada juurikin kunnianloukkaussyytteen. (yle.fi, 2023)
Tämä on ensimmäinen osa deepfake-juttusarjaa. Seuraavissa osissa perehdytään miten deepfake-sisällön voi tunnistaa eri kanavissa tai sen vastaan tullessa, onko deepfake-sisällöllä jotain yhteisiä ominaispiirteitä ja miten voit suojautua tällaiselta sisällöltä.
Mitä nettiin kannattaa laittaa, mikä on oma digitaalinen jalanjälki ja miten ne liittyvät deepfakeen. Perehdytään myös millaista deepfake-sisältöä sosiaalisessa mediassa tulee vastaan ja miksi se on haitallista.
Jutun kuva on tehty Adoben Firefly -sovelluksella.
Jutun on kirjoittanut Iida Riihimäki, joka opiskelee kyberturvallisuusinsinööriksi Kaakkois-Suomen ammattikorkeakoulussa. Iida on harjoittelussa Kyberturvan tulevaisuus Kymenlaaksossa -hankkeessa, jossa sai idean alkaa työstä juttusarjaa deepfakesta.
Iida koki aiheen mielenkiintoiseksi ja tärkeäksi, jonka takia hän haluaa selvittää teille lukijoille miksi deepfake on juuri nyt niin ajankohtainen aihe.
European Data Protection Supervisor. Vitor Bernardo. Deepfake detection. [viitattu 13.4.2024]
Traficom. 2024. Kyberturvallisuuskeskuksen viikkokatsaus -03/2024. [viitattu 22.4.2024]
Yle. 2023. Helin, S. Lankaan menivät. [viitattu 25.5.2024]
Euroopan parlamentti. 2023. EU:n tekoälysäädös on ensimmäinen laatuaan. [viitattu 22.4.2024]
Kunnas, M. 2022. Rikosoikeudellinen vastuu deepfake-teknologian väärinkäytöstä. Pro Gradu. [viitattu 25.5.2024]
Pysy ajan tasalla – tilaa kyberturvan uutiskirje. Ei spämmiä!
Kyberasema Kymenlaakso kokoaa yhteen kymenlaaksolaisille yrityksille suunnatut, Xamkin tuottamat kyber- ja tietoturvapalvelut, sisällöt, koulutukset ja tapahtumat Kuten Kybertuska-päivä.
Ota yhteyttä: kyberkymi@xamk.fi