Deepfake-sisältö eli koneoppivalla tekoälyllä luotu kuva, video, ääni tai muu sisältö ei ole itsessään laitonta. Eikä aina myöskään pahasta. Mutta tällä kertaa pureudutaan deepfake-sisällön haitallisuuteen ja väärennöksien vaarallisuuteen.
Sosiaalisessa mediassa on lukematon määrä erilaista sisältöä. Mukaan mahtuu siis myös väärennettyä sisältöä. Deepfake-sisältö eri sosiaalisen median kanavissa on nykyään arkipäivää, ja sosiaalinen media on helppo väylä jakaa väärennettyä sisältöä.
Väärennettyä sisältöä tulee terrori-iskuista kissavideoihin. Välillä, joku väärennös alkaa levitä hallitsemattomasti sosiaalisessa mediassa. Mediassa trendaa milloin mitäkin, mutta erityisesti kohua aiheuttava sisältö saa suuren katsojakunnan. Ihmiset uudelleen jakavat sisältöä ja lopulta trendauksen kohteeksi joutunut mediasisältö on kaikkien silmillä. Mitä jos tämä sisältö onkin sellaista mitä ei haluaisi kenenkään ulkopuolisen silmille?
Deepfake on jo nykyhetken ongelma, mutta se kasvaa kovaa vauhtia vakavaksi ongelmaksi tulevaisuudessa.
Niin aikuiset kuin lapsetkin kohtaavat jo ongelmia tekoälyn ja deepfake-sisällön kanssa, ja haasteet kasvavat kovaa vauhtia. Sosiaalisessa mediassa ja muualla internetissä on niin paljon sisältöä, että tarkkuus sumenee. Aikuinenkaan ei enää tunnista onko sisältö aitoa vai ei. (hs.fi, 2024)
Kaikesta deepfake-sisällöstä suurin osa on pornografista sisältöä. Tilastollisesti määrä on yli 90 % internetissä olevasta deepfake-sisällöstä. (hs.fi, 2023) Tämä on erittäin huolestuttavaa.
Joka päivä sosiaalisen median alustoille tulee miljoonia julkaisuja, joiden joukossa myös pornografisesta sisältöä. Vaikka sosiaalisen median alustoilla on käytössä sensurointia, aina osa sisällöstä pääsee sen läpi. Tästä osa voi olla tekoälyllä tuotettua deepfake-sisältöä.
Miten deepfake-sisältöä sitten tehdään? Internetissä on ladattavissa lukuisia sovelluksia, joilla voidaan tehdä helposti valitun henkilön kuvasta pornografista sisältöä. Tällaisilla sovelluksilla usein kasvot upotetaan kuvassa tai videossa olevaan valmiiseen ihmisen kehoon. (hs.fi, 2023) Kuka tahansa voi siis tehdä kenestä tahansa tällaista sisältöä. Uhrin kuvan saattaa löytää jo sosiaalisen median profiilikuvasta eikä mitään kuvien vuotamista väärentäjille tarvita. (hs, 2023)
Tämä on erittäin uhkaava ongelma nykypäivänä. Tällaisen kohteeksi joutuminen on uhrille nöyryyttävää ja erittäin raskasta henkisesti. Pornografista deepfake-materiaalia saatetaan tehdä kiusaamis- tai kiristysmielessä tai jos halutaan aiheuttaa henkilölle mainehaittaa. (Mika Pirttisalo, 2022)
Julkisuuden henkilöistä pornografista deepfake-sisältöä on erityisen helppo tehdä. Internetistä löytyy paljon valmiita kuvia ja videoita julkisuuden henkilöistä, ja näitä muokkaamalla saa tehtyä haitallista sisältöä.
Yksi tunnettu tapaus sattui alkuvuodesta 2024, kun laulajasta Taylor Swift tehtiin tekoälykuva, joka oli pornografista materiaalia sisältävä. Kuvaa jaettiin sosiaalisen median sovelluksessa X. Ennen kuin kuva saatiin poistettua sovelluksesta, se oli jo ehtinyt tavoittaa 45 miljoonaa katsojaa. (The Verge, 2024)
Vaikka kuva poistettiin kukaan ei tiedä kuinka monen ihmisen yksityisessä käytössä se tällä hetkellä on. Deepfake-sisältö, joka on pornografista materiaalia, voidaan tulkita yhdeksi uudeksi seksuaalisen väkivallan muodoksi. (Mika Pirttisalo, 2022)
Deepfake-sisällön luomiseen käytettävät menetelmät paranevat koko ajan ja sisällön tunnistaminen vaikeutuu. Onneksi myös tekniikoita, joilla voidaan tunnistaa deepfake-sisältöä, kehitetään lisää jatkuvasti. (Kyberturvallisuuskeskus, 2024)
Mutta myös tavallinen kansalainen voi tarkastella kohtaamaansa sisältöä mediassa kriittisesti. On monia keinoja, joilla pystytään arvioimaan deepfake-sisältöä ja toteamaan ne väärennetyksi. Tämä on tärkeä taito, koska tulevaisuudessa väärennetyn sisällön määrä tulee räjähtämään.
Vinkit mukaillen: Olli Pösö, 2024
Tämä on toinen osa kolmiosaista deepfake-juttusarjaa. Stay tuned 😄
Jutun kuva on tehty Adoben Firefly -sovelluksella.
Jutun on kirjoittanut Iida Riihimäki, joka opiskelee kyberturvallisuusinsinööriksi Kaakkois-Suomen ammattikorkeakoulussa. Iida on harjoittelussa Kyberturvan tulevaisuus Kymenlaaksossa -hankkeessa, jossa sai idean alkaa työstä juttusarjaa deepfakesta.
Iida koki aiheen mielenkiintoiseksi ja tärkeäksi, jonka takia hän haluaa selvittää teille lukijoille miksi deepfake on juuri nyt niin ajankohtainen aihe.
Helsingin Sanomat. 2024. Tekoälyn generoima väärä tieto on maailman suurimpia uhkia. [viitattu 22.8.2024]
Helsingin Sanomat. Mykkänen, P. 2023. Tekoälyn avulla väärennetty näköisporno yritetään saada kuriin. [viitattu 22.8.2024]
Helsingin Sanomat. Laine, O. 2023. Tekoäly ”riisuu tyttöjä ilmaiseksi” mutta kyseessä voi olla rikos – Väärennettyjä alastonkuvia levitetään asiantuntijan mukaan myös Suomessa. [viitattu 22.8.2024]
The Verge. Waetherbed, J. 2024. https://www.theverge.com/2024/1/25/24050334/x-twitter-taylor-swift-ai-fake-images-trending [viitattu 22.8.2024]
Pirttisalo, M. 2022. Syväväärennetyn pornografian sosiaalinen kontrolli: hallinnolliset sanktiot ja muuttuvat rangaistukset uhrin näkökulmasta. Pro Gradu. [viitattu 22.8.2024]
Traficom. 2024. Kun jokainen päivä voi olla aprillipäivä – Mistä deepfakeissa on kysymys? [viitattu 22.8.2024]
Pösö, O. 2024. Deepfake-kuvien ja -videoiden tunnistaminen. Opinnäytetyö. [viitattu 22.8.2024]
Pysy ajan tasalla – tilaa kyberturvan uutiskirje. Ei spämmiä!
Kyberasema Kymenlaakso kokoaa yhteen kymenlaaksolaisille yrityksille suunnatut, Xamkin tuottamat kyber- ja tietoturvapalvelut, sisällöt, koulutukset ja tapahtumat Kuten Kybertuska-päivä.
Ota yhteyttä: kyberkymi@xamk.fi