Kategoriat

Iso-Britannia kieltää deepfake-nudifikaatiosovellukset suojellakseen naisia ja lapsia verkossa

Iso-Britannia kieltää tekoälyyn perustuvat nudifikaatiosovellukset osana strategiaa puolittaa naisiin ja tyttöihin kohdistuva väkivalta. Uusi laki laajentaa deepfake- ja intiimikuvien väärinkäytön kriminalisointia ja tähtää erityisesti lasten seksuaalisen hyväksikäyttömateriaalin torjuntaan.
Facebook
Twitter
LinkedIn

Iso-Britannia kieltää deepfake-nudifikaatiosovellukset suojellakseen naisia ja lapsia verkossa

Iso-Britannian hallitus aikoo kieltää niin sanotut tekoälyyn perustuvat nudifikaatio- eli ”de-clothing”-sovellukset osana laajempaa strategiaa, jonka tavoitteena on puolittaa naisiin ja tyttöihin kohdistuva väkivalta. Uusi lainsäädäntö tekee laittomaksi sellaisten tekoälytyökalujen luomisen ja levittämisen, joilla voidaan muokata kuvia näyttämään siltä, että henkilön vaatteet on poistettu.

Uusi rikosnimike täydentää deepfake- ja intiimikuvien suojelua

Hallitus kertoo, että uudet rikosnimikkeet rakentuvat jo voimassa olevan sääntelyn päälle, jossa seksuaalisesti eksplisiittiset deepfake-kuvat ja intiimikuvien väärinkäyttö on kielletty. Online Safety Act -laki tekee jo nyt rangaistavaksi sellaisten deepfake-alastonkuvien luomisen, joissa henkilön kehoa muokataan ilman tämän nimenomaista suostumusta.

Tietotekniikkaministeri Liz Kendall korosti, että naisten ja tyttöjen suojelu ei voi rajoittua vain fyysiseen maailmaan:

”Naiset ja tytöt ansaitsevat olla turvassa verkossa yhtä lailla kuin sen ulkopuolella. Emme aio seurata sivusta, kun teknologiaa käytetään aseena heidän nöyryyttämisekseen, hyväksikäyttämisekseen ja vahingoittamisekseen ei-toivottujen seksuaalisten deepfake-kuvien avulla.”

Kendallin mukaan uusi rikosnimike, joka kieltää nudifikaatiosovellusten luomisen ja jakelun, varmistaa, että sekä sovellusten kehittäjät että niiden jakelusta hyötyvät tahot voivat joutua täyden lainvoiman eteen.

Miten nudifikaatiosovellukset toimivat ja miksi ne ovat vaarallisia?

Nudifikaatio- tai ”de-clothing”-sovellukset hyödyntävät generatiivista tekoälyä luodakseen erittäin realistisia kuvia ja videoita, joissa näyttää siltä, että kohdehenkilö on riisuttu alastomaksi. Usein nämä kuvat leviävät sosiaalisessa mediassa tai viestisovelluksissa ilman uhrin tietoa tai suostumusta.

Asiantuntijat ovat varoittaneet, että tällaiset sovellukset voivat aiheuttaa vakavaa psyykkistä, sosiaalista ja ammatillista vahinkoa uhreille. Erityisen huolestuttavana pidetään sitä, että teknologiaa käytetään myös lapsiin kohdistuvan seksuaalisen hyväksikäyttömateriaalin (CSAM) luomiseen ja levittämiseen.

Iso-Britannian lastenasiamies Dame Rachel de Souza vaati jo huhtikuussa täydellistä nudifikaatiosovellusten kieltoa. Hänen mukaansa ei riitä, että vain valmiiden kuvien tekeminen on laitonta, vaan myös teknologia, joka mahdollistaa tällaisen kuvamateriaalin synnyn, on kiellettävä.

Tiiviimpi yhteistyö teknologiayritysten kanssa

Hallitus ilmoitti aikovansa ”liittoutua teknologiayritysten kanssa” kehittääkseen uusia tapoja torjua intiimikuvien väärinkäyttöä ja deepfake-haittoja. Yksi keskeinen kumppani on brittiläinen turvallisuusteknologiayritys SafeToNet.

SafeToNet on kehittänyt tekoälypohjaisen ohjelmiston, jonka kerrotaan pystyvän tunnistamaan ja estämään seksuaalissävytteisen sisällön sekä jopa estämään laitteen kameran käytön, jos se havaitsee, että seksuaalista sisältöä ollaan kuvaamassa. Tällainen teknologia täydentää esimerkiksi Metan kaltaisten alustojen käyttämiä suodattimia, jotka pyrkivät tunnistamaan ja merkitsemään alastonkuvia sekä estämään erityisesti lasten itsestään ottamien intiimikuvien jakamista.

Suunnitelma nudifikaatiosovellusten kieltämisestä seuraa vuosien mittaisia vaatimuksia lapsia suojelevilta järjestöiltä, jotka ovat peräänkuuluttaneet tiukempaa sääntelyä uusille tekoälysovelluksille.

Lastensuojelujärjestöt tukevat lakimuutosta – mutta vaativat lisää

Internet Watch Foundationin (IWF) ylläpitämä Report Remove -palvelu auttaa alle 18-vuotiaita poistattamaan itsestään verkossa leviäviä seksuaalisia tai paljastavia kuvia. IWF:n mukaan 19 prosenttia vahvistetuista ilmoittajista kertoi, että osa tai kaikki heistä verkossa olleet kuvat oli manipuloitu, esimerkiksi nudifikaatio- tai deepfake-työkaluilla.

IWF:n toimitusjohtaja Kerry Smith toivotti uudet toimet tervetulleiksi ja korosti, ettei nudifikaatiosovelluksilla ole ”mitään oikeutettua syytä olla olemassa tuotteena”. Hänen mukaansa sovellukset lisäävät todellisten lasten riskiä joutua hyväksikäytön kohteeksi, ja niiden tuottamaa materiaalia päätyy ”internetin synkimpiin nurkkiin”.

Myös lasten hyväksi toimiva NSPCC-järjestö suhtautui lainsäädäntöön myönteisesti, mutta sen strategiajohtaja tohtori Maria Neophytou kertoi olevansa pettynyt siihen, ettei hallitus näyttänyt yhtä suurta kunnianhimoa pakollisten laite- ja käyttöjärjestelmätason suojatoimien käyttöönotossa.

Useat järjestöt vaativat, että hallitus velvoittaisi teknologiayhtiöt kehittämään entistä tehokkaampia tapoja tunnistaa ja estää lasten seksuaalista hyväksikäyttömateriaalia palveluissaan – myös yksityisissä viesteissä, joissa valvonta on tällä hetkellä erityisen haastavaa.

Tavoitteena estää lasten pääsy alastonkuviin laitteillaan

Hallitus ilmoitti aikovansa tehdä käytännössä ”mahdottomaksi” sen, että lapset voisivat ottaa, jakaa tai katsoa alastonkuvia omilla puhelimillaan. Yksi keskeinen osa tätä on tekoälyn ja muiden turvateknologioiden kehittäminen siten, että laitteet tunnistavat ja estävät riskialttiin sisällön automaattisesti.

Samaan aikaan hallitus valmistelee myös sääntelyä, jolla kielletään tekoälytyökalut, jotka on suunniteltu nimenomaisesti CSAM-materiaalin luomiseen tai levittämiseen. Tämä voi tarkoittaa sekä rikosoikeudellisia seuraamuksia työkalujen kehittäjille ja levittäjille että tiukempia velvoitteita alustoille, jotka sallivat tällaisten työkalujen jakamisen.

Tekoälyn eettinen käyttö ja urheilumaailman deepfake-keskustelu

Keskustelu tekoälyn väärinkäytöstä ei rajoitu vain sosiaaliseen mediaan ja yksityiselämään. Myös urheilussa on nähty, kuinka teknologia – oli kyse sitten tekoälystä tai tuomarointijärjestelmistä – voi herättää kiivasta keskustelua oikeudenmukaisuudesta ja luottamuksesta. Esimerkiksi kriketissä Alex Careyn kiistanalainen pelastus ja ensimmäinen Ashes-sata sekä Snicko-teknologian ympärillä käyty väittely ovat nostaneet esiin, miten tärkeää on, että teknologiaa käytetään läpinäkyvästi ja eettisesti – aivan kuten deepfake-teknologian kohdalla vaaditaan tarkkaa sääntelyä ja valvontaa.

Vaikka urheilun tuomarointijärjestelmät ja nudifikaatiosovellukset ovat teknologioina hyvin erilaisia, niitä yhdistää yksi kysymys: voidaanko ihmisten luottamus säilyttää, kun päätöksiä ja kuvia tuotetaan yhä useammin koneiden avulla? Iso-Britannian uusi lainsäädäntö pyrkii vastaamaan tähän huoleen ainakin siltä osin, kun kyse on yksityisyydestä, suostumuksesta ja seksuaalisesta turvallisuudesta.

Ei sisällä instagram post:eja

Jaa Somessa:

Vastaa

Sähköpostiosoitettasi ei julkaista. Pakolliset kentät on merkitty *

Sinulle Suositeltua:

autouutiset
Digitaalinen turvallisuus
autouutiset
Digitaalinen talous
Autourheilu
Digitaalinen talous
Dokumentit
Oikeus ja lainsäädäntö
Digitaalinen talous
Analyysit
Kansainvälinen viihde
Digitaalinen talous
Digitaalinen talous
Digitaalinen turvallisuus
autouutiset
Digitaalinen turvallisuus
Digitaalinen talous
Digitaalinen talous
Autourheilu
Juorut
Autourheilu
Autourheilu
Autourheilu
Autourheilu
Autourheilu
Kansainvälinen politiikka
autouutiset
autouutiset
Gossip Gekko!
autouutiset
Digitaalinen turvallisuus
rikosuutiset
autouutiset
Kansainvälinen politiikka
Kansainvälinen politiikka
Autourheilu
Digitaalinen turvallisuus
Autourheilu
kaupunkiliikenne
Digitaalinen talous
Autourheilu
Ihmisoikeudet
autouutiset
Digitaalinen talous
Autourheilu
Autourheilu
jalkapallo
Elokuvat
Autourheilu
autouutiset
Viihde
Viihde
Salaliitot
Onlyfans
Salaliitot
Salaliitot
Urheilu
Uutiset
Uutiset
Uutiset
Uutiset
Uutiset
Onlyfans
Uutiset
Uutiset
Ulkomaat
Uutiset
Uutiset
Uutiset
Uutiset
Uutiset
Uutiset
Uutiset
Uutiset
Uutiset
Uutiset
Uutiset
Uutiset
Uutiset
Uutiset
Uutiset
Uutiset
Uutiset
Uutiset
Uutiset
Uutiset
Uutiset
Uutiset
Uutiset
Uutiset
Uutiset
Uutiset
Uutiset
Uutiset
Uutiset
Uutiset
Uutiset
Uutiset
Uutiset
Uutiset