Wraz z rozwojem AI poznajemy coraz mroczniejsze możliwości wykorzystania nowych technologii. Internet zalewa fala sztucznie wygenerowanych filmów pornograficznych z udziałem znanych gwiazd. Obecnie najczęstszą ofiarą deep fake jest Taylor Swift, ale problem może dotyczyć każdego z nas.
Pornograficzne zdjęcia Taylor Swift zalały portal X nie po raz pierwszy. Piosenkarka jest obecnie najczęstrzym celem deepfake’owego porno i od 2017 bezustannie pojawia się na wygenerowaynch sztucznie treściach. Największym problemem jest fakt, że tego rodzaju zdjęcia i wideo rozsprzestrzeniają się w internecie z ogromną prędkością, a portale takie jak X nie są w stanie blokować użytkowników wystarczająco szybko.
Fani Taylor Swift niejednokortnie sprzeciwiali się tego rodzaju treściom i jawnie protestowali na platformie X, co w pewnym momencie skutkowało nawet zablokowaniem przez portal możliwość wyszukiwania hasła „Taylor Swift”.
Według raportu organizacji Control AI, aż 75 proc. Amerykanów popiera pociąganie do odpowiedzialności karnej osób, które rozprzestrzeniają seksualne treści z Taylor Swift w roli głównej.
W odpowiedzi na sytuację aktualny właściciel portalu X Elon Musk zapowiedział, że zatrudni nowych moderatorów, którzy nie tylko zajmą się niwelowaniem problemu pornografii deepfake, ale także usuwaniem postów z jakimikolwiek nielegalnymi treściami.
Deepfake to problem nas wszystkich
Tylko że problem z wykorzystaniem nowych technologii do rozpowszechniania nielegalnych treści nie dotyczy tylko Taylor Swift, czy innych celebrytów. Aktualnie każdy z nas może stać się ofiarą programistów AI. Wystarczy, że kiedykolwiek opublikowaliśmy swoją fotkę w internecie. Na portalu 4chan możemy wkleić już jakiekolwiek zdjęcie kobiety, nawet w pełni ubranej i jednym kliknięciem ją „rozebrać”.
Pod koniec 2023 roku portal WIRED udostępnił artykuł, w którym anonimowe źródło poinformowało o minimum 245 tysiącach deepfake filmów pornograficznych udostępnionych w ciągu ostatnich 7 lat.
Jak zauważa Emma Pickering z organizacji charytatywnej Refuge w wywiadzie dla Dazed, tego rodzaju treści to też idealne pole do szantażu i wyłudzania.
Trudno nie wspomnieć przy tym również o traumie, której doświadczają ofiary takich przestępstw. Według wypowiedzi Ashera Flynna, profesora z Uniwersytetu Monash w Australii dla WIRED, nieważne jak sfałszowana czy prawdziwa jest udostępniana treść – wpływ na zdrowie psychiczne i fizyczne ofiary może być tak samo duży. Oczywiście rozpowszechnianie tych treści niejednokrotnie skutkuje też brakiem zatrudnienia, czy pogorszeniem jakości życia społecznego i rodzinnego ofiary.
Niestety aktualnie nie jesteśmy w stanie powstrzymać rozwoju technologii deepfake. Jako jednostki jedyne, co możemy teraz zrobić, to zachęcać władze do ustanawiania praw w tym zakresie. Nie bójmy się też naciskać na platformy, by moderowały pojawiające się u nich treści, a także sami zgłaszać niepożądane posty.
