Muzyka do samobójstwa na Soundcloud. Jak oszukać algorytm?

Autor: Agnieszka Sielańczyk
15-12-2025
Muzyka do samobójstwa na Soundcloud. Jak oszukać algorytm?
fot. kadr z filmu „Manchester by The Sea”
Soundcloud od lat balansuje między rolą demokratycznego archiwum internetowej kultury dźwięku a platformą, która jak każdy gigant technologiczny, musi mierzyć się z granicami własnej odpowiedzialności. Najnowsza debata dotyczy „suicide playlists” – playlist, których tytuły wprost odwołują się do samobójstwa, a tracklista ma rzekomo towarzyszyć w ostatnich chwilach życia.
Brzmi jak urban legend rodem z creepypasty, ale problem w tym, że takie playlisty faktycznie istnieją i rozmnażają się w algorytmicznych zakamarkach serwisu.Sprawa wybuchła po serii artykułów śledczych BBC i The Guardian, które ujawniły, że Soundcloud przez lata ignorował zgłoszenia dotyczące tego typu treści.
Dziennikarze natrafili na setki playlist z tytułami w stylu „songs to die to” czy „final hour soundtrack”, kuratorowanych przez anonimowe konta. Większość z nich zawierała mieszankę ambient, shoegaze'u i lo-fi hip-hopu – gatunków, które w popkulturowym obiegu nabierają coraz częściej terapeutycznego, choć niejednoznacznego charakteru.
Soundcloud twierdzi, że jego polityka moderacji zabrania treści „promujących samookaleczenie”, ale mechanizmy egzekwowania tych zasad pozostają niejasne. Platforma usuwa pojedyncze playlisty dopiero po zgłoszeniu, podczas gdy podobne zestawy pojawiają się niemal natychmiast, jak gdyby system tagów i rekomendacji sam je reprodukował. To zjawisko, które badacze mediów cyfrowych nazywają „algorithmic contagion” – algorytm nie rozumie intencji, widzi tylko wzorzec zaangażowania.
Historia nie jest nowa. Podobne kontrowersje przetoczyły się przez Spotify w 2018 roku, kiedy ujawniono istnienie playlist „I want to die” z milionami odsłuchań. Różnica? Spotify zareagował szybko, usuwając treści i wprowadzając narzędzia wellness – paski z numerami do organizacji pomocowych pojawiające się przy wyszukiwaniu określonych fraz. Soundcloud, który od lat boryka się z problemami finansowymi i brakiem konsekwentnej strategii, dopiero teraz zaczyna nadrabiać zaległości.
Pytanie o odpowiedzialność platform jest tutaj nieuniknione, ale równie istotne wydaje się pytanie o rolę muzyki w kulturze autodestrukcji. Estetyka smutku – od Joy Division przez The National po XXXTentacion – zawsze funkcjonowała w popkulturze jako forma katharsis, ale też jako romantyzacja cierpienia. Gdy muzyka staje się soundtrackiem do najczarniejszych myśli, przestaje być tylko sztuką, staje się narzędziem.
Soundcloud nie jest jedyną platformą, która zmaga się z tym dylematem. Problem dotyczy całego ekosystemu streamingu, gdzie algorytmy nie potrafią odróżnić melancholijnego nastroju od kryzysu zdrowia psychicznego. Gdzie kończy się wolność ekspresji, a zaczyna odpowiedzialność za bezpieczeństwo użytkowników? I czy w ogóle możemy wymagać od serwisu muzycznego, żeby był strażnikiem czyjegoś życia?
Na razie Soundcloud wprowadza punktowe zmiany – nowe filtry, zespół moderatorów, współpracę z organizacjami profilaktycznymi. Ale dopóki platforma traktuje problem jak kryzys wizerunkowy, a nie systemową kwestię związaną z projektowaniem algorytmów, „suicide playlists” będą pojawiać się w nieskończoność. Jak w pętli zawieszenia, którą sama technologia stworzyła.
Jeśli ty lub ktoś z twoich bliskich potrzebuje wsparcia – zadzwoń pod 116 123 (Centrum Wsparcia dla Osób Dorosłych w Kryzysie Psychicznym) lub 116 111 (Telefon Zaufania dla Dzieci i Młodzieży).
FacebookInstagramTikTokX