Dzieci w sieci. Media społecznościowe wpływają na negatywne emocje młodych i potęgują samobójcze skłonności.

homodigital.pl 12 godzin temu

Coraz większą społeczną uwagę na świecie i w Polsce przyciągają negatywne konsekwencje korzystania z social mediów przez dzieci i młodzież. Wiele państw wprowadza w tym zakresie ograniczenia. Prace nad tym realizowane są również w Polsce.

Korzystanie z mediów społecznościowych przez nastolatków i młodych dorosłych stało się powszechne. Spośród analizowanych w 2024 roku w krajach UE aktywności internetowych 88% osób w wieku 16-29 lat posiadało w mediach społecznościowych profil użytkownika, publikowało wiadomości czy też angażowało się w interakcje. Wskaźnik ten jest o ponad jedną czwartą wyższy niż w odniesieniu do ogółu populacji. Co więcej, w 16 krajach UE, w tym w Polsce, co najmniej 90% młodych ludzi korzystało z portali społecznościowych. W kolejnych 10 krajach od 80% do 89%. Najniższy wskaźnik osiągnęła Francja – ok 70 proc.

Czytaj też: Bezpieczeństwo dzieci w sieci Roblox – weź sprawy w swoje ręce

Dzieci przed ekranem

Przed ekranem smarfona czy tableta sadzane są choćby kilkuletnie dzieci. Można już znaleźć uchwyty do tych urządzeń montowane do dziecięcego fotelika, a choćby nocnika! Niestety mimo, iż regulaminy platform społecznościowych stanowią, iż adresowane są one do użytkowników powyżej 13 roku życia, badania organizacji społecznych udowadniają, iż konta społecznościowe mają także dzieci w wieku 7-13 lat jak w przypadku TikToka w Polsce, których może być choćby półtora miliona.

Z pewnością podawany przez użytkownika wiek można by łatwo zweryfikować, analizując zachowania użytkownika. Jednak algorytmy korzystania z platform przez dzieci z reguły nie blokują. Wpływ rodziców polega natomiast na ograniczaniu czasu korzystania z mediów. Rodzice nie wnikają w jakie treści angażują się ich dzieci albo jakie treści podsuwają im algorytmy. Tymczasem badania wykazały, iż dzieci, które zaczęły korzystać z mediów społecznościowych w wieku 10 lat lub wcześniej, częściej padały ofiarą nękania w sieci i częściej miały w niej znajomych lub konta, których rodzice nie akceptowaliby.

Czytaj też: Bezpieczne dziecko w internecie w szkole i w domu

Kompulsywne uzależnienie

Dostęp do social mediów może kreować uzależniające, kompulsywne zachowania, polegające na trudności oderwania się od nich czy na mimowolnym, mechanicznym przeglądaniu treści. Tzw. problematyczne użytkowanie może dotyczyć choćby 11 procent nastolatków w Europie i USA, czyli milionów młodych osób. W ich przypadku istnieje znacznie większe prawdopodobieństwo wystąpienie stanów lękowych polegających na depresji, niepokoju czy fobii społecznej.

Opublikowane w zeszłym roku w czasopiśmie JAMA badania naukowców z Weill Cornell Medicine, Columbia University i University of California dowodzą, iż młodzież wykazująca silne uzależnienie od mediów społecznościowych lub gier wideo jest mniej więcej dwukrotnie bardziej narażona na zachowania samobójcze lub agresywne niż rówieśnicy nieprezentujący oznak kompulsywnego korzystania z social mediów. W wieku 14 lat prawie co trzeci uczestnik wykazywał wysoki poziom uzależnienia od mediów społecznościowych. Ponad 40% młodzieży miało wysoką ścieżkę uzależnienia od gier wideo. Ci nastolatkowie znacznie częściej zgłaszali myśli lub zachowania samobójcze, a także objawy lęku i depresji.

Badania kliniczne w USA wykazały, iż ograniczanie korzystania z telefonów komórkowych, na przykład w godzinach szkolnych, nie było skuteczne w zmniejszaniu ryzyka zachowań samobójczych ani w poprawie innych aspektów zdrowia psychicznego. Kluczowym czynnikiem, który determinował ich stan mentalny była kompulsywność zachowań, wysoki poziom stresu i utrata kontroli.

Czytaj też: Wykorzystywanie dzieci w sieci: UE idzie na wojnę. A prywatność?

Niebezpieczne treści

Istotnych wniosków o sposobie i technikach oddziaływania social mediów na psychikę młodzieży dostarczyły eksperymenty przeprowadzone przez brytyjską fundację Molly Rose. Badania wskazały na rosnącą zależność między ekspozycją na szkodliwe treści online a wynikającym z tego ryzykiem samobójstwa i samookaleczenia. Fundacja zakładała fikcyjne konta podszywające się pod 15-letnią dziewczynę. Następnie angażowała się w publikowanie postów o samobójstwie, samookaleczeniu i depresji. To skłoniło algorytmy do zalewania konta falą szkodliwych treści na Instagramie Reels i stronie TikToka „Dla Ciebie”.

Prawie wszystkie polecane filmy obejrzane na Instagramie (97%) i TikToku (96%) uznano za szkodliwe, podczas gdy ponad połowa (55%) polecanych szkodliwych postów na stronie TikToka zawierała odniesienia do samobójstwa i myśli samookaleczenia, a 16% odnosiło się do metod samobójstwa, w tym do takich, z którymi badacze nigdy wcześniej się nie spotkali. Te posty dotarły również do ogromnej liczby obserwujących: jeden na 10 szkodliwych filmów na stronie TikToka został polubiony ponad milion razy, a na Instagramie ponad 250 tys. razy.

Z badań Molly Rose Foundation przeprowadzonych w 2023 roku na próbie składającej się z blisko 2000 nastolatków w wieku 13-17 lat wynika także, iż dziewczęta dwukrotnie częściej niż chłopcy spotykały się z treściami wysokiego ryzyka w mediach społecznościowych. Co druga z nich w ciągu jednego tygodnia była narażona na treści wysokiego ryzyka dotyczące samobójstwa, samookaleczenia, depresji lub zaburzeń.

Badania zostały zrealizowane przed wejściem brytyjskiej ustawy o bezpieczeństwie w internecie (Online Safety Act). Analizowany problem nie został jednak wyeliminowany.

Czytaj też: Czy bawi cię krzywda dziecka? Czym jest troll parenting i sharenting

Negatywne emocje

Eksperyment brytyjski został zweryfikowany przez organizację broniącą praw człowieka czyli Amnesty International (AI). Organizacja utworzyła trzy nastoletnie konta TikTok zarejestrowane jako 13-latkowie mieszkający we Francji. Wszystko to, aby zbadać, jak algorytm platformy wzmacnia treści w kanale „Dla Ciebie”. W ciągu pięciu minut jeszcze przed wyrażeniem jakichkolwiek preferencji, konta wyświetlały filmy przedstawiające negatywne emocje – smutek i rozczarowanie. Amnesty twierdzi, iż to początek spirali treści związanych ze zdrowiem psychicznym, wciągającej nastolatki w depresję, samookaleczenie i odbieranie treści samobójczych. To prowadzi do wniosku, iż TikTok nie przestrzega unijnej ustawy o usługach cyfrowych (DSA). DSA nakłada na platformy obowiązek ochrony dzieci przed zagrożeniami algorytmicznymi. Komisja Europejska wszczęła w tym zakresie postępowanie. Toczą się także procesy sądowe.

W zeszłym roku rodzice pięciorga brytyjskich dzieci złożyły przeciw TikTokowi pozew. Zarzucili firmie, iż dzieci straciły życie w trakcie kręcenia filmów z wyzwaniami, w tym tzw. blackout, poprzez które algorytmy zachęcały do duszenia się.

Czytaj też: Nierzadki problem: gdy twoje dziecko uprawia hejt w sieci. Co robić?

Dramatyczne skutki

Eksperci wskazują na dramatyczne skutki działania algorytmów w social mediach. Opinię publiczną wielokrotnie wstrząsnęły przypadki samobójstw nastolatków. Ich profile zawierały niemal identyczne treści pożegnalne, te same hashtagi a także podkłady muzyczne. Zamieszczanie pożegnalnych komunikatów czy wideo dotyczy także Polski. Społeczna aplikacja KidsAlert informująca o ryzykach i zagrożeniach w sieci monitoruje media i wydaje ostrzeżenia. Jedne z ostatnich dotyczą postów zawierających frazy „moja randka się zbliża”. Niekoniecznie może ona dotyczyć urodzin czy spotkania, ale wybranej daty pozbawienia się życia. Wynika z tego, iż sytuacja związana z korzystaniem z social mediów przez nastolatków w Polsce jest równie niepokojąca.

Fundacja „Dbam o Mój Zasięg” przeprowadziła reprezentatywne badania uczniów klas siódmych szkół podstawowych oraz klas trzecich szkół ponadpodstawowych (liceów, techników, szkół branżowych). Wyniki opublikowała następnie w raporcie w ramach projektu „Zdrowie psychiczne młodych cyfrowych”. W badanej próbie badawczej aż 90 proc. uczniów korzysta z mediów społecznościowych przynajmniej 4 godziny dziennie. Pozytywnym zjawiskiem jest fakt wykorzystywania internetu do pozyskiwania treści popularnonaukowych i naukowych (60%). Zatrważające są jednak inne dane:

  • 17% uczniów siódmej klasy szkoły podstawowej i 23 proc. uczniów trzeciej klasy szkoły ponadpodstawowej w ciągu ostatniego roku myślało o odebraniu sobie życia;
  • 7% uczniów klasy siódmej szkoły podstawowej i tyle samo uczniów trzeciej klasy szkoły ponadpodstawowej w ciągu ostatniego roku dokonywało samookaleczeń;
  • 15% uczniów w klasie siódmej szkoły podstawowej i 21% trzeciej klasie szkoły ponadpodstawowej miało konkretne plany, w jaki sposób, kiedy i gdzie chcą odebrać sobie życie;
  • 8% uczniów klasy siódmej i 12% uczniów klasy trzeciej szkoły ponadpodstawowej podjęło próbę samobójczą.

Czytaj też: Toksyczna męskość wśród dzieci – czym jest stereotyp w sieci?

Źródło: Fundacja Dbam o Mój Zasięg

Treści suicydalne w mediach społecznościowych

Powstaje pytanie na ile te fakty wiążą się z korzystaniem z social mediów? Wyniki badań dowodzą, iż istotnie. Prawie połowa uczniów (45%), którzy przyznali, iż w ciągu ostatniego roku mieli myśli samobójcze zdeklarowała, iż wyświetlały się im treści suicydalne w sieci. Wyświetlały się one, pomimo iż nie były wyszukiwane! Co więcej, w klasach siódmych 57% dzieci, które podjęły próbę samobójczą, było odbiorcami treści suicydalnych w internecie, choć ich nie wyszukiwały, w klasach trzecich szkół ponadpodstawowych odsetek ten stanowił aż 41%. W 70 proc. dotyczyło to dzieci o wysokim poziomie kompulsywności. Ważne przy tym jest, iż w przypadku takich dzieci ich zadowolenie z życia było wyraźnie niższe niż u ich rówieśników bez takich zaburzeń. Część z nich miała także za sobą doświadczenia z przemocą ze strony opiekunów lub dręczenia przez inne osoby (również w szkole). Nie będzie przesadą stwierdzenie, iż są to alarmistyczne dane!

Czytaj też: Bezpieczeństwo w sieci dla młodzieży – poradnik dla rodziców!

Reakcja platform

Chociaż platformy podjęły kroki mające na celu utrudnienie wyszukiwania niebezpiecznych treści dzięki hashtagów, spersonalizowane systemy rekomendacji AI ciągle wzmacniają szkodliwe treści po ich obejrzeniu – twierdzą instytucje zajmujące się ochroną dzieci jak Molly Rose.

Social media jak TikTok mają tendencję do stosowania zbyt wąskich definicji zagrożenia. Ich przedstawiciele twierdzą, iż konta nastolatków oferują wiele funkcji ustawień pozwalających rodzicom dostosowywać zakres prywatności i bezpieczeństwa do własnych preferencji. TikTok wskazuje, iż korzysta z automatycznej technologii, aby usuwać treści zachęcające do samobójstwa i samookaleczenia. Ponadto twierdzi, iż podejmuje proaktywne działania w tym zakresie, zanim zostaną zgłoszone konkretne przypadki niebezpiecznych treści. To jednak wciąż nie rozwiązuje problemu.

W połowie stycznia wobec rosnącej presji społecznej i regulacyjnej platforma zapowiedziała kolejne kroki – poinformował Reuters. Chodzi o wdrożenie nowej technologii wykrywania wieku w Europie. Konta oznaczone przez tę technologię jako „nieletnie” mają być weryfikowane przez wyspecjalizowanych moderatorów, a nie automatycznie blokowane.

Czytaj też: Instagram wprowadza konta dla nastolatków – więcej prywatności

Ban na social media

W obliczu narastających zagrożeń dla psychicznego i fizycznego zdrowia dzieci na całym świecie rośnie poparcie dla zakazu korzystanie przez osoby poniżej 14. roku życia z mediów społecznościowych. Według badań Ipsos średnio 71% respondentów w 30 krajach podziela ten pogląd, stanowisko takie wyraża także 74 proc. rodziców.

Pierwszym krajem, który wprowadził zakaz w 2024 roku stała się Australia. Tam osoby poniżej 16 roku życia nie mogą zakładać kont w social mediach, a kary dla ich operatorów mogą dochodzić do 50 mln dol. australijskich (32 mln USD). Inne państwa jak Niemcy, Francja, Włochy i Norwegia wprowadziły obowiązek zgody rodziców na korzystanie z nich przez nastolatków, w zależności od kraju od wieku 13-15 lat. Rezolucję wzywającą do wprowadzenia minimalnego wieku 16 lat dla korzystania z mediów społecznościowych przyjął także w listopadzie 2025 roku Parlament Europejski.

W Polsce projekt ustawy ograniczającej dostęp do nich dla osób poniżej 15 roku życia ma być przedstawiony do końca lutego. Finalnie o jej wdrożeniu zadecyduje Prezydent, który zawetował niedawno ustawę wdrażającą unijny Akt o usługach cyfrowych. Celem aktu było zwiększenie ochrony użytkowników internetu przed nielegalnymi treściami. Czy tym razem przekonają go argumenty o ochronie dobrostanu i życia dzieci?

Źródło zdjęcia: Jessica Lewis 🦋 thepaintedsquare

Idź do oryginalnego materiału