Zjawisko społeczne, określane jako social offloading, polega na przenoszeniu myślenia, decyzji, a nawet relacji na sztuczną inteligencję. Choć bez wątpienia ułatwia codzienne funkcjonowanie, budzi rosnące obawy o osłabienie krytycznego myślenia i kompetencji społecznych. I to nie tylko wśród najmłodszych pokoleń.
Zmniejszanie wysiłku umysłowego to naturalna tendencja człowieka. Problem pojawia się jednak wtedy, gdy zaczynamy delegować nie tylko złożone zadania, ale nawet najprostsze czynności – szczególnie w obszarze relacji międzyludzkich. Właśnie to zjawisko określane jest jako social offloading, czyli społeczne odciążanie.
Społeczne odciążanie polega na przenoszeniu zadań poznawczych, interpersonalnych lub decyzyjnych na inne osoby albo technologię, taką jak sztuczna inteligencja, w celu zmniejszenia własnego wysiłku umysłowego. Może ono przypominać pracę zespołową i w pewnym zakresie faktycznie nią jest – korzystamy przecież z wiedzy i umiejętności innych, by działać sprawniej. Coraz częściej jednak oznacza coś więcej: outsourcing ludzkiej refleksji, a nawet empatii, do algorytmów.
Zjawisko to jest szczególnie niepokojące w kontekście młodszych pokoleń, zwłaszcza pokolenia Z. Pojawia się obawa, że prowadzi ono do osłabienia umiejętności krytycznego myślenia, formułowania własnych opinii czy samodzielnego rozwiązywania problemów. Najbardziej zatrważający jest jednak fakt, że sztuczna inteligencja zaczyna być wykorzystywana do zadań interpersonalnych – takich jak prowadzenie rozmów, wyrażanie emocji czy reagowanie w trudnych sytuacjach społecznych.
Według badania przeprowadzonego w 2025 roku przez Common Sense Media, organizację non-profit pomagającą rodzinom w dokonywaniu wyborów medialnych odpowiednich dla wieku, jedna trzecia nastolatków już teraz woli towarzystwo sztucznej inteligencji od ludzi podczas poważnych rozmów. Jednak jak zauważa Michael Robb z organizacji Common Sense Media, społeczne odciążanie nie dotyczy wyłącznie najmłodszych. Obserwuje się je również wśród pokolenia Alpha, a także części milenialsów.
Zjawisko to prowadzi do tzw. rozbieżności oczekiwań, czyli sytuacji, w której odbiorca reaguje na wersję rozmówcy spłyconej przez AI, a nie na jego autentyczne wypowiedzi. W efekcie komunikacja staje się mniej szczera, a relacje bardziej powierzchowne. Dodatkowo częste korzystanie z AI w takich sytuacjach może osłabiać zaufanie do własnego głosu i utrudniać rozwijanie kompetencji społecznych, takich jak odczytywanie intencji innych, rozumienie emocji czy radzenie sobie z niejednoznacznością.
Nadmierne korzystanie z technologii w relacjach międzyludzkich może również spowalniać rozwój emocjonalny i – paradoksalnie – pogłębiać poczucie samotności oraz izolacji. Umiejętności takie jak budowanie więzi, naprawianie relacji czy prowadzenie trudnych rozmów wymagają praktyki, której nie da się w pełni zastąpić algorytmami.
Relacje, empatia i autentyczna komunikacja wymagają zaangażowania, błędów i nauki na własnym doświadczeniu. Jeśli zrezygnujemy z tego wysiłku, ryzykujemy nie tylko spłycenie relacji, ale też utratę części własnej autonomii. W świecie, w którym kontakt ze sztuczną inteligencją staje się nieunikniony, kluczowa pozostaje jedna umiejętność: korzystanie z niej w sposób świadomy i odpowiedzialny.
