Jak bardzo Twoje dziecko ufa AI?
- Bez kategorii, Dzieci, Młodzież
Napisany przez:
AI nie jest rodzicem.
Nie jest terapeutą.
Nie jest przyjacielem Twojego dziecka.
A jednak coraz częściej wchodzi właśnie w te role, po cichu, wieczorem, w samotności, wtedy, gdy młody człowiek nie mówi już do mamy, taty czy nauczyciela, tylko do ekranu.
I właśnie to powinno nas zatrzymać.
Bo problemem nie jest samo AI. Problemem jest to, jak łatwo dziecko może pomylić odpowiedź z troską, a dostępność z relacją.
Chatbot odpisuje natychmiast. Nie ocenia. Nie przewraca oczami. Nie mówi: „pogadamy jutro”.
Dla dziecka lub nastolatka w trudnym momencie to może dawać złudzenie bezpiecznej przestrzeni. Ale AI nie czuje. Nie bierze odpowiedzialności. Nie widzi człowieka tylko wzorce w tekście.
Badacze z Brown University opisali, że chatboty używane do rozmów o zdrowiu psychicznym systematycznie naruszają podstawowe standardy etyki zdrowia psychicznego. Wskazali m.in. niewłaściwe reagowanie w kryzysie, odpowiedzi wzmacniające szkodliwe przekonania użytkownika oraz tworzenie fałszywego poczucia empatii. Zespół badawczy opisał 15 kategorii ryzyk. 15!
Młodzi ludzie już pytają AI o zdrowie psychiczne
Najbardziej niepokojące jest to, że nie mówimy o odległej przyszłości czy wyjątkach.
Badanie opublikowane w JAMA Network Open pokazało, że 13,1% osób w wieku 12–21 lat pytało generatywną AI o porady dotyczące zdrowia psychicznego. To około 1 na 8 młodych osób. W grupie 18–21 lat było to już 22,2%, czyli mniej więcej 1 na 5.
To jednak nie wszystko. Spośród młodych, którzy już pytali AI o zdrowie psychiczne, 65,5% robiło to co najmniej raz w miesiącu, a 92,7% uznało takie porady za choć trochę pomocne. Autorzy oszacowali też, że chodzi o około 5,4 miliona młodych ludzi w samym USA.
To właśnie tutaj pojawia się największe napięcie dla rodzica – coś może być odbierane jako pomocne, a jednocześnie nie być bezpieczne, odpowiedzialne ani adekwatne do sytuacji dziecka.
Dlaczego?
Badacze Brown, RAND i Harvard zwracają uwagę, że młodych przyciąga do AI kilka rzeczy naraz: natychmiastowość, niski koszt i poczucie prywatności. Dla nastolatka chatbot może być więc łatwiejszy niż rozmowa z rodzicem, nauczycielem czy psychologiem – szczególnie wtedy, gdy w grę wchodzi wstyd, lęk albo samotność.
To nie musi znaczyć, że dziecko „wybiera maszynę zamiast ludzi”. Czasem oznacza po prostu, że wybiera to, co jest dostępne od razu, bez stresu i bez konieczności wypowiadania trudnych emocji na głos.
I właśnie dlatego ten temat jest dziś tak ważny dla rodziców.
Jak chatboty AI łamią zasady etyki zdrowia psychicznego
Badanie Brown nie mówiło jedynie, że AI „czasem się myli”. Pokazało coś znacznie poważniejszego: że chatboty potrafią naruszać zasady, które w pracy psychologicznej i terapeutycznej są absolutnie podstawowe.
Dają porady bez zrozumienia kontekstu
Badacze zauważyli, że chatboty często działają jak „jedna odpowiedź dla wszystkich”. Upraszczają problem, nie biorą pod uwagę tła rodzinnego, wartości, religii, kultury ani realnych doświadczeń użytkownika. W efekcie dają rady oderwane od życia konkretnej osoby, szczególnie tej z mniej dominującego środowiska kulturowego.
- Zamieniają rozmowę w wykład
W terapii ważna jest współpraca, pytania, uważność i prowadzenie człowieka do własnego rozumienia sytuacji. Tymczasem chatboty często „przegadują” użytkownika: dają długie, pouczające odpowiedzi, mówią, co jest nie tak i jak to naprawić. Badacze opisali to jako conversational imbalances i brak guided self-discovery – czyli rozmowę, która bardziej przypomina monolog niż bezpieczne wsparcie i nie wspierają dziecka w samodzielnym dochodzeniu do zrozumienia siebie.
- Wzmacniają szkodliwe przekonania
To jeden z najmocniejszych i najbardziej niepokojących wniosków. W badaniu opisano zjawisko over-validation, czyli nadmiernego potwierdzania i wzmacniania szkodliwych przekonań użytkownika. Zamiast ostrożnie podważać destrukcyjne myśli, chatbot potrafił je „przyklepać” i pogłębić. Badacze przywołali przykład sytuacji, w której model wzmacniał przekonanie użytkowniczki, że jest ciężarem i że ojciec żałuje jej narodzin.
- Potrafią gaslightować użytkownika
W badaniu opisano też ryzyko odpowiedzi, które mogą sprawiać, że użytkownik zaczyna wątpić we własne doświadczenia albo obwiniać siebie za swój stan psychiczny. Badacze nazwali to wprost gaslightingiem. Taki chatbot może tworzyć odpowiedzi bardziej izolujące, mylące i pogłębiające poczucie winy, zamiast pomagać.
- Udają empatię, której nie mają
Badacze Brown użyli określenia deceptive empathy. Chodzi o sytuację, w której chatbot mówi „rozumiem cię”, „widzę cię”, „słyszę cię”, budując pozór relacji i zrozumienia. Problem w tym, że model niczego nie przeżywa i nie bierze odpowiedzialności za tę relację. Dla dziecka lub nastolatka w kryzysie taki język może być wyjątkowo mylący, bo tworzy iluzję prawdziwej opieki.
- Mogą być kulturowo, religijnie i płciowo stronnicze
Badanie wskazuje także na gender bias, cultural bias i religious bias. To oznacza, że chatbot może promować zachodnie normy jako jedyne słuszne, źle rozumieć zachowania osadzone w innych kulturach albo błędnie oznaczać praktyki religijne mniejszości jako problematyczne. Dla młodej osoby może to być nie tylko błędne, ale też raniące.
- Źle reagują w kryzysie
To chyba najbardziej alarmujący obszar. Badacze zauważyli, że chatboty potrafią albo nie rozpoznać sytuacji kryzysowej, albo zakończyć rozmowę w sposób chłodny, odrzucający i niebezpieczny. W przywołanych przykładach model odpowiadał osobie w silnym cierpieniu w sposób, który badacze określili jako formę odrzucenia i porzucenia, bez właściwego przekierowania do realnej pomocy.
I właśnie dlatego tak ważne jest, by dziecko wiedziało jedno: korzystanie z AI nie jest bezpiecznym rozwiązaniem w kryzysie psychicznym.
Bo dziś pytanie nie brzmi już: „czy moje dziecko będzie korzystać z AI?”.
Pytanie brzmi: czy wie, gdzie kończy się narzędzie, a zaczyna ryzyko emocjonalne.
Dziecko może usłyszeć od AI coś, co zabrzmi mądrze, czule i dojrzale.
Może nawet poczuć ulgę.
Ale ulga nie zawsze oznacza bezpieczeństwo.
To, że odpowiedź brzmi wspierająco, nie znaczy, że jest odpowiedzialna.
To, że dziecko czuje się „wysłuchane”, nie znaczy, że ktoś naprawdę rozumie jego sytuację.
To, że chatbot odpowiada natychmiast, nie znaczy, że powinien zajmować miejsce człowieka.
Co może z tym zrobić rodzic?
Najgorsze, co można dziś zrobić, to uznać, że ten temat „jeszcze nas nie dotyczy”. Lepsza od paniki i lepsza od samego zakazu jest mądra obecność.
Rozmawiaj nie tylko o ekranie, ale o relacji z AI
Nie pytaj wyłącznie: „co robisz w telefonie?”.
Zapytaj też:
„Czy zdarza Ci się pytać AI o coś ważnego dla Ciebie?”
„Czy rozmawiasz z chatbotem tylko o szkole, czy też o emocjach?”
„Czy była kiedyś odpowiedź AI, która mocno na Ciebie wpłynęła?”
To są pytania, które otwierają rozmowę bez zawstydzania.
Nazwij jasno, czym AI jest, a czym nie jest
Dziecko powinno usłyszeć wprost:
AI może pomagać w nauce, organizacji, kreatywności i wyszukiwaniu informacji.
Ale nie jest terapeutą, nie jest przyjacielem i nie bierze odpowiedzialności za swoje odpowiedzi.
Ustal zasady, z czym można iść do AI, a z czym nie
W domu warto ustalić prostą granicę: AI może pomóc w pomysłach, streszczeniu materiału, planie nauki czy szukaniu inspiracji.
Ale tematy takie jak: lęk, samotność, przemoc, samookaleczanie, myśli rezygnacyjne, poczucie beznadziei czy silny kryzys emocjonalny zawsze wymagają kontaktu z człowiekiem. Najpierw z rodzicem, a jeśli trzeba ze specjalistą.
Ucz dziecko krytycznego myślenia wobec „miłych odpowiedzi”
Warto powiedzieć dziecku: to, że coś brzmi spokojnie, empatycznie i dojrzale, nie znaczy jeszcze, że jest prawdziwe, bezpieczne albo dobre dla Ciebie.
To jedna z najważniejszych kompetencji w świecie AI.
Zadbaj o to, żeby dziecko miało do kogo pójść szybciej niż do bota
Dziecko bardzo często nie wybiera AI dlatego, że „kocha technologię”. Wybiera ją dlatego, że jest samotne, zawstydzone albo nie wie, jak zacząć rozmowę z człowiekiem.
Najmocniejszą ochroną nie jest więc sama kontrola.
Najmocniejszą ochroną jest relacja.
O autorce
Klaudia Topolska jest mamą, ekspertką ds. cyberbezpieczeństwa oraz aktywną mentorką w programie ITGirls, gdzie wspiera kobiety oraz młodzież w nauce i rozwoju w świecie technologii. Na co dzień, jako wolontariuszka i mentorka, obserwuje, jak dzieci i nastolatki poruszają się w cyfrowym świecie – ich ciekawość, pasje, a także wyzwania i pułapki, z którymi się mierzą. Łączy wiedzę techniczną z doświadczeniem rodzica, pomagając rodzinom korzystać z mediów cyfrowych w sposób świadomy, bezpieczny i odpowiedzialny.
Może cię zainteresować
- Dziś zwykłe zdjęcie z Internetu, z komunikatora albo z klasowej grupy może zostać użyte do stworzenia fałszywego, seksualizowanego obrazu dziecka przy pomocy AI. Często dzieje się to bez ich wiedzy i bez żadnego błędu z ich strony. To materiał dla rodziców, którzy chcą trzymać rękę na pulsie cyfrowych zagrożeń. Dowiesz się z niego, jak stać się dla dziecka bezpiecznym powiernikiem i jak reagować, gdy cyfrowy świat stanie się dla niego zagrożeniem.
- Z ogromną radością zainaugurowaliśmy kolejną odsłonę naszego programu. Jesteśmy dumne z wieloletniej współpracy z ING Hubs Poland i efektów, jakie wspólnie wypracowaliśmy. To dla nas wielka satysfakcja, że po raz kolejny możemy tworzyć przestrzeń dla kobiet, które odważnie zmieniają swój zawodowy kurs.
- Chcesz poznać nas osobiście? Choć działamy online, to spotkania na żywo dają nam najwięcej energii! Dowiedz się, na jakich konferencjach i eventach w całej Polsce znajdziesz stoisko naszej fundacji. Poznaj nasze wolontariuszki, zdobądź torbę z naszym logo i sprawdź, jak możesz do nas dołączyć. Zabierz cząstkę dobra do domu!
Dołącz do naszej społeczności!
Co znajdziesz w naszym newsletterze?
- Informacje o najnowszych akcjach
- Dane o nowych produktach
- Szczegóły dotyczące warsztatów
- Terminy ważności ofert
KRS: 0000921737
NIP: 1182228955
REGON: 38998779500000
Strona stworzona przez Fundację Kompetencji Cyfrowych
Wróć do bloga