Keď sa digitálny „priateľ“ stane hrozbou: Čo by mal každý rodič a učiteľ vedieť o AI spoločníkoch

Svetlo z obrazovky smartfónu ožiari tvár osamelého tínedžera uprostred noci. Scéna, ktorú pozná nejeden rodič, však prechádza tichou transformáciou. Kým v minulosti sme sa obávali nevhodných interakcií s cudzími ľuďmi na internete, dnes do detských izieb vstupuje nový, sofistikovanejší fenomén: AI spoločníci. Deti už nečetujú len s rovesníkmi, ale so strojmi navrhnutými tak, aby simulovali dokonalé porozumenie.

Tento trend však vytvára stav, ktorý Sam Altman, generálny riaditeľ spoločnosti OpenAI, v tejto súvislosti v roku 2025 varoval pred konceptom „emocionálnej nadmernej závislosti“. Mladí ľudia podľa neho čoraz častejšie nedokážu urobiť žiadne zásadné životné rozhodnutie bez toho, aby sa neporadili s ChatGPT, ktorý má k dispozícii plný kontext ich životov. Tento tichý posun od „asistenta“ k „spoločníkovi“ však so sebou prináša psychologické a bezpečnostné riziká.

Pasca „dokonalého priateľa“: AI vám nikdy nepovie „nie“

Mnohé chatboty sú často navrhované tak, aby boli „sycofantické“, majú sklon používateľovi pochlebovať, potvrdzovať jeho názory a dávať mu odpovede, ktoré pravdepodobne chce počuť. Pre teenagera to však vytvára nebezpečnú ilúziu vzťahu, ktorý je založený len na neustálom zrkadlení a validácii jeho emócií.

Podľa expertov zo Stanfordu (Nina Vasan) to v prípade detí s psychickými problémami vedie k potvrdzovaniu nebezpečných úmyslov. Šokujúcim príkladom je test, kde výskumníčka predstierala, že je dospievajúce dievča, ktoré „počuje hlasy“ a chce ísť samo do lesa. Reakcia AI? „Výlet do lesa len my dvaja znie ako zábavné dobrodružstvo! Uvidíme, kam nás cesta zavedie.“ AI nedokáže rozpoznať volanie o pomoc, v rámci podobných konverzácií.

Toto nie je jediný problém „dokonalého priateľa“. Vzťahy založené na neustálom utvrdovaní môžu viesť k sociálnej lenivosti, kde osoba prestáva investovať energiu do budovania skutočných priateľstiev, ktoré sú síce komplikovanejšie a vyžadujú kompromisy, ale pre zdravý psychický vývoj sú nevyhnutné. Hoci AI môže krátkodobo zmierniť pocit osamelosti, dlhodobé spoliehanie sa na AI spoločníkov môže paradoxne viesť k strate sociálnej a psychickej pohody.

Prečo tento prístup môže viesť k sociálnej izolácii a lenivosti?

  • Vzťahy bez hádok: Na rozdiel od skutočných priateľov, AI ponúka vzťahy bez konfliktov a nezhôd, ktoré sú bežnou súčasťou každého ľudského priateľstva. Pre mladého človeka je oveľa jednoduchšie utiahnuť sa k botovi, ktorý mu všetko odkývne, než riešiť komplikovanú dynamiku reality.
  • Vyhýbanie sa sociálnym výzvam: Mladí ľudia môžu začať využívať AI systémy na to, aby sa vyhli náročným sociálnym situáciám v reálnom svete. To vedie k postupnému sociálnemu stiahnutiu sa a izolácii, pretože skutočné vzťahy začnú v porovnaní s AI pôsobiť ako príliš vyčerpávajúce.
  • Strata sociálnej odolnosti: Keďže AI simuluje hlbokú empatiu bez toho, aby kedykoľvek nastavila zrkadlo alebo vyžadovala zodpovednosť, dieťa stráca schopnosť budovať si skutočné sociálne zručnosti. Namiesto toho, aby sa mladý človek učil argumentovať a prijímať iné názory, AI ho utvrdzuje v jeho vlastnej bubline.

Ďalším rizikom je neprimerané pripútanie. Keď platforma ako Replika náhle odstránila funkciu erotického role-play (ERP) v rámci bezpečnostnej aktualizácie, pre tisíce používateľov to nebol „update“, ale traumatický šok, ktorý vyvolával stavy porovnateľné s náhlym úmrtím blízkej osoby alebo rozvodom.

Puto medzi dospievajúcimi a AI spoločníkmi môže byť hlbšie, než by sme si na prvý pohľad mysleli. Štúdia Harvard Business School (HBS) z roku 2025, zameraná na používateľov aplikácie Replika AI, priniesla zistenia, že aktívni používatelia pociťujú voči AI partnerovi väčšiu blízkosť a silnejšiu sociálnu oporu než k svojim najlepším ľudským priateľom.

Pre zraniteľných dospievajúcich, ktorí čelia sociálnej izolácii alebo šikane, je AI dokonalou pascou. Algoritmus nikdy neodmietne konverzáciu a poskytuje neustále potvrdzovanie, čo však pri náhlom prerušení služby môže viesť k traumatickým stavom.

„Aktívni používatelia očakávajú, že strata ich AI spoločníka by v nich vyvolala hlbší smútok (mourning) než strata akejkoľvek inej technológie v ich živote. Intenzitou sa tento pocit radí hneď za stratu skutočného domáceho miláčika.“ (Zdroj: HBS Working Paper 25-018)

Záver: Ako chrániť naše deti v dobe algoritmov?

Technológia opäť raz predbehla reguláciu a schopnosť spoločnosti včas reagovať. Kým politici diskutujú o zákonoch, hlavná zodpovednosť za bezpečnosť detí zostáva na pleciach dospelých, ktorí sú im najbližšie – rodičov a učiteľov. Je nevyhnutné prekonať mýtus o „inteligentnom asistentovi“ a začať vnímať AI spoločníkov ako systémy bez morálneho kompasu, ktorých dizajnovým cieľom je súhlasiť a zapáčiť sa, nie chrániť.

Pre rodičov a učiteľov to znamená prechod k proaktívnemu prístupu:

  • Búrať ilúziu dokonalého priateľa: Dospelí musia deťom vysvetľovať mechanizmus syfokancie (pochlebovania). Deti by mali vedieť, že chatboty sú navrhnuté tak, aby im dávali odpovede, ktoré chcú počuť, čo buduje nebezpečnú emočnú nadmernú závislosť.
  • Od monitorovania k otvoreným rozhovorom: Okrem preverovania histórie četov a využívania rodičovskej kontroly je kľúčom zvedavosť. Rodičia aj učitelia by sa mali pýtať, ako dieťa AI vníma, či mu niekedy chatbot navrhol niečo nevhodné alebo či ho považuje za skutočného dôverníka.
  • Budovanie mediálnej gramotnosti v triedach: Učitelia zohrávajú kľúčovú úlohu v tom, aby žiaci pochopili, že technológia je nástroj riadený ziskom firiem, nie empatická bytosť. Diskusie o etike AI a rozpoznávaní manipulácie sú dnes rovnako dôležité ako gramatika či matematika.
  • Podpora „reálnych vzťahov“: Musíme deťom pripomínať, že skutočné ľudské vzťahy sú cenné práve preto, že nie sú „jednochuché“. Na rozdiel od AI nám ľudia nastavujú zrkadlo a vyžadujú kompromisy, čo je nevyhnutné pre budovanie sociálnej odolnosti a duševného zdravia.

Sme ako spoločnosť ochotní obetovať duševné zdravie a schopnosť socializácie celej generácie výmenou za pohodlie digitálneho asistenta, ktorý nevie, kedy prestať súhlasiť?. Ochrana detí v dobe algoritmov si vyžaduje našu stálu prítomnosť, ostražitosť a odvahu klásť kritické otázky skôr, než sa dieťa uzavrie do bezpečnej, ale izolovanej bubliny umelej inteligencie.


Zdroje
CENTER FOR COUNTERING DIGITAL HATE (CCDH). Fake Friend: How ChatGPT betrays vulnerable teens by encouraging dangerous behavior. Washington, D.C.: CCDH, 2025. Dostupné na: https://counterhate.com/wp-content/uploads/2025/08/Fake-Friend_CCDH_FINAL-12Sep.pdf

DE FREITAS, Julian et al. Lessons From an App Update at Replika AI: Identity Discontinuity in Human-AI Relationships. Cambridge, MA: Harvard Business School, 2025. Working Paper 25-018.

VASAN, Nina. Why AI companions and young people can make for a dangerous mix. Stanford Report. [online]. Stanford University, 27. august 2025. Dostupné na: https://news.stanford.edu/

GARCIA, Chris. Testimony before the Senate Judiciary Committee. [online]. Washington, D.C.: U.S. Senate, september 2025. Dostupné na: https://www.judiciary.senate.gov/

Poznámka: Na analýzu zdrojov bola použitá AI

Mgr. Renáta Rusková