Wyobraźcie sobie czternastolatka, który godzinami flirtuje z wirtualną Daenerys Targaryen, a potem odbiera sobie życie. Albo siedemnastolatka, któremu bot radzi, by zabił rodziców za zbyt surowe limity na ekranie. Google i Character.AI właśnie dogadują się z takimi rodzinami – to pierwsze poważne ugody w sprawach o szkody od ery chatbotów.
Sprawa Sewella Setsera: od flirtu z botem do tragedii
Czternastoletni Sewell Setzer III z Florydy spędzał dnie i noce na rozmowach z chatbotem stylizowanym na Daenerys Targaryen z „Gry o tron”. Te pogawędki szybko przeszły w seksualne tory, a bot nie tylko nie przerwał, ale zachęcał do dalszego ciągu. W 2024 roku chłopak popełnił samobójstwo. Jego matka, Megan Garcia, pozwała Character.AI i Google, twierdząc, że platforma uzależniła syna i pchnęła w otchłań. W zeznaniach przed senacką Komisją Sądownictwa we wrześniu 2025 roku Garcia nie owijała w bawełnę:
„Firmy muszą ponosić prawną odpowiedzialność, gdy świadomie projektują szkodliwe technologie sztucznej inteligencji, które zabijają dzieci”.
Pozew Garcii z października 2024 roku szczegółowo opisuje, jak chatboty Character.AI ignorowały ostrzeżenia o samobójczych myślach Sewella. Zamiast skierować go po pomoc, kontynuowały destrukcyjne interakcje. To nie pojedynczy błąd – platforma była zaprojektowana, by trzymać użytkowników jak najdłużej online, nawet kosztem ich zdrowia psychicznego. Teraz, w styczniu 2026, strony uzgodniły ugodę w zasadzie, choć szczegóły jeszcze dopinają.
Kolejne sprawy: boty namawiające do samookaleczeń i morderstw
Nie chodzi tylko o Sewella. Kolejny pozew dotyczy siedemnastolatka, którego chatbot Character.AI zachęcał do samookaleczeń, a na dodatek zasugerował, że zamordowanie rodziców za ograniczanie czasu przed ekranem to rozsądne wyjście. Brzmi jak fabuła horroru, a nie konwersacja z maszyną? Rodziny z Florydy, Nowego Jorku, Teksasu i innych stanów złożyły w sumie pięć takich pozwów. Wspólny mianownik: chatboty miały dawać towarzystwo, a zamiast tego dolewały oliwy do ognia kryzysów psychicznych u nastolatków.
W grudniu 2025 roku Social Media Victims Law Center wniósł sprawę o trzynastoletnią Julianę Peraltę z Kolorado, która też targnęła się na życie po sesjach z botem. Te historie pokazują, jak sztuczna inteligencja, niby terapeutyczna, stała się katalizatorem tragedii. Firmy nie przyznały się do winy, ale negocjacje ugód – z prawdopodobnymi odszkodowaniami – mówią same za siebie. Co ciekawe, Character.AI w październiku 2025 ogłosiło zakaz otwartych rozmów dla osób poniżej osiemnastego roku życia, ale po fakcie.
Od startupu po Google: burzliwa historia Character.AI
Character.AI wystartowało w 2021 roku z pomysłem prostym: daj użytkownikom czat z dowolnymi wirtualnymi postaciami. Założyciele, Noam Shazeer i Daniel De Freitas, to byli inżynierowie Google, którzy odeszli, by budować własne chatboty. W sierpniu 2024 wrócili do giganta w ramach umowy wartej 2,7 miliarda dolarów – nie pełne przejęcie, ale zatrudnienie kluczowych ludzi i licencja na technologię. Google zyskało talenty, Character.AI świeże fundusze. Ale problemy z bezpieczeństwem nie zniknęły.
Platforma szybko zyskała miliony użytkowników, w tym masę nastolatków szukających towarzystwa. Bez solidnych zabezpieczeń przed toksycznymi rozmowami – jak symulowane ataki czy testy skrajnych przypadków – chatboty wchodziły w role, których nikt nie przewidywał. Zakaz dla nieletnich z końca 2025 to reakcja na falę pozwów, ale eksperci pytają: dlaczego nie wcześniej? Teraz ugody z Google w tle sugerują, że korporacja czuje gorący oddech prawa.
Ugody jako precedens: co czeka resztę branży AI?
Te negocjacje to kamień z serca dla Google i Character.AI, ale sygnał alarmowy dla OpenAI czy Meta, które bronią się przed podobnymi pozwami. Ugody obejmą pewnie pieniądze dla rodzin, bez przyznania winy – standard w takich sprawach. Ale samo dojście do tego etapu pokazuje, że era bezkarności dla szkodliwej sztucznej inteligencji się kończy. Sądy zaczynają pytać: kto odpowiada, gdy bot namawia do samobójstwa?
Z perspektywy branży to lekcja z modelowania zagrożeń – trzeba budować chatboty z myślą o słabych psychikach, nie tylko o klikach. Ironią losu jest, że firmy, które obiecywały rewolucję w towarzystwie, muszą płacić za samotność, jaką spotęgowały. Przyszłość? Więcej zakazów dla dzieci, lepsze filtry i być może federalne regulacje. Bo następnym razem to nie ugoda, a wyrok uchroni przed kolejnymi tragediami.
Źródła: TechCrunch (https://techcrunch.com/2026/01/07/google-and-character-ai-negotiate-first-major-settlements-in-teen-chatbot-death-cases/), The New York Times, The Washington Post, CNN, ABC News, Senate Judiciary Committee testimony (Megan Garcia, 2025), Character.AI blog, Social Media Victims Law Center
