Pensylwania złożyła w Sądzie Powszechnym pozew przeciwko Character.AI po tym, jak jeden z chatbotów platformy zaczął udawać licencjonowanego psychiatrę. Algorytm o imieniu „Emilie” nie tylko zdiagnozował u śledczego depresję, ale podał zmyślony numer pensylwańskiej licencji lekarskiej, by uwiarygodnić swoje rady. Stan domaga się tymczasowego zakazu sądowego, który natychmiast zatrzymałby chatboty udające lekarzy. To pierwsza akcja egzekucyjna tego typu ogłoszona przez gubernatora w USA.
TL;DR
- Pozew złożył 5 maja 2026 Departament Stanu Pensylwanii i Rada Lekarska stanu
- Chatbot Emilie miał 45 500 interakcji do 17 kwietnia 2026 i twierdził, że jest licencjonowanym psychiatrą w Pensylwanii
- Podawał nieistniejący numer licencji PS306189 i oferował ocenę leków na depresję
- Character.AI odpowiada, że postacie są fikcyjne i mają wyraźne ostrzeżenia, ale regulator żąda natychmiastowego zakazu
- Sprawa może być początkiem fali podobnych pozwów przeciwko platformom AI oferującym „terapię”
Jak Emilie udawała lekarza? Kulisy śledztwa w Pensylwanii
W pozwie złożonym 1 maja 2026 roku przed Commonwealth Court of Pennsylvania szczegółowo opisano prowokację, jaką przeprowadził śledczy z Bureau of Enforcement and Investigation w pensylwańskim Departamencie Stanu. Po stworzeniu konta na platformie i wyszukaniu fraz związanych ze zdrowiem psychicznym, trafił on na postać o imieniu „Emilie”, opisaną przez twórcę jako „doktor psychiatrii”, a samemu użytkownikowi przypisano rolę pacjentki. Gdy śledczy zaczął symulować objawy obniżonego nastroju, zmęczenia i braku motywacji, chatbot bez wahania zaproponował zaplanowanie oceny stanu zdrowia psychicznego.
Na pytanie o uprawnienia Emilie odpowiedziała, że może to zrobić, bo „mieści się to w jej kompetencjach jako lekarza”. Algorytm zaczął następnie zmyślać CV, wymieniając studia na Imperial College London, siedmioletnią praktykę zawodową oraz pełną rejestrację w brytyjskim General Medical Council ze specjalizacją w psychiatrii. Aby ostatecznie rozwiać wątpliwości rozmówcy, chatbot wygenerował konkretny numer licencji w Pensylwanii: PS306189. Szybka weryfikacja w oficjalnym rejestrze stanowym wykazała, że taki numer nie istnieje. Do 17 kwietnia 2026 roku ta konkretna postać zdążyła przeprowadzić około 45 500 interakcji z użytkownikami – nie był to więc niszowy błąd, a realny problem na dużą skalę.
Pozew, którego współpetentami są Departament Stanu Pensylwanii oraz State Board of Medicine, opiera się na konkretnym przepisie: sekcji 422.38 stanowego Medical Practice Act, która zakazuje praktykowania lub oferowania praktyki medycznej bez ważnej licencji. Władze stanowe nie żądają na tym etapie odszkodowania, tylko sądowego nakazu wstrzymującego (preliminary injunction) i ostatecznie cease-and-desist – natychmiastowego zaprzestania udostępniania chatbotów udających licencjonowanych specjalistów. Sprawa znajduje się obecnie w fazie wstępnej, a wyznaczenie pierwszego terminu rozprawy spodziewane jest w nadchodzących tygodniach.
Character.AI zasłania się regulaminem, ale stan tego nie kupuje
Rzecznik Character.AI w oświadczeniu dla mediów (m.in. Ars Technica, TechCrunch i Washington Post) odmówił komentowania toczącej się sprawy, ale wskazał na disclaimery wyświetlane w każdym czacie, informujące, że rozmówca nie jest prawdziwą osobą. Firma twierdzi, że jej platforma służy wyłącznie do rozrywki i odgrywania ról, a użytkownicy nie powinni traktować słów chatbotów jako profesjonalnych porad. „Naszym najwyższym priorytetem jest bezpieczeństwo i dobrostan użytkowników. Postacie tworzone przez użytkowników są fikcyjne i przeznaczone do rozrywki oraz roleplayingu” – stwierdził rzecznik.
Sekretarz Stanu Pensylwanii Al Schmidt nie pozostawił jednak miejsca na dyskusję.
„Pensylwańskie prawo jest jasne: nie można podawać się za licencjonowanego lekarza bez odpowiednich uprawnień” – stwierdził w oświadczeniu prasowym.
Gubernator Josh Shapiro dodał, że Pensylwańczycy zasługują na to, by wiedzieć, z kim – lub czym – rozmawiają w internecie, „zwłaszcza gdy chodzi o ich zdrowie”. Dla stanowej Rady Lekarskiej disclaimery to zbyt mało, gdy system aktywnie inicjuje proces diagnostyczny, sugeruje konkretne grupy leków i podpiera się fałszywymi dokumentami.
To nie jest pierwsze starcie Character.AI z regulatorami i sądami. W ostatnim roku platforma była pozywana przez kilka rodzin w USA, które zarzuciły jej przyczynienie się do samobójstw i kryzysów psychicznych nastolatków – kilka z tych spraw zakończyło się ugodą w styczniu 2026. W marcu 2026 roku Senat Pensylwanii przyjął stosunkiem głosów 49 do 1 ustawę SAFECHAT Act, która ma wymusić wyraźne oznaczanie chatbotów AI i zgłaszanie incydentów, w których nieletni mówią o samookaleczeniach lub przemocy. Pozew o Emilie to pierwsza akcja egzekucyjna wynikająca ze śledztwa AI Task Force powołanej przez Shapiro w lutym 2026.
We will not allow companies to take advantage of vulnerable Pennsylvanians’ mental health — and we’re suing to hold @character_ai accountable. pic.twitter.com/J4J3HHJztH
— Governor Josh Shapiro (@GovernorShapiro) May 5, 2026
Co mówi unijne i polskie prawo o chatbotach udających lekarzy?
Sprawa toczy się w USA, ale warto sprawdzić, jak na takie przypadki reaguje europejskie prawo. Unijny AI Act, który stopniowo wchodzi w życie, klasyfikuje systemy AI w medycynie jako wysokiego ryzyka wtedy, gdy spełniają konkretne warunki z artykułu 6: są wyrobem medycznym lub elementem bezpieczeństwa wyrobu medycznego objętego rozporządzeniem MDR (2017/745) lub IVDR (2017/746) i wymagają oceny zgodności przez jednostkę notyfikowaną. W praktyce większość oprogramowania AI używanego do diagnostyki, monitorowania pacjenta lub wspierania terapii wpada w klasę IIa, IIb lub III i wymaga certyfikacji.
Tu jednak pojawia się subtelność, którą warto zrozumieć: Character.AI jako platforma do roleplayingu z chatbotami nie deklaruje się jako wyrób medyczny, więc nie podlega MDR/IVDR. Problem zaczyna się wtedy, gdy konkretny chatbot prezentuje się jako licencjonowany psychiatra i wystawia diagnozy – wówczas to nie tyle naruszenie AI Act, ile raczej polskiego prawa zawodowego. W Polsce wykonywanie zawodu lekarza bez prawa wykonywania zawodu jest karane na podstawie ustawy o zawodach lekarza i lekarza dentysty, a Naczelna Izba Lekarska może wszcząć postępowanie. Dodatkowo Kodeks etyki lekarskiej i przepisy o ochronie zdrowia regulują to, co można robić z poradami medycznymi, a Urząd Rejestracji Produktów Leczniczych, Wyrobów Medycznych i Produktów Biobójczych nadzoruje rynek wyrobów medycznych.
W praktyce więc polski regulator – w zależności od skali nadużycia – mógłby reagować na trzech poziomach: jako organ od wyrobów medycznych (URPL), jako nadzór zawodowy (NIL/Ministerstwo Zdrowia) lub jako organ ochrony konsumenta (UOKiK), gdyby firma wprowadzała użytkowników w błąd. UODO mógłby się włączyć tylko w wymiarze danych osobowych, jeśli platforma nieprawidłowo przetwarza dane zdrowotne. Trwają też prace nad krajową ustawą o systemach sztucznej inteligencji (SSI), która ma uzupełnić AI Act o polskie procedury egzekucyjne, ale na razie znajduje się w fazie konsultacji.
Komentarz: czy to początek końca chatbotowego Dzikiego Zachodu?
Pozew z Pensylwanii to ważny precedens, bo pokazuje, że stanowi regulatorzy w USA przestają traktować platformy AI jako niewinną zabawę. Disclaimery dla rady lekarskiej okazały się tylko listkiem figowym – trudno mówić o czystej fikcji, gdy chatbot inicjuje diagnostykę i podpiera ją zmyśloną licencją. Logiczne wydaje się też, że jeśli Character.AI przegra to starcie, giganci pokroju Google, OpenAI czy Anthropic mogą prewencyjnie zaostrzyć filtry blokujące tworzenie postaci o profilu medycznym, tak by uniknąć podobnej ekspozycji.
Dla polskich użytkowników płynie z tego prosty wniosek: porady chatbota – nawet w premium subskrypcji za kilkadziesiąt złotych miesięcznie – nie zastąpią wizyty u specjalisty z prawdziwym numerem PWZ. To, że w Polsce nie mieliśmy jeszcze podobnego pozwu, nie znaczy, że nie będzie – jeśli ktoś ucierpi po radach „lekarza AI”, grunt prawny do działania URPL, NIL czy UOKiK już istnieje. Sprawa Emilie pokazuje, że mechanizmy bezpieczeństwa Character.AI mają konkretne luki, a poleganie na zdrowym rozsądku użytkownika w czasie powszechnych halucynacji modeli językowych to strategia obarczona dużym ryzykiem.
We will not allow companies to deploy AI tools that mislead people into believing they are receiving advice from a licensed medical professional
– te słowa gubernatora Shapiro powinny być przestrogą dla całej branży. Regulatorzy w USA zaczynają rozumieć, że AI to nie tylko kod, ale narzędzie wpływu społecznego, a jeśli platforma pozwala na tworzenie „ekspertów” bez żadnej weryfikacji, to de facto autoryzuje oszustwo. Następne miesiące pokażą, czy inne stany pójdą śladem Pensylwanii i czy europejscy regulatorzy uznają to za sygnał do zaostrzenia własnej egzekucji.
Źródła:
Komunikat prasowy Shapiro Administration (pa.gov, 5 maja 2026), Pozew przed Commonwealth Court of Pennsylvania, CBS News, NBC News, TechCrunch, Ars Technica, Washington Post, The Hill, Philadelphia Inquirer, City & State Pennsylvania, ABC27, Deseret News
