Wyobraźcie sobie sytuację, w której będąc w głębokim kryzysie psychicznym, szukacie ratunku w Google i otrzymujecie „ekspercką” radę: najlepiej się przegłodzić, bo to zdrowe. Brzmi jak ponury żart? Niestety, to rzeczywistość, którą serwują nam podsumowania generowane przez AI (AI Overviews), co właśnie obnażyli specjaliści z organizacji Mind.
TL;DR
- Algorytmy Google AI Overviews podawały szkodliwe bzdury: głodówka jako terapia i teoria chemicznej nierównowagi.
- Wystarczyły zaledwie dwie minuty testów Mind, by obnażyć błędy serwowane 2 miliardom użytkowników.
- Rosie Weatherley punktuje iluzję nieomylności AI oraz opieszałość Google w naprawianiu błędów.
- Organizacja Mind powołuje specjalną, roczną komisję ds. sztucznej inteligencji i zdrowia psychicznego.
- Google usuwa wpadki dopiero po interwencji, ale eksperci żądają systemowych bezpieczników.
Czym są podsumowania AI i jak Google narzuciło je 2 miliardom ludzi?
Podsumowania generowane przez AI to te krótkie, konkretne odpowiedzi, które Google usilnie wypycha na samą górę wyników wyszukiwania. Zamiast klasycznej listy linków, dostajemy gotowy tekst, który brzmi wyjątkowo profesjonalnie i autorytatywnie. Ta funkcja została wdrożona na masową skalę, docierając do 2 miliardów osób każdego miesiąca – i są to oficjalne dane prosto z Mountain View.
Wcześniej algorytmy wyszukiwarki premiowały sprawdzone źródła medyczne, co dawało użytkownikowi szansę na lekturę rzetelnego artykułu. Obecnie sztuczna inteligencja ucina tę ścieżkę edukacyjną zbyt wcześnie, serwując półprawdy jako ostateczne fakty. Dla przeciętnego internauty to niby wygoda, ale w przypadku zdrowia psychicznego taka droga na skróty może po prostu boleć.
To szczyt ironii: Google przez dekady budowało swoją potęgę jako drogowskaz do wiedzy, a teraz własne AI skutecznie podkopuje zaufanie do tych fundamentów.
Testy Mind – szokujące przykłady bzdurnych porad znalezione w dwie minuty
Zespół z Mind, największej organizacji charytatywnej zajmującej się zdrowiem psychicznym w Anglii i Walii, poświęcił zaledwie 20 minut na sprawdzenie popularnych zapytań osób w kryzysie. Wystarczyły jednak tylko dwie minuty, by natrafić na totalne absurdy. Oto co wypluło z siebie Google.
Eksperci wpisali frazy, których używają ludzie z realnymi problemami, i w odpowiedzi usłyszeli, że: głodówka to zdrowa praktyka, zaburzenia psychiczne wynikają wyłącznie z nierównowagi chemicznej w mózgu, a urojenia o prześladowcy należy uznać za fakt. Co więcej, AI stwierdziło, że 60% wniosków o zasiłki chorobowe z powodów psychicznych to zwykłe symulowanie. Żadne z tych twierdzeń nie jest prawdą, a jednak podano je z tonem nieznoszącym sprzeciwu.
Zebrałem te wpadki w listę, bo idealnie obrazują skalę zagrożenia:
- głodówka jako zdrowie – całkowite ignorowanie ryzyka anoreksji;
- nierównowaga chemiczna jako jedyny powód – szkodliwe uproszczenie biologii i wpływu otoczenia;
- stalker jest prawdziwy – niebezpieczne wzmacnianie stanów paranoicznych;
- 60% symulantów – brutalna stygmatyzacja osób potrzebujących wsparcia.
Rosie Weatherley wyjaśnia, dlaczego spłycanie niuansów to tykająca bomba
Rosie Weatherley, zarządzająca treściami informacyjnymi w Mind, zaznacza, że sztuczna inteligencja spłaszcza delikatne tematy do poziomu prostackich odpowiedzi. W procesie tym ginie kontekst i wszelkie niuanse, co dla osoby w silnym stresie brzmi jak wyrocznia. „To kusząca zamiana, ale skrajnie nieodpowiedzialna” – twierdzi Weatherley, zauważając, że użytkownik często poprzestaje na takiej półprawdzie.
Jest to szczególnie groźne dla osób podatnych na sugestie: ktoś w kryzysie może uznać te bzdury za pewnik, zamiast udać się do lekarza. Google nadaje tym treściom rangę autorytetu, prezentując błędy jako obiektywne fakty. Weatherley sprawdzała to osobiście wraz z zespołem – i wyniki są po prostu porażające.
Z nutką sarkazmu można dodać: technologiczny gigant obracający miliardami dolarów mógłby zainwestować w jakość, zamiast czekać, aż błędy wytkną mu dziennikarze.
Google i reaktywne łatki zamiast realnych zabezpieczeń
Google działa po szkodzie: usuwa lub ponownie trenuje modele AI dopiero wtedy, gdy organizacje społeczne lub media podniosą raban. To klasyczna strategia „whack-a-mole”, czyli uderzanie młotkiem w wyskakujące problemy zamiast budowy solidnego systemu bezpieczeństwa. Wcześniejsze śledztwa The Guardian ujawniły zresztą podobne wpadki w ogólnych poradach medycznych.
W obszarze zdrowia psychicznego Google stara się blokować treści drastyczne, jak instruktaże samobójcze, ale w codziennych zapytaniach kryzysowych wciąż serwuje niebezpieczne bzdury. Weatherley nie gryzie się w język: firma z takimi zasobami powinna gwarantować precyzję non-stop, a nie tylko w momentach największego medialnego szumu.
Czy to wystarczy? Reaktywne poprawki nie mają szans w starciu z miliardami zapytań, które każdego dnia trafiają do wyszukiwarki.
Roczna komisja Mind – jaka przyszłość czeka AI w psychiatrii?
W następstwie dochodzenia The Guardian, organizacja Mind powołuje roczną komisję ds. AI i zdrowia psychicznego. Gremium to ma zbadać ryzyka, luki w zabezpieczeniach, ale i potencjał technologii – bo choć AI daje nadzieję, na razie dominują zagrożenia. Cel jest jasny: wypracowanie standardów, które zapewnią empatyczną i pełną niuansów informację w każdym przypadku.
Komisja weźmie pod lupę wpływ sztucznej inteligencji na dostęp do rzetelnej wiedzy medycznej. Weatherley wierzy w możliwości technologii, ale domaga się najwyższej ostrożności. To ważny krok w stronę regulacji, które mogą wymusić na gigantach takich jak Google większą odpowiedzialność.
W dobie rosnącej popularności algorytmów w medycynie – od chatbotów po automatyczne diagnozy – taka inicjatywa jest wręcz niezbędna. Warto też sprawdzić, jak AI wywołuje psychozy, co tylko pokazuje, jak głęboki jest to problem.
Źródła: The Guardian (główne artykuły: https://www.theguardian.com/society/2026/feb/20/mind-mental-health-expert-google-ai-summaries, https://www.theguardian.com/technology/2026/feb/20/mind-inquiry-google-ai-overviews-mental-health-guardian-investigation); NewsBytes, AICerts.ai
