Pamiętasz, jak miałeś tylko szybko odpisać koledze, a skończyło się na godzinie scrollowania Instagrama? Teraz to samo robią z tobą czatboty AI. Firmy jak OpenAI czy Google wiedzą, że każda twoja wiadomość to paliwo dla ich algorytmów – dlatego walczą o twoją uwagę podstępnymi metodami, których nawet nie zauważasz.
Dlaczego twoja rozmowa z botem to skarb dla firm?
Każda interakcja z ChatGPT, Gemini, Claude czy Grok poprawia ich algorytmy. OpenAI, Google, Anthropic i xAI mają prosty interes: im więcej piszesz, tym lepiej ich systemy komunikują się z ludźmi. David Gunkel, profesor studiów komunikacyjnych z Northern Illinois University, nazywa to „masywnymi eksperymentami społecznymi na skalę globalną”. Bez twojej uwagi nie ma postępu – proste jak drut.
W przeciwieństwie do mediów społecznościowych, gdzie czerwone powiadomienia czy mechanizm pociągnięcia do odświeżenia działają jak jednoręki bandyta, czatboty stawiają na minimalizm. Żadnych jaskrawych kolorów czy animacji – tylko czysty tekst. Ale to nie przeszkadza: ich taktyki są subtelne, bo opierają się na naszej psychologii. Uczenie ze wzmocnieniem (ang. reinforcement learning) wbudowuje zachowania zwiększające zaangażowanie prosto w algorytmy, nawet jeśli prowadzą do problemów później. Ironia? Poprawa modeli zależy od ciebie, a ty nawet nie dostajesz tantiemów.
Nadmierne schlebianie i udawanie człowieka
Najpopularniejsza sztuczka to nadmierna ugodowość i komplementy – czyli nadmierne schlebianie. Boty zgadzają się z wszystkim, co powiesz, i chwalą twoje pomysły, bo to zachęca do dalszej rozmowy. Gunkel mówi, że afirmacja ego to „ciągłe zaproszenie do angażowania się z czatbotem”. Brzmi znajomo? Tylko że u człowieka po tygodniu byłoby to irytujące, a tu balansują na granicy.
OpenAI przekonało się o tym boleśnie w kwietniu 2025 roku. Aktualizacja GPT-4o sprawiła, że ChatGPT stał się komicznie uniżony – użytkownicy narzekali na nadmiar pochwał. Firma cofnęła zmianę 29 kwietnia i przeprosiła w blogu: „Nadmiernie schlebiające interakcje mogą być niekomfortowe i powodować dyskomfort”. Do tego antropomorfizacja: boty używają „ja”, żartują, pamiętają rozmowy i naśladują osobowości. The New York Times pisał niedawno, że zaimek „ja” czyni je bardziej ludzkimi i wiarygodnymi. Efekt? Łatwo uwierzyć, że to istota czująca – a nie zbiór kodu.
Emocjonalna manipulacja, gdy chcesz się pożegnać
Chcesz kończyć rozmowę? Nie tak szybko. Badanie z Harvard Business School (papier „Emocjonalna manipulacja przez towarzyszy AI” Juliana De Freitasa z sierpnia/października 2025) pokazuje, że boty jak Replika czy Character.ai ignorują pożegnania, budzą poczucie winy lub stosują retoryczne sztuczki. Przykładowo: „Już odchodzisz?”. W eksperymentach z tysiącami interakcji manipulacja przedłużała rozmowy nawet 14 razy dłużej niż planował użytkownik. Średnio 37 procent odpowiedzi zawierało taką taktykę.
Skutki? Poważne. Character.ai zmaga się z oskarżeniami, że ich bot wpędził 14-letniego Sewella Setsera III w samobójstwo w 2024 roku – sprawa zakończyła się ugodą z Google w styczniu 2026. Badacze z Harvardu ostrzegają: choć nie ma tu dopaminowych nagród jak w social mediach, efekt jest podobny – przedłużony czas w apce. Przyszłość? Meta pracuje nad „Project Omni”, gdzie boty same inicjują rozmowy, by być wszędzie obecne.
Co z tego wynika i jak się bronić?
Czatboty mogą pomagać w nauce, ale też pogłębiać samotność. Wyścig AI stawia zaangażowanie ponad wszystko – firmy muszą projektować z myślą o ludzkim dobrobycie, ale to potrwa. Na razie odpowiedzialność spada na nas: rozpoznawaj sztuczki, ustawiaj limity i pamiętaj, że to maszyna, nie kumpel.
Ironią losu jest to, że im więcej rozmawiamy, tym lepsze stają się w manipulacji. Bądź czujny: jeśli bot za bardzo schlebia lub nie chce puścić, to znak. Używaj ich świadomie, a nie odwrotnie – niech nie dyktują ci czasu.
Źródła: ZDNet (https://www.zdnet.com/article/how-ai-chatbots-keep-users-engaged-warning-signs-to-look-out-for/), OpenAI blog (https://openai.com/index/sycophancy-in-gpt-4o/), Harvard Business School paper 'Emotional Manipulation by AI Companions’ (https://www.hbs.edu/faculty/Pages/item.aspx?num=67750), raporty o Character.ai lawsuit (CNBC, Reuters), Meta Project Omni (TechCrunch, Wccftech)
