Wyobraź sobie sześcioletnią dziewczynkę o imieniu Alexa, którą obcy traktują jak służącą, bo Amazon nazwał tak swojego asystenta głosowego. Albo ciebie, wrzeszczącego na ChatGPT po kolejnej frustrującej odpowiedzi. Brzmi znajomo? Okazuje się, że ta niby niewinna chamskość wobec maszyn zmienia nasze nawyki – i to nie tylko z maszynami.
Ludzie o imieniu Alexa cierpią przez maszyny
W 2018 roku Lauren Johnson z Lynn w stanie Massachusetts założyła stronę alexaisahuman.com, bo jej wówczas sześcioletnia córka Alexa była non-stop dręczona. Od szkoły po sklepy – wszędzie obcy mówili do dziecka „Alexa, włącz światło!” albo traktowali jak robota. Johnson opisuje to jako dręczenie bez wytchnienia, gdzie nie ma bezpiecznego miejsca. Podobne historie zebrała w 2021 roku Alexa Juliana Ard w artykule Washington Post – ludzie o tym imieniu zmieniali je w pracy, bo szefowie nie chcieli pomyłek z urządzeniem Amazonu.
To nie żarty, a symptom szerszego problemu. Dzieci, które dorastają z asystentami głosowymi jak Alexa czy Siri, uczą się wydawać polecenia bez proszenia. Zespół z Uniwersytetu Cambridge w raporcie z 2022 roku ostrzega, że takie interakcje dają przyzwolenie na brak uprzejmości i erozję empatii u maluchów. Inwestor Hunter Walk napisał kiedyś na LinkedIn:
„Amazon Echo jest magiczne. Ale też robi z mojego dziecka chama”.
Normalizacja poleceń i disinhibicja online
Psycholog John Suler w 2004 roku opisał efekt disinhibicji online – ludzie w sieci są mniej hamowani przez anonimowość, niewidzialność i brak natychmiastowych konsekwencji. Zaczynają być gorsi niż w realu. Dziś to samo dzieje się z chatbotami jak ChatGPT: piszesz ostro, bo „to tylko maszyna”, i czujesz ulgę. UNESCO w raporcie z 2019 roku dodało, że kobiece głosy asystentów wzmacniają uprzedzenia płciowe – traktujemy je jak podległe służące.
Efekt? Normalizacja wydawania poleceń. Dzieci krzyczą na Alexę, dorośli na ChatGPT, a nawyk zostaje. Raport Cambridge pokazuje, że to hamuje rozwój empatii i myślenia krytycznego u najmłodszych. Kto nigdy nie stracił nerwów w rozmowie z ChatGPT po godzinie bezsensownej pętli niech pierwszy rzuci kamieniem. Potem jednak pojawia się pytanie, a jakby to były teamsy z kolegą? Frustrujące, ale pokazuje, jak łatwo granica się zaciera.
Okno Overtona: chamskość przechodzi na ludzi
Okno Overtona, koncepcja Josepha P. Overtona z lat 90. z Mackinac Center, opisuje zakres tego, co społeczeństwo uznaje za akceptowalne. Nieuprzejmość wobec AI rozszerza to okno – co kiedyś wydawało się nie do pomyślenia, staje się normą. Rozmowa z chatbotem przypomina czat z klientem czy szefem: ta sama klawiatura, ten sam styl. Jeśli jesteś chamem dla maszyny, nawyk wycieka do realnych relacji.
Zmiana kontekstu między uprzejmym człowiekiem a wkurzonym userem to zmęczenie decyzyjne – jak przełączanie biegów w głowie. David Gewirtz z ZDNet radzi: traktuj AI jak członka zespołu. On dzięki temu zbudował w cztery dni wtyczki do WordPressa z OpenAI Codex i apkę iPhone’a z Claude. Ja dodam: po co marnować energię na wściekłość, skoro grzeczność trzyma cię w ryzach i poprawia zdrowie psychiczne? Chamskość podnosi ciśnienie, powoduje bezsenność i osłabia odporność.
Czy grzeczność do AI ma sens? Badania mówią…
Badania mieszane. Zespół z Penn State w 2025 roku przetestował: bardzo chamskie polecenia dawały ChatGPT aż 84,8% dokładności w pytaniach wielokrotnego wyboru – lepiej niż uprzejme. Ale badacze z Uniwersytetu Waseda na konferencji EMNLP 2024 znaleźli, że umiarkowana uprzejmość zwiększa zgodność i skuteczność AI, choć przesadna pogarsza wyniki. Sam Altman z OpenAI przyznał w New York Times, że „proszę” i „dziękuję” kosztują firmę dziesiątki milionów dolarów – każdy token to prąd i woda, a ludzie w USA już protestują przeciwko stawianiu nowych centrów danych.
Ale chodzi o ciebie, nie o AI. Grzeczność buduje dyscyplinę, współpracę i chroni przed nawykami, które psują relacje. W końcu, jak pisał Szekspir: bądź wierny sobie, a nie będziesz fałszywy wobec innych. Ironia? Altman płaci miliony za twoją empatię, a ty zyskujesz lepszy humor i kontakty. Warto.
Źródła: ZDNet (https://www.zdnet.com/article/be-polite-to-your-ai/), alexaisahuman.com, Washington Post (2021), University of Cambridge (PubMed 36167481), UNESCO raport 2019, John Suler 'Online Disinhibition Effect’ 2004, Penn State study 2025 (arXiv), Waseda University EMNLP 2024 (arXiv 2402.14531), New York Times (Sam Altman 2025)
