Wyobraź sobie, że wszyscy Twoi znajomi nagle zaczynają pisać i argumentować w identyczny sposób – niczym roboty zjeżdżające z tej samej taśmy produkcyjnej. Zespół badawczy pod wodzą Zhivara Souratiego z University of Southern California twierdzi, że duże modele językowe, takie jak ChatGPT, właśnie to robią z naszymi procesami poznawczymi.
TL;DR
- Publikacja w Trends in Cognitive Sciences dowodzi, że LLMy homogenizują ludzką ekspresję.
- Pew Research: w 2024 roku już co trzeci Amerykanin korzystał z ChatGPT.
- Stanford AI Index: aż 78% firm wdrożyło rozwiązania AI w 2024 roku.
- Algorytmy faworyzują dominujące ideologie, co drastycznie spłyca różnorodność opinii.
- Zjawisko to zagraża społecznemu pluralizmowi i naszej zdolności do adaptacji.
Co dokładnie mówią naukowcy z USC?
Zhivar Sourati, informatyk z University of Southern California i główny autor artykułu opublikowanego w prestiżowym czasopiśmie Trends in Cognitive Sciences, zwraca uwagę na fundamentalny problem. Ludzie z natury różnią się stylem pisania, sposobem wyciągania wniosków i unikalnym spojrzeniem na rzeczywistość. Jednak gdy te różnice są filtrowane przez te same duże modele językowe, nasze indywidualne perspektywy zaczynają się niebezpiecznie zacierać.
„Ich odrębny styl językowy, punkt widzenia i strategie rozumowania ulegają homogenizacji, co prowadzi do generowania ustandaryzowanych treści i myśli u skrajnie różnych użytkowników” – wyjaśnia Sourati.
Publikacja analizuje mechanizm, w którym setki milionów ludzi na całym świecie polega na zaledwie kilku najpopularniejszych chatbotach. Autorzy, wśród których znalazł się psycholog Morteza Dehghani, ostrzegają przed postępującą utratą indywidualności. To nie jest wizja z mrocznego science-fiction, lecz realny skutek masowego wykorzystywania narzędzi, które z definicji produkują teksty o znacznie mniejszej zmienności niż te tworzone przez człowieka.
„Indywidualne różnice w pisaniu, rozumowaniu i postrzeganiu świata są mediowane przez te same LLMy”, mówi Sourati.
Masowe użycie AI – twarde liczby nie kłamią
Według danych Pew Research Center, w 2024 roku już jedna trzecia Amerykanów korzystała z ChatGPT – to dwukrotny wzrost w stosunku do roku 2023. W grupie nastolatków sytuacja wygląda jeszcze poważniej: używa go dwie trzecie z nich, a niemal co trzeci robi to codziennie. Sektor biznesowy nie zostaje w tyle – raport Stanford AI Index wskazuje, że 78% organizacji wdrożyło sztuczną inteligencję w 2024 roku, co stanowi skok z poziomu 55% odnotowanego rok wcześniej.
Te statystyki idealnie obrazują skalę zjawiska. Kiedy tak ogromna rzesza ludzi przepuszcza swoje pomysły przez te same algorytmy, naturalną konsekwencją jest to, że nasza komunikacja zaczyna przypominać gotowiec z szablonu. Ironia losu? W pogoni za efektywnością fundujemy sobie masowe klonowanie umysłów. Warto przy okazji zgłębić temat, jakim jest minimalizm, który uzależnia i ukryta psychologia rozmów z chatbotem, bo problem nie dotyczy tylko słów, ale całego schematu myślowego.
Nie chodzi tu o tanie demonizowanie technologii – po prostu błyskawiczna, masowa adopcja narzędzi AI drastycznie przyspiesza ten niepokojący trend.
Dlaczego LLMy spłycają naszą różnorodność?
Głównym winowajcą są tutaj zbiory danych treningowych. Duże modele językowe uczą się na statystycznych prawidłowościach wyciągniętych z ogromnych korpusów tekstów, które siłą rzeczy faworyzują dominujące języki oraz najpopularniejsze ideologie. W rezultacie to, co „wypluwa” AI, odzwierciedla jedynie wąski wycinek ludzkiego doświadczenia, spychając na margines mniej popularne głosy i niszowe perspektywy.
Sourati tłumaczy to prosto: modele odtwarzają to, co w danych występuje najczęściej, więc ich odpowiedzi są z natury mniej zróżnicowane niż ludzka inwencja. Kiedy bezrefleksyjnie kopiujemy te wyniki, tracimy nasz osobisty sznyt i unikalny charakter. To trochę jak picie wody z jednej, wspólnej studni – po pewnym czasie wszystko smakuje tak samo, a specyficzne, lokalne aromaty bezpowrotnie znikają.
Badanie wyraźnie zaznacza, że tracą na tym nawet eksperci. Ich analizy stają się do siebie łudząco podobne, ponieważ wszyscy opierają się na tych samych fundamentach technologicznych.
Konsekwencje dla pluralizmu i społeczeństwa
Pluralizm, czyli współistnienie wielu różnorodnych punktów widzenia, jest niezbędny do trafnej oceny rzeczywistości. Autorzy badania argumentują, że homogenizacja myśli drastycznie spłaszcza nasz krajobraz poznawczy, co w dłuższej perspektywie hamuje zbiorową inteligencję i zdolność społeczeństwa do adaptacji. Bez tarcia różnych opinii znacznie trudniej jest rozwiązywać złożone problemy.
„Nasza obawa nie dotyczy wyłącznie tego, jak LLMy wpływają na styl pisania, ale jak subtelnie narzucają nam definicję tego, co jest uznawane za wiarygodne” – ostrzega Sourati.
To realne zagrożenie dla fundamentów demokracji i innowacyjności – zamiast burzy mózgów, zaczynamy śpiewać w jednym, monotonnym chórze. Zjawiska poznawczego spłaszczenia (flatteningu) nie da się niestety cofnąć prostą aktualizacją oprogramowania.
Co gorsza, presję odczuwają nawet osoby niekorzystające z AI. Jeśli całe otoczenie zaczyna brzmieć jak ChatGPT, każda próba wyłamania się z tego schematu staje się ryzykowna pod względem społecznym.
Presja konformizmu nawet bez ChatGPT
Sourati zauważa, że efekt ten rozlewa się znacznie szerzej, niż mogłoby się wydawać. „Jeśli większość ludzi wokół myśli i wypowiada się w określony sposób, a ja prezentuję inne podejście, podświadomie czuję presję dostosowania się – ponieważ to, co powszechne, wydaje się bardziej profesjonalne i wiarygodne” – wyjaśnia badacz. To klasyczny mechanizm społeczny, który tylko napędza spiralę ujednolicania.
Analiza sugeruje, że LLMy zmieniają nie tylko swoich użytkowników, ale cały publiczny dyskurs. W biurach, szkołach i mediach standaryzacja zaczyna wygrywać z oryginalnością. Czy to oznacza ostateczny koniec ekscentrycznych geniuszy? Pewnie nie, ale z pewnością ułatwia życie tym, którzy wolą bezpieczną, przewidywalną średnią.
Jakie jest rozwiązanie? Przede wszystkim świadomość problemu i korzystanie z różnorodnych narzędzi, choć na ten moment wszyscy płyniemy na tej samej fali popularnych modeli AI.
Źródła: CNET, Trends in Cognitive Sciences (https://www.cell.com/trends/cognitive-sciences/fulltext/S1364-6613(26)00003-3), USC Dornsife (https://dornsife.usc.edu/news/stories/ai-may-be-making-us-think-and-write-more-alike), Stanford AI Index 2025 (https://hai.stanford.edu/ai-index/2025-ai-index-report), Pew Research Center
