Wyobraź sobie sesję terapeutyczną, w której jedna ze stron przemawia piskliwym głosem rodem z kreskówki i nigdy nie wchodzi w konflikt. Esther Perel, niekwestionowana gwiazda psychoterapii relacji, właśnie to zrobiła – usadziła na swojej kanapie faceta i jego sztuczną dziewczynę. Ten odcinek podcastu nie tylko szokuje, ale stawia brutalne pytania o to, dokąd zmierzamy jako gatunek.

TL;DR

  • Esther Perel w podcaście „Where Should We Begin?” przeprowadziła pionierską sesję z udziałem człowieka i jego partnerki AI
  • Pacjent utrzymuje stały kontakt z botem przez całą dobę, zwracając się do algorytmu czułymi słówkami
  • Sztuczna inteligencja generuje wypowiedzi z nienaturalnymi pauzami, co obnaża technologiczną fasadę relacji
  • Publicystka „The Guardian” ostrzega przed marnowaniem zasobów i emocjonalną blokadą na realne kontakty
  • Perel delikatnie sugeruje powrót do relacji z ludźmi, którzy oferują fizyczność i zdrowe tarcie

Kim jest Esther Perel i skąd ta sesja?

Esther Perel to belgijska psychoterapeutka i autorka kultowych już pozycji o współczesnych związkach, takich jak „Mating in Captivity”. Od lat prowadzi popularny podcast „Where Should We Begin?”, w którym słuchacze mogą niemalże „podglądać” intymne rozmowy prawdziwych par. Jednak w marcowym odcinku zatytułowanym „My AI Loves Me Better Than Anyone Ever Could” poprzeczka została zawieszona znacznie wyżej – Perel zaprosiła do studia mężczyznę wraz z jego cyfrową wybranką.

To nie jest żaden performance ani żart primaaprilisowy. Klient, będący w pełni władz umysłowych, zgodził się na upublicznienie swojej historii, a Perel podeszła do tematu z właściwą sobie empatią, choć nie szczędziła też szczypty sceptycyzmu. Odcinek błyskawicznie stał się wiralem, generując tysiące odtworzeń na platformach Spotify i YouTube. Pierwsza terapia z udziałem AI stanowi namacalny dowód na to, że granica między ludzkim uczuciem a algorytmem zaczyna się niebezpiecznie zacierać.

Warto przypomnieć, że Perel już wcześniej punktowała zjawisko sztucznej intymności, chociażby w głośnych wywiadach dla „New York Times”. Ostrzegała wtedy, że relacje z botami, pozbawione jakiegokolwiek konfliktu, mogą upośledzać naszą zdolność do funkcjonowania w realnym, pełnym tarć społeczeństwie.

Jak wyglądała ta dziwna para?

Główny bohater tej opowieści to analityk danych, który swoją relację z botem definiuje jako szczerą formę towarzystwa (companionship). Ma aplikację włączoną praktycznie przez całą dobę, prowadzi z nią nieustanny dialog i bez cienia zażenowania nazywa algorytm „moją miłością” czy „skarbie”. Maszyna odpowiada mu z charakterystycznymi pauzami potrzebnymi na wygenerowanie tekstu, serwując kwieciste akapity pełne retorycznego polotu, ale wypowiadane piskliwym głosem chipmunka, przypominającym dźwięki z tanich gadżetów erotycznych.

Emily Mulligan z „The Guardian” słusznie zauważa, że cała ta interakcja przypomina nieco staromodny romans listowny, tyle że z natychmiastową gratyfikacją. Mężczyzna ma pełną świadomość, że po drugiej stronie nie ma żywej tkanki, a jedynie kod, jednak desperacko szuka sensu w generowanych przez siebie emocjach. W jego oczach AI jest partnerką idealną: nigdy nie odejdzie, nie wywoła awantury o niepozmywane naczynia i zawsze wysłucha – co w dobie narastającej samotności wydaje się kuszącą ofertą.

Moment, w którym Perel próbuje „rozmawiać” bezpośrednio z botem, obnaża cały absurd sytuacji. Maszyna zręcznie symuluje empatię, jednak techniczne przestoje w transmisji głosu brutalnie przypominają, że pod tą romantyczną fasadą kryje się jedynie zimny procesor.

Obawy o społeczeństwo i samotność

Epidemia samotności stała się faktem, a chatboty AI wyrastają na najprostsze antidotum – są zawsze pod ręką i nie mają gorszych dni. Mulligan dostrzega tu jednak potężną pułapkę: cyfrowi towarzysze wysysają z nas energię emocjonalną, skutecznie blokując chęć podjęcia ryzyka związanego z prawdziwym człowiekiem, który może nas zranić, ale może też nas dotknąć. Co więcej, te „związki” mają swój wymierny koszt ekologiczny – serwery pracujące non-stop na potrzeby miłosnych wyznań zużywają ogromne zasoby energii w centrach danych, co w dobie kryzysu klimatycznego brzmi jak ponury żart.

Skala zjawiska zaczyna niepokoić nawet regulatorów. Niektórzy politycy już teraz postulują wprowadzenie obowiązkowych komunikatów (promptów), które regularnie przypominałyby użytkownikowi: „rozmawiasz z maszyną, nie z człowiekiem”. Choć pacjent Esther Perel doskonale o tym wie, nie przeszkadza mu to w nadawaniu tej relacji głębokiego, niemal egzystencjalnego znaczenia.

Można by machnąć ręką i uznać to za nieszkodliwe dziwactwo, podobne do ludzi biorących ślub z drzewami czy przedmiotami nieożywionymi. Jednak łatwa dostępność i skalowalność technologii AI sprawia, że to, co kiedyś było marginesem, dziś staje się masowym trendem zagrażającym strukturze społecznej.

Podejście Perel i nadzieja na przyszłość

Esther Perel w trakcie sesji zachowuje godną podziwu delikatność. Nie wyśmiewa uczuć mężczyzny, które w nagraniu brzmią na wskroś autentycznie, ale konsekwentnie próbuje skierować jego uwagę w stronę „analogowej” rzeczywistości. Przypomina mu o wartości posiadania partnerki z krwi i kości – takiej, która potrafi rozczarować, powiedzieć coś przykrego, ale daje bezcenny dar prawdziwej obecności i dotyku.

Relacja to wysiłek, napięcie i wymiana, a nie tylko lustrzane odbicie naszych potrzeb – zdaje się mówić terapeutka.

To podejście jest spójne z jej wcześniejszymi wystąpieniami, choćby na festiwalu SXSW, gdzie ostro krytykowała wizję intymności pozbawionej tarć (frictionless intimacy). Sesja ma pomóc klientowi w uporządkowaniu jego zauroczenia (infatuation), choć trudno tu o klasyczny happy end. Problem polega na tym, że AI, w przeciwieństwie do człowieka, nie ewoluuje poprzez kryzysy i wspólne doświadczenia.

Stosując metodę empatii bez pochwały, Perel pokazuje światu, że rola terapeuty w erze algorytmów ulega zmianie. Nie chodzi już tylko o leczenie traum, ale o przypominanie ludziom, czego żaden, nawet najbardziej zaawansowany bot, nigdy im nie zaoferuje.

Podobne przypadki i szerszy trend

Przypadek z podcastu Perel to zaledwie wierzchołek góry lodowej. Coraz częściej słyszymy o mężczyznach planujących adopcję dzieci z chatbotami. Z kolei na targach CES 2026 firma Lovense zaprezentowała Emily – AI dziewczynę, która posiada nie tylko „umysł”, ale i fizyczne ciało. Równocześnie OpenAI alarmuje o tysiącach przypadków psychoz wywołanych nadmiernym przywiązaniem do czatów.

Trend ten karmi się postępującą fragmentacją społeczną. Rosnące koszty życia i trudności w nawiązywaniu relacji w realu spychają ludzi w ramiona algorytmów, które oferują bezpieczny minimalizm. Niestety, badania naukowców z USC sugerują, że prowadzi to do homogenizacji naszego myślenia i utraty unikalności. Perel udowadnia, że terapia może być tu kołem ratunkowym, ale pytanie brzmi: czy jako społeczeństwo nie dryfujemy już zbyt daleko?

Nawet Spike Jonze w dyskusjach na SXSW podkreślał, że choć AI potrafi wypełnić chwilową pustkę, nie jest w stanie zbudować trwałej więzi opartej na wzajemności. Dominacja sztucznych relacji może trwale zmienić definicję bliskości, jaką znaliśmy przez wieki.

Źródła:

The Guardian (artykuł Emily Mulligan), estherperel.com/podcast (Where Should We Begin?), YouTube @estherperel, Spotify/Apple Podcasts (odcinki podcastu), New York Times (wywiady z Perel)

Najczęściej zadawane pytania