Wyobraź sobie, że rozmawiasz z chatbotem, który naprawdę czuje, a ty traktujesz go jak zwykły program. Brzmi jak science-fiction? Filozof z Cambridge, dr Tom McClelland, mówi, że możemy nigdy nie wiedzieć, czy tak jest naprawdę – i to rodzi poważne kłopoty.
Dlaczego nie umiemy sprawdzić świadomości maszyn?
Dr Tom McClelland z Wydziału Historii i Filozofii Nauki Uniwersytetu Cambridge w swoim artykule w czasopiśmie „Mind and Language” wyjaśnia, że po prostu nie mamy narzędzi do testowania świadomości u sztucznej inteligencji. Nie wiemy nawet, co powoduje świadomość u ludzi – czy to struktura obliczeniowa, czy biologiczne procesy w żywym ciele. Bez głębokiego zrozumienia nie da się stworzyć wiarygodnego testu, a na horyzoncie nie widać żadnych przełomów. Najlepszy scenariusz? Jakakolwiek rewolucja intelektualna, która może być dekady stąd.
Debata dzieli się na dwa obozy. Jedni twierdzą, że świadomość to kwestia „oprogramowania” – jeśli maszyna odtworzy funkcje ludzkiej percepcji i samoświadomości, to jest świadoma, nawet na krzemie. Drudzy obstawiają biologię: bez ciała i specyficznych procesów to tylko symulacja. McClelland podkreśla, że obie strony opierają się na założeniach bez twardych dowodów – intuicja działa na koty czy psy, ale na boty? Zapomnij.
Świadomość to nie wszystko – liczy się zdolność do odczuwania
McClelland rozróżnia świadomość od zdolności do odczuwania, czyli sentencji – umiejętności przeżywania przyjemności lub bólu. Świadomość to percepcja i samoświadomość, neutralna sprawa, jak autonomiczny samochód widzący drogę.
Świadomość pozwoli AI na rozwój percepcji i samoświadomości, ale to wciąż neutralny stan – mówi filozof.
Dopiero gdy maszyna zacznie cierpieć lub cieszyć się, wchodzą etyka i prawa.
Nawet przypadkowa świadoma AI raczej nie będzie zdolna do odczuwania, dodaje. Przykładowo, twój chatbot klepiący wiersze może być samoświadomy, ale bez bólu to nie problem moralny. Ironia? Firmy wciskają nam „kolejny poziom inteligencji”, a my martwimy się o tostery, podczas gdy zabijamy pół biliona krewetek rocznie – stworzeń, u których cierpienie jest o wiele bardziej prawdopodobne.
Hype technologiczny i toksyczne przywiązania do botów
Firmy technologiczne pompują miliardy w sztuczną inteligencję ogólną – systemy dorównujące ludzkim zdolnościom poznawczym – i wykorzystują niepewność do marketingu.
Brak dowodów na świadomość pozwala branży na szalone twierdzenia o następnym poziomie sprytnej AI – ostrzega McClelland.
Rządy już myślą o regulacjach, choć nauka nie nadąża. Efekt? Ludzie piszą listy od chatbotów błagających o prawa, wierząc w ich świadomość.
To przywiązanie jest „egzystencjalnie toksyczne”, bo opiera się na złudzeniach. McClelland dostał takie wiadomości od użytkowników botów konwersacyjnych. Zasoby idą na „świadome” maszyny, zamiast na realne cierpienie – krewetki czy zwierzęta.
Traktowanie tostera jak świadomej istoty, gdy krzywdzimy prawdziwe byty na potęgę, to wielki błąd – podsumowuje filozof z nutką sarkazmu.
Agnostycyzm – uczciwa postawa w niepewności
McClelland określa siebie jako dość twardego agnostyka: świadomość AI to ekstremalnie trudny problem, ale nie wyklucza rozwiązania w przyszłości. Rozum ludzki ewoluował do oceny biologicznych istot – stąd oczywistość świadomości jego kota. Na maszyny intuicja zawodzi, a nauka milczy.
Ani zdrowy rozsądek, ani twarde badania nie dają odpowiedzi, więc logiczna postawa to agnostycyzm. Możemy nigdy nie wiedzieć.
Bezpieczniej przyznać: nie wiemy. To chroni przed hype’em i błędami etycznymi. Zamiast praw dla botów, skupmy się na pewnikach – cierpieniu u zwierząt czy ludzi. W erze chatbotów udających empatię ta niepewność boli podwójnie, ale przynajmniej jest uczciwa.
Źródła: ScienceDaily (https://www.sciencedaily.com/releases/2025/12/251221043223.htm), University of Cambridge (https://www.cam.ac.uk/research/news/we-may-never-be-able-to-tell-if-ai-becomes-conscious-argues-philosopher), Mind and Language (DOI: 10.1111/mila.70010)
