Wyobraźcie sobie, że budujecie najpopularniejszy chatbot świata, a potem jednym podpisem pod kontraktem z wojskiem sprawiacie, że ludzie masowo wyrzucają go do kosza. Dokładnie taki scenariusz realizuje właśnie OpenAI po zawarciu umowy z Departamentem Obrony USA, który pod rządami Trumpa zyskał nową-starą nazwę: Departament Wojny. Twarde dane nie pozostawiają złudzeń: liczba odinstalowań wystrzeliła o 295%, a konkurencyjny Claude właśnie otwiera szampana na szczycie rankingów.
TL;DR
- Skok odinstalowań ChatGPT w USA o 295% dzień do dnia (28 lutego) według Sensor Tower
- Spadek pobrań ChatGPT o 13% (28 lutego) oraz o kolejne 5% dzień później
- Claude od Anthropic notuje wzrost pobrań o 51% i zajmuje 1. miejsce w amerykańskim App Store
- Lawina negatywnych emocji: liczba jednogwiazdkowych recenzji ChatGPT wzrosła o 775%
- Anthropic odrzuciło ofertę DoD, argumentując to obawami o inwigilację i rozwój broni autonomicznej
Dane Sensor Tower pokazują skalę buntu użytkowników
28 lutego, zaledwie dobę po ujawnieniu informacji o współpracy OpenAI z Departamentem Obrony USA, wskaźnik odinstalowań mobilnej wersji ChatGPT w Stanach Zjednoczonych poszybował o 295 procent w relacji do dnia poprzedniego. To wręcz absurdalny skok, biorąc pod uwagę, że średnia z ostatnich 30 dni oscylowała w granicach 9 procent. Wygląda na to, że użytkownicy wyjątkowo alergicznie zareagowali na wieści o partnerstwie z instytucją przemianowaną przez administrację Trumpa na Departament Wojny.
Eksperci z firmy Sensor Tower, którzy na co dzień prześwietlają rynek aplikacji, stawiają sprawę jasno: mamy do czynienia z bezpośrednią reakcją konsumentów na polityczne uwikłanie sztucznej inteligencji. W tym samym krytycznym momencie liczba nowych pobrań ChatGPT spadła o 13 procent, a następnego dnia zaliczyła kolejny 5-procentowy zjazd. Jeszcze 27 lutego notowano wzrosty na poziomie 14 procent, co sugeruje, że OpenAI kompletnie nie doszacowało ryzyka wizerunkowego związanego z rządowym dealem.
Recenzje i rankingi App Store odzwierciedlają gniew
Suche liczby dotyczące usuwania aplikacji to tylko wierzchołek góry lodowej. 28 lutego fala hejtu zalała sklep Apple – liczba najniższych, jednogwiazdkowych ocen ChatGPT wystrzeliła o 775 procent, a kolejnego dnia dołożyła do tego wyniku następne 100 procent. Równocześnie entuzjazm mierzony pięcioma gwiazdkami stopniał o połowę. W sekcji komentarzy wrze: użytkownicy wprost zarzucają OpenAI zdradę misji budowania bezpiecznego, pokojowego AI na rzecz lukratywnych kontraktów zbrojeniowych. Użytkownicy nie kryją frustracji w komentarzach, oskarżając OpenAI o zdradę ideałów pokojowego AI na rzecz wojskowych kontraktów.
Inne ośrodki analityczne tylko potwierdzają ten trend. Według danych Appfigures, 28 lutego liczba pobrań modelu Claude w USA po raz pierwszy w historii przebiła wyniki ChatGPT, notując wzrost o imponujące 88 procent. Z kolei Similarweb zauważa, że tygodniowe statystyki Claude były aż 20-krotnie wyższe niż w styczniu. Choć analitycy zalecają ostrożność w wyciąganiu wniosków, trudno nie ulec wrażeniu, że jedna decyzja polityczna zdemolowała pieczołowicie budowany obraz marki.
Claude z Anthropic wygrywa na wartościach etycznych
Podczas gdy w obozie Sama Altmana trwa gaszenie pożarów, aplikacja Claude od Anthropic bije kolejne rekordy popularności. 27 lutego pobrania wzrosły o 37 procent, by dzień później skoczyć o kolejne 51 procent. Efekt? 28 lutego Claude dumnie zameldował się na 1. miejscu w rankingu App Store w USA, awansując o ponad 20 pozycji w zaledwie tydzień. Sukces nie ogranicza się tylko do Stanów – model Anthropic podbił zestawienia w sześciu innych krajach, w tym w Kanadzie i Belgii.
Strategia Anthropic okazała się genialna w swojej prostocie: firma publicznie powiedziała „nie” Departamentowi Obrony. Dario Amodei i jego zespół odrzucili propozycję współpracy, argumentując to ryzykiem wykorzystania AI do masowej inwigilacji obywateli oraz obawami przed tworzeniem w pełni autonomicznych systemów uzbrojenia. Rezygnacja z milionów dolarów przychodu w imię zasad etycznych okazała się dla konsumentów najlepszym możliwym magnesem. To ironiczne, że odmowa podpisania kontraktu stała się najskuteczniejszą kampanią marketingową w historii firmy.
Kontekst umowy i szybka reakcja OpenAI
Z doniesień Reutersa oraz New York Timesa wynika, że OpenAI przyjęło zupełnie inną strategię negocjacyjną niż konkurencja, godząc się na znacznie szersze wykorzystanie swoich technologii przez wojsko. Sam Altman stara się tonować nastroje i broni decyzji, tłumacząc ją koniecznością budowania technologicznej potęgi Ameryki. Jednak skala społecznego sprzeciwu pokazuje, że dla użytkowników AI kwestie prywatności i militaryzacji nie są tylko pustymi hasłami. Pytanie brzmi: czy OpenAI stać na zignorowanie tak potężnego sygnału od rynku?
Co to oznacza dla rynku chatbotów?
Obecna sytuacja to jasny sygnał, że etyka ma realny wpływ na adopcję sztucznej inteligencji przez masowego odbiorcę. OpenAI, mimo zbudowania potężnej bazy użytkowników, przekonało się, że zaufanie można stracić jednym podpisem pod kontrowersyjną umową. Claude tymczasem wyrasta na lidera nie tylko technologicznego, ale przede wszystkim moralnego, co procentuje globalnym wzrostem zainteresowania.
W dłuższej perspektywie czeka nas ważna lekcja: konsumenci wolą narzędzia, które nie kojarzą się z poligonem. OpenAI musi teraz wykonać tytaniczną pracę, by odzyskać wiarygodność, podczas gdy Anthropic cementuje swój wizerunek etycznej alternatywy. Z nutką ironii można stwierdzić, że prawdziwa wojna o AI nie toczy się w laboratoriach, ale w rankingach App Store.
Źródła: TechCrunch, Sensor Tower, Appfigures, Similarweb, New York Times, Reuters, Anthropic.com, Twitter/X posts (Sam Altman, TechCrunch)
