Wyobraź sobie, że Twój tekst poprawia algorytm udający Ciebie – i to bez Twojej wiedzy. Superhuman, firma stojąca za nowymi funkcjami Grammarly, właśnie pociągnęła za hamulec bezpieczeństwa i wyłączyła kontrowersyjną opcję po potężnej burzy w środowisku ekspertów. Co właściwie poszło nie tak i czy ten ruch zmieni zasady gry w świecie AI do pisania?

TL;DR

  • Superhuman w sierpniu uruchomiło Expert Review, symulując rady ekspertów za pomocą publicznych modeli LLM.
  • Funkcję wycofano po fali krytyki – autorzy uznali to za bezprawne wykorzystanie ich wizerunku i stylu.
  • CEO Shishir Mehrotra przeprosił na LinkedIn, obiecując przejście na model dobrowolnej zgody (opt-in).
  • Julia Angwin z The Markup złożyła pozew zbiorowy za przywłaszczenie nazwisk i tożsamości.
  • Firma planuje przebudowę narzędzia, dając twórcom pełną kontrolę nad ich cyfrową reprezentacją.

Czym właściwie była funkcja Expert Review?

W sierpniu Superhuman zaprezentowało światu agenta Grammarly o nazwie Expert Review. Narzędzie to wykorzystywało publicznie dostępne dane z zewnętrznych dużych modeli językowych, aby generować sugestie edytorskie inspirowane twórczością wpływowych postaci – od znanych pisarzy i dziennikarzy, aż po szanowanych akademików. Ten sierpniowy launch miał w teorii pozwolić użytkownikom na spojrzenie na swój tekst oczami mistrzów słowa bezpośrednio w oknie edytora.

Koncepcja na papierze wyglądała całkiem nieźle: Twój esej mógłby „przejrzeć” profesor, a ofertę handlową dopieścić lider branży. W rzeczywistości jednak sztuczna inteligencja syntetyzowała porady na bazie ogólnodostępnych tekstów, podpisując je konkretnymi nazwiskami. Choć w stopce widniało zastrzeżenie, że to jedynie inspiracja bez oficjalnej współpracy, użytkownicy widzieli adnotację „inspirowane przez” daną osobę – co, delikatnie mówiąc, zirytowało samych zainteresowanych.

Jak już wspominaliśmy w tekście Grammarly wskrzesza zmarłych pisarzy, cały mechanizm budził etyczne wątpliwości od samego początku, szczególnie gdy AI zaczęło symulować głosy nieżyjących już autorów, takich jak Carl Sagan.

Dlaczego wybuchła tak potężna kontrowersja?

Prawdziwe kłopoty zaczęły się, gdy eksperci przypadkiem odkryli swoje nazwiska w podpowiedziach generowanych przez AI. Redaktorzy serwisu The Verge, w tym sam redaktor naczelny, szybko zorientowali się, że ich unikalny styl pisarski został „pożyczony” bez pytania o zgodę. Autorzy czuli, że ich głos jest zniekształcany – algorytm co prawda nie kopiował treści słowo w słowo, ale na tyle blisko naśladował sposób myślenia, że sprawiało to wrażenie oficjalnego poparcia. To właśnie misrepresentation głosów i tożsamości stało się fundamentem najcięższych zarzutów.

Fala krytyki błyskawicznie przelała się przez media technologiczne, od The Verge po Wired. Eksperci podnieśli larum, argumentując, że nie mamy tu do czynienia z dozwolonym użytkiem tekstów, lecz ze zwykłą kradzieżą tożsamości. Sytuację pogarszał fakt, że w sugestiach pojawiali się nawet zmarli autorzy, co nadawało całemu projektowi wręcz groteskowego charakteru. Nawet lojalni użytkownicy Superhuman poczuli się zniesmaczeni obietnicami „autentycznych” recenzji, które okazały się cyfrową podróbką.

Pierwsza reakcja Superhuman: gaszenie pożaru mailem

Początkowo firma próbowała ratować sytuację, uruchamiając specjalną skrzynkę mailową do obsługi rezygnacji (opt-out) – eksperci mogli wysłać prośbę o usunięcie swoich nazwisk z bazy. Miało to być szybkie i skuteczne rozwiązanie, ale błyskawicznie okazało się niewystarczające. Pisarze i dziennikarze nie chcieli bawić się w reaktywne usuwanie skutków, lecz domagali się proaktywnego pytania o zgodę przed użyciem ich nazwisk. Krótko mówiąc: opt-out email okazał się jedynie plastrem na otwarte złamanie i nie uspokoił krytyków.

Presja rosła z każdą godziną, a media branżowe regularnie donosiły o wściekłości kolejnych influencerów i twórców. Superhuman w końcu musiało przyznać, że kompletnie nie doszacowało skali problemu, mimo że ich intencje były rzekomo czysto edukacyjne – firma chciała po prostu umożliwić fanom „zbliżenie się” do warsztatu ich idoli.

Całkowite wyłączenie funkcji i oficjalne „przepraszam”

Ostatecznie pod naporem krytyki Superhuman podjęło decyzję o całkowitym wyłączeniu Expert Review. Ailian Gan, dyrektorka zarządzania produktem, wydała oświadczenie:

„Po dokładnym rozważeniu zdecydowaliśmy się wyłączyć Expert Review na czas przebudowy tej funkcji. Chcemy, by była ona bardziej użyteczna dla użytkowników, a ekspertom dawała realną kontrolę nad tym, jak chcą być reprezentowani. Na podstawie otrzymanych opinii ewidentnie chybiliśmy celu. Przepraszamy i obiecujemy zrobić to inaczej.”

To wyłączenie natychmiastowe miało być sygnałem, że firma traktuje sprawę poważnie.

Do tablicy wywołany poczuł się również CEO, Shishir Mehrotra, który opublikował przeprosiny na LinkedIn. Przyznał wprost:

„Otrzymaliśmy uzasadnioną krytykę od ekspertów zaniepokojonych zniekształcaniem ich głosów. Przepraszam i uznaję, że zawiedliśmy.”

Szef firmy podkreślił przy tym swoją wizję „ostatniej mili AI”, czyli dostarczania sztucznej inteligencji bezpośrednio do środowiska pracy użytkownika, choć tym razem droga ta okazała się wyjątkowo wyboista.

Pozew Julii Angwin trafia na wokandę

Jeśli ktoś myślał, że przeprosiny kończą sprawę, był w błędzie – Julia Angwin, założycielka The Markup, zdecydowała się na drogę sądową i złożyła pozew zbiorowy przeciwko Superhuman. Zarzuca ona firmie misappropriation nazwisk dziennikarzy oraz autorów w ramach funkcji Expert Review. W pozwie czytamy, że sugestie edytorskie były prezentowane jako rady pochodzące od uznanych autorytetów, mimo że nikt nie pytał ich o zdanie ani nie zapłacił za wykorzystanie wizerunku.

Jak donosi Wired, choć funkcja została wyłączona w środę, batalia prawna dopiero nabiera tempa. Jest to pierwszy tak głośny pozew wymierzony w konkretną funkcjonalność AI, co pokazuje, jak bardzo napięta jest atmosfera wokół etyki przetwarzania publicznych treści przez modele językowe.

Co dalej z przyszłością Superhuman?

Shishir Mehrotra wciąż roztacza wizję świata, w którym eksperci sami decydują o swoim udziale w cyfrowym ekosystemie. Platforma Grammarly ma docelowo stać się otwarta, pozwalając każdemu – od profesorów po krytyków – na budowanie własnych agentów AI. W tym nowym modelu to twórcy mieliby decydować o sposobie reprezentacji swojej wiedzy i kontrolować aspekty biznesowe. Zapowiadany opt-in ekspertów brzmi jak krok w dobrą stronę, ale pytanie brzmi: czy po takim skandalu ktokolwiek będzie chciał jeszcze współpracować?

Cała sytuacja jest podszyta sporą dawką ironii. Firma, która chciała budować mosty między ekspertami a fanami za pomocą AI, musiała salwować się ucieczką. To bolesna lekcja dla całej branży: publiczne dane to nie „wolna amerykanka”. Superhuman obiecuje wielki powrót po redesignie, ale trwający pozew może skutecznie pokrzyżować te ambitne plany.

Źródła: The Verge (główny artykuł), Wired (pozwy), Engadget, LinkedIn Shishir Mehrotra

Najczęściej zadawane pytania