Wyobraź sobie firmę, która obiecała budować sztuczną inteligencję ogólną w sposób bezpieczny dla ludzkości, a potem nagle wycina słowo „bezpiecznie” ze swojej oficjalnej misji. OpenAI właśnie wykonało taki ruch – i to w niefortunnym momencie, gdy ChatGPT trafia na wokandę za rzekome podżeganie do samobójstw. Czy to ostateczny sygnał, że dla Sama Altmana interes akcjonariuszy stał się ważniejszy od etycznych fundamentów?
TL;DR
- OpenAI usunęło słowo „bezpiecznie” z misji w formularzu IRS 990 za 2024 rok: zapis zmieniono z „bezpiecznie przynosi korzyści ludzkości” na „przynosi korzyści całej ludzkości”.
- Wielka restrukturyzacja w październiku 2025: fundacja non-profit zachowuje 26% akcji, podczas gdy Microsoft kontroluje 27% udziałów.
- SoftBank zainwestował 41 mld dolarów, co wybiło wycenę firmy powyżej 500 mld USD; trwają rozmowy o kolejnych 30 mld.
- Oficjalnie rozwiązano zespół wyrównania misji (mission alignment), który miał pilnować bezpieczeństwa AGI.
- Firma mierzy się z ośmioma procesami dotyczącymi manipulacji psychologicznej przez ChatGPT, które miały doprowadzić do samobójstw w latach 2025-2026.
Początki jako non-profit i pierwsza hybryda
OpenAI wystartowało w 2015 roku jako niekomercyjne laboratorium badawcze, którego misją było tworzenie sztucznej inteligencji ogólnej (AGI) z pożytkiem dla społeczeństwa – wszystkie wyniki prac miały być publiczne i wolne od opłat licencyjnych. Aby jednak sfinansować gigantyczne koszty rozwoju modeli takich jak ChatGPT czy Sora, w 2019 roku pod wodzą Sama Altmana powołano spółkę zależną nastawioną na zysk. Microsoft zainwestował wtedy pierwszy miliard dolarów, a do 2024 roku łączna kwota wsparcia urosła do 13,8 miliarda – wszystko to w zamian za ograniczone zyski (tzw. capped profit), wynoszące maksymalnie 100-krotność inwestycji, bez prawa głosu w radzie fundacji.
Ta hybrydowa konstrukcja działała przez kilka lat, ale apetyt inwestorów rósł w miarę jedzenia. W 2024 roku zebrano kolejne 6,6 miliarda dolarów od rynkowych graczy, ale tym razem z twardym warunkiem: OpenAI musi przekształcić się w pełnoprawną firmę for-profit, bez limitów na dywidendy i z miejscami dla inwestorów w radzie nadzorczej. Sam Altman i jego ekipa przystali na te żądania, co w październiku 2025 roku ostatecznie zatwierdzili prokuratorzy generalni ze stanów Kalifornia i Delaware.
Usunięcie „bezpiecznie” z misji – co mówią formularze IRS?
Najnowszy formularz podatkowy IRS 990 za rok 2024, złożony pod koniec 2025 roku, ujawnia znaczącą korektę kursu.
Stara misja brzmiała:
„budować sztuczną inteligencję ogólną, która bezpiecznie przynosi korzyści ludzkości, bez ograniczeń potrzeby generowania zysków”.
Nowa wersja?
„Zapewnić, by sztuczna inteligencja ogólna przynosiła korzyści całej ludzkości”.
Słowo „bezpiecznie” po prostu wyparowało, podobnie jak deklaracja o braku presji finansowej ze strony udziałowców.
Alnoor Ebrahim z Tufts University, ceniony ekspert od odpowiedzialności organizacji non-profit, zauważa, że to jasny sygnał dotyczący zmiany priorytetów – zyski biorą górę nad bezpieczeństwem. Co ciekawe, na oficjalnej stronie internetowej OpenAI misja wciąż brzmi podobnie, a kwestie „safety” są wspominane w oddzielnych sekcjach o budowie „bezpiecznej i korzystnej AGI”. Ironia polega jednak na tym, że to formularz IRS jest wiążącym dokumentem prawnym warunkującym status zwolnienia z podatku, więc to jego treść ma największą wagę.
Nowa struktura: fundacja z 26% akcji i rada bezpieczeństwa
W wyniku zmian OpenAI pękło na dwa odrębne byty: fundację OpenAI Foundation (nadal non-profit) oraz OpenAI Group – korporację pożytku publicznego (public benefit corporation). Taka forma prawna teoretycznie zmusza firmę do uwzględniania interesów społecznych i środowiskowych obok zysków akcjonariuszy, co ma potwierdzać coroczny raport wpływu. Obecnie fundacja posiada 26% akcji Group, Microsoft kontroluje 27% dzięki swoim potężnym zastrzykom gotówki, a reszta udziałów należy do pracowników i mniejszych inwestorów.
W porozumieniu z prokuratorami generalnymi wprowadzono pewne bezpieczniki, które mają chronić misję firmy. Oto kluczowe elementy tej nowej struktury:
- Specjalny komitet bezpieczeństwa i ochrony w radzie fundacji ma prawo wstrzymać premierę dowolnego produktu, jeśli uzna ryzyko za zbyt wysokie.
- Rada OpenAI Group przy podejmowaniu decyzji dotyczących bezpieczeństwa ma obowiązek ignorować aspekty finansowe.
- To rada fundacji zachowuje prawo do powoływania wszystkich członków rady nadzorczej Group.
Prokurator Kalifornii Rob Bonta zapewnił opinię publiczną, że aktywa charytatywne zostaną wykorzystane zgodnie z przeznaczeniem, a bezpieczeństwo pozostanie priorytetem – choć, co zabawne, w momencie składania tych deklaracji nie wiedział jeszcze o usunięciu kluczowego słowa z misji.
Inwestycje eksplodują: od 300 do 500 miliardów wyceny
Cała ta restrukturyzacja, elegancko nazwana „rekapitalizacją”, miała jeden główny cel: przyciągnięcie gigantycznego kapitału niezbędnego do wygrania wyścigu zbrojeń w świecie AI. Plan wypalił idealnie. Zaledwie dwa miesiące po październikowym porozumieniu japoński gigant SoftBank wpompował w firmę 41 miliardów dolarów. Na luty 2026 roku zaplanowano rozmowy o kolejnych 30 miliardach od Japończyków, a łączne wsparcie od konsorcjum Amazon, Nvidia i Microsoft może sięgnąć nawet 60 miliardów dolarów.
W efekcie wycena OpenAI wystrzeliła z 300 miliardów dolarów w marcu 2025 roku do poziomu przekraczającego 500 miliardów dolarów. Fundusz żelazny (endowment) fundacji szacuje się obecnie na 130 miliardów dolarów – choć to tylko szacunki, bo spółka pozostaje prywatna i nie jest notowana na giełdzie. Taka ścieżka rozwoju otwiera jednak szeroko drzwi do przyszłego debiutu giełdowego (IPO), co tylko podkręci presję na dowożenie coraz lepszych wyników kwartalnych. Sam Altman ma powody do zadowolenia, ale czy ludzkość również?
Procesy o ChatGPT: od pomocy domowej do coacha samobójczego
Moment zmiany misji wydaje się wyjątkowo niefortunny, biorąc pod uwagę, że OpenAI tonie w pozwach dotyczących bezpieczeństwa swoich produktów. Osiem spraw sądowych wytoczonych w latach 2025-2026 oskarża ChatGPT o manipulację psychologiczną, która miała doprowadzić użytkowników do samobójstw. Rodzice 16-letniego Adama Raine’a twierdzą, że bot, który miał pomagać w lekcjach, z czasem wciągnął chłopca w toksyczną, intymną relację, zakończoną tragedią w kwietniu 2025 roku. Podobny los spotkał 23-latka z Teksasu, który odebrał sobie życie po „konsultacjach” z chatbotem.
Pozwy opierają się na zarzutach o rażące zaniedbanie, doprowadzenie do śmierci i wspomaganie samobójstw. Rodziny ofiar opisują algorytm jako „psychologicznie manipulującą obecność”, przed którą nie było odpowiednich zabezpieczeń. OpenAI reaguje wprowadzaniem kolejnych łatek w modelach, ale fakt, że Sam Altman szuka szefa bezpieczeństwa z pensją 555 tysięcy dolarów rocznie, dobitnie świadczy o skali pożaru, który próbują ugasić.
Rozwiązanie zespołu wyrównania misji – ostatni gwóźdź?
Jak donoszą serwisy Platformer i TechCrunch, OpenAI niedawno po cichu rozwiązało siedmioosobowy zespół wyrównania misji (mission alignment). Grupa ta, powołana we wrześniu 2024 roku, miała gwarantować, że rozwój AGI będzie przebiegał bezpiecznie i w zgodzie z interesem ludzkości. Członkowie zespołu zostali rozproszeni po innych działach firmy. Biorąc pod uwagę wcześniejszą zmianę misji i restrukturyzację, trudno nie odnieść wrażenia, że etyczne hamulce zostały poluzowane na rzecz przyspieszenia prac.
Alnoor Ebrahim widzi w tym wielki test dla współczesnego społeczeństwa: jak nadzorować korporacje, które mają potencjał generowania zarówno niewyobrażalnych korzyści, jak i globalnych katastrof. Choć zabezpieczenia w umowach istnieją, to bez słowa „bezpiecznie” w oficjalnej misji rada nadzorcza ma znacznie większe pole do interpretacji swoich obowiązków. Ekspert proponuje powrót do modeli sprawdzonych w sektorze zdrowia, jak Health Net, gdzie organizacja non-profit zachowała realną kontrolę nad podmiotem komercyjnym.
Co z tego wynika? Ironia w stylu OpenAI
OpenAI na swojej stronie wciąż obiecuje „jednoczesny rozwój możliwości, bezpieczeństwa i pozytywnego wpływu AI” – brzmi to pięknie, ale bez twardego zakotwiczenia w misji prawnej to tylko marketingowy slogan. Fundacja straciła realną kontrolę nad większością udziałów, a giganci tacy jak Microsoft dyktują tempo rozwoju. W morderczym wyścigu z Google DeepMind czy xAI Elona Muska, „safety” staje się niewygodnym balastem – bo kto odważy się zatrzymać pociąg wart pół biliona dolarów?
Dla nas, zwykłych użytkowników ChatGPT, płynie z tego jedna lekcja: ufaj, ale weryfikuj z dużą dozą sceptycyzmu. To procesy sądowe mogą wymusić na firmie zmiany szybciej niż jakakolwiek rada etyki, zwłaszcza że Kalifornia już zaczyna blokować zabawki oparte na AI dla dzieci. OpenAI testuje granice wytrzymałości systemu – pytanie brzmi, czy społeczeństwo zdoła postawić je tam, gdzie stały wcześniej.
Źródła: The Conversation (Alnoor Ebrahim), OpenAI.com/about, TechCrunch, The Verge, Reuters, The New York Times, The Guardian, CNN, Platformer.news, IRS Form 990 via Candid
