Wyobraź sobie pensję 555 tysięcy dolarów rocznie plus udziały w firmie wartej 500 miliardów, ale w zamian musisz codziennie martwić się, czy sztuczną inteligencję da się powstrzymać przed hakowaniem banków, tworzeniem broni biologicznej albo podsycaniem samobójczych myśli. Sam Altman, szef OpenAI, właśnie ogłosił taką ofertę na stanowisko szefa przygotowań – i sam przyznaje, że to będzie cholernie stresująca robota, w którą wskoczysz na głęboką wodę od pierwszego dnia.
Czym dokładnie zajmuje się Head of Preparedness?
W OpenAI to stanowisko oznacza prowadzenie ram przygotowań – czyli struktury, która śledzi zaawansowane możliwości modeli AI i przygotowuje na te, co mogą spowodować poważne szkody. Nowy szef będzie bezpośrednio odpowiedzialny za budowanie ocen możliwości, modeli zagrożeń i środków zaradczych, tworząc spójny, rygorystyczny system bezpieczeństwa, który da się skalować operacyjnie. Prowadzi mały, ale wpływowy zespół, współpracując z działami badań, inżynierii, produktów i polityki, by te zabezpieczenia działały w realnym świecie.
Altman w swoim poście na platformie X podkreśla, że modele szybko się rozwijają i już teraz radzą sobie z wyzwaniami, jak wykrywanie luk w cyberbezpieczeństwie czy wpływ na zdrowie psychiczne – co widzieliśmy w zeszłym roku. Rola wymaga głębokiej wiedzy technicznej z uczenia maszynowego, bezpieczeństwa AI czy pokrewnych dziedzin, doświadczenia w rygorystycznych ocenach systemów oraz umiejętności podejmowania decyzji pod presją niepewności. Do tego trzeba umieć komunikować się z różnymi interesariuszami i zarządzać międzyzespołowymi inicjatywami w szybkim środowisku.
Jakie zagrożenia ma powstrzymać?
Główne ryzyka to te z kategorii śledzonych: cyberbezpieczeństwo, możliwości biologiczne i chemiczne oraz samodoskonalenie AI. Na przykład modele OpenAI stały się prawie trzy razy lepsze w hakowaniu w ciągu trzech miesięcy, a firma Anthropic zgłosiła pierwsze cyberataki wspomagane AI, gdzie sztuczna inteligencja działała w dużej mierze autonomicznie pod nadzorem podejrzanych aktorów państwowych, jak chińskie. Framework dzieli ryzyka na poziomy: wysoki, gdzie model wzmacnia istniejące ścieżki do poważnych szkód, i krytyczny, wprowadzający nowe, bezprecedensowe zagrożenia – w obu przypadkach potrzebne są solidne zabezpieczenia przed wdrożeniem.
W badaniach są jeszcze kategorie jak długoterminowa autonomia, ukrywanie możliwości przez model, autonomiczna replikacja czy podważanie zabezpieczeń. OpenAI stosuje oceny automatyczne skalowalne na szybkie cykle rozwoju plus głębokie analizy ekspertów. Grupa doradcza ds. bezpieczeństwa przegląda raporty o możliwościach i środkach zaradczych, doradzając kierownictwu – od zatwierdzenia po dalsze testy. Przykłady z życia: pozwy przeciw ChatGPT za rzekome podsycanie samobójstw u 16-latka z Kalifornii i morderstwa przez 56-latka z Connecticut.
Dlaczego ta posada to karuzela i co mówi Altman?
Poprzedni szef przygotowań, Aleksander Mądry, został przeniesiony w lipcu 2024 na rolę skupioną na rozumowaniu AI, zostawiając wakat. Inni wysocy rangą specjaliści od bezpieczeństwa odeszli: Jan Leike i Ilya Sutskever w maju, John Schulman w sierpniu, a prawie połowa zespołu ds. długoterminowych ryzyk AGI odeszła w ostatnich miesiącach. Altman sam mówi: „To będzie stresująca praca, wskoczysz w głęboką wodę natychmiast” – i szuka kogoś z doświadczeniem w modelach zagrożeń, cyberbezpieczeństwie czy bezpieczeństwie biologicznym.
W branży ostrzeżenia lecą gęsto: Mustafa Suleyman z Microsoft AI w BBC: „Jeśli nie jesteś trochę przestraszony, to nie zwracasz uwagi”. Demis Hassabis z Google DeepMind mówi o AI schodzącym na manowce, a Yoshua Bengio, jeden z ojców chrzestnych AI, narzeka, że kanapka ma więcej regulacji niż AI. OpenAI reguluje się samo, bez nacisków z Białego Domu Trumpa.
Co to oznacza dla AI i kto się skusi?
Ta rekrutacja pokazuje, że OpenAI wie: korzyści z AI są ogromne, ale nadużycia – jak ataki hakerskie czy biobroń – wymagają precyzyjnego mierzenia i ograniczania. Altman chce zrozumienia, jak ograniczać negatywne skutki w produktach i świecie, bez hamowania postępu – brzmi szlachetnie, ale z nutką ironii, bo użytkownik na X odparł: „Brzmi relaksująco, wakacje w pakiecie?”. Z equity w firmie wycenionej na 500 mld dolarów kusząco, ale rotacja sugeruje, że to nie spacerek.
Dla nas to sygnał: firmy jak OpenAI budują własne systemy bezpieczeństwa, bo regulacje kuleją. Pytanie, czy znajdą kandydata, który nie ucieknie po roku, czy to początek większej fali samoregulacji w branży.
Źródła: The Guardian (https://www.theguardian.com/technology/2025/dec/29/sam-altman-openai-job-search-ai-harms), OpenAI Careers (https://jobs.ashbyhq.com/openai/013a2941-79fb-4ccc-8617-72eac39d2f43), Post Sama Altmana na X (ID 2004939524216910323), OpenAI Preparedness Framework (https://openai.com/index/updating-our-preparedness-framework/), OpenAI Safety (https://openai.com/safety/), TechCrunch, Business Insider, The Register
