OpenAI for Science: dlaczego dopiero teraz?
W październiku 2025 roku OpenAI oficjalnie odpaliło projekt OpenAI for Science. Pomysł jest prosty: dostosować potężne modele językowe do specyficznych, „twardych” potrzeb naukowców. Choć matematycy i fizycy już od jakiegoś czasu eksperymentują z GPT-5 i chwalą się sukcesami w mediach społecznościowych, teraz mają otrzymać dedykowane wsparcie. Zespół ma angażować tę społeczność i modyfikować narzędzia tak, by realnie wspierały badania, a nie tylko o nich opowiadały.
Nie da się jednak ukryć – OpenAI wchodzi na ten rynek z lekką zadyszką. Google DeepMind gra w tę grę od dekady. Ich AlphaFold zrewolucjonizował biologię molekularną, a AlphaEvolve rozwiązuje problemy inżynieryjne, o których nam się nie śniło. Demis Hassabis, szef DeepMind, od początku budował firmę właśnie po to. OpenAI nadrabia jednak dystans, argumentując, że dopiero teraz – przy GPT-5 – AI osiągnęła poziom „rozumowania”, który czyni ją realnym współpracownikiem. Kevin Weil, wiceprezes prowadzący zespół, podkreśla, że to wpisuje się w misję budowy AGI korzystnej dla ludzkości. Wyobraźcie sobie nowe leki czy materiały – sztuczna inteligencja ogólna może tu drastycznie przyspieszyć zrozumienie rzeczywistości.
Kevin Weil: od fizyka cząstek do szefa produktu
Kevin Weil to nie przypadkowy menedżer – to człowiek, który idealnie łączy świat nauki z Doliną Krzemową. Zanim zaczął zarządzać produktem w Twitterze czy Instagramie, robił doktorat z fizyki cząstek na Stanfordzie. Dziś prowadzi OpenAI for Science i chętnie przypomina o swoich korzeniach: „Myślałem, że będę profesorem fizyki do końca życia. Na wakacjach czytam książki matematyczne”.
„Modele rozumujące ogłoszone w grudniu 2024 zmieniają zasady gry. One nie strzelają odpowiedziami z biodra, lecz rozkładają problemy na kroki. Kiedyś ledwo zdawały SAT, dziś wygrywają Międzynarodową Olimpiadę Matematyczną na poziomie złotego medalu.”
Wizja Weila? GPT-5 jako partner do burzy mózgów, który podsuwa pomysły, wskazuje nowe kierunki badań i łączy współczesne problemy z zapomnianymi artykułami z odległych czasopism, nawet tych w obcych językach.
GPT-5 w liczbach: skok na benchmarkach
Aby zrozumieć, o jakim przeskoku mówimy, warto spojrzeć na benchmark GPQA – to ponad 400 pytań wielokrotnego wyboru na poziomie doktoranckim z biologii, fizyki i chemii. Wyniki mówią same za siebie:
- GPT-4: 39% (czyli sporo poniżej poziomu ludzkich ekspertów)
- Eksperci (PhD): ok. 70%
- GPT-5.2 (Grudzień 2025): 92–93%
To skok, który czyni modele użytecznymi w skomplikowanym rozwiązywaniu problemów. Weil chwali się, że GPT-5.2 „przeczytało większość prac z ostatnich 30 lat” i potrafi łączyć analogie z całkowicie niepowiązanych dziedzin. Możesz go męczyć pytaniami o 3:00 rano – w przeciwieństwie do kolegi z labu, on nie poczuje się tym urażony.
Opinie naukowców od entuzjazmu po sceptycyzm
Środowisko naukowe reaguje różnie. Robert Scherrer, profesor fizyki z Vanderbilt University, przyznaje, że GPT-5 Pro pomogło mu rozwiązać problem, nad którym z doktorantem męczył się miesiącami. Podobne sukcesy widzieliśmy już wcześniej, chociażby gdy AI rozwiązało problem Erdősa #728, co sam Terence Tao uznał za nowy rozdział w historii matematyki.
Z drugiej strony mamy badaczy takich jak Derya Unutmaz z Jackson Laboratory, która używa GPT-5 do błyskawicznej analizy danych immunologicznych, skracając miesiące pracy do dni. Są też sceptycy: Nikita Zhivotovskiy z UC Berkeley widzi w modelach jedynie narzędzie typu „super-kalkulator”, a Andy Cooper z University of Liverpool uważa, że modele świetnie wspierają robotyzację, ale nie zmieniają fundamentalnych zasad nauki.
Usunięte posty i halucynacje
W październiku 2025 roku OpenAI zaliczyło wizerunkowy poślizg. Weil i jego ekipa chwalili się na platformie X, że GPT-5 rozwiązało nierozwiązane dotąd problemy matematyczne. Szybko okazało się, że model po prostu „odkopał” zapomniane stare publikacje, w tym te po niemiecku. Posty usunięto, a retoryka stała się bardziej stonowana: „Stoimy na ramionach gigantów – jeśli model przypomni zapomniane rozwiązanie, to już jest sukces”.
Największym ryzykiem pozostają halucynacje i subtelne błędy. Jonathan Oppenheim zganił GPT-5 za błędy w testach mechaniki kwantowej. OpenAI pracuje nad tzw. „pokorą epistemiczną” – model ma przestać być przemądrzałym i zacząć sugerować kierunki w stylu: „oto coś, co warto rozważyć, ale sprawdź to dwa razy”.
Rok 2026 jak czas wielkiej zmiany
Weil przewiduje, że 2026 będzie dla nauki tym, czym 2025 był dla inżynierii oprogramowania – momentem masowego przyjęcia AI. Nie używać go, to jak odmawiać korzystania z komputera. OpenAI współpracuje już z Departamentem Energii USA, pokazując, że nauka dzieje się szybciej, gdy badacze mają pod ręką potężne modele.
Podsumowując, OpenAI, mistrzowie viralowych narzędzi, chcą być teraz zbawcami nauki. Fakty wskazują na realne przyspieszenie, choć warto zachować czujność wobec halucynacji i marketingowego szumu.
Źródła: MIT Technology Review, OpenAI (accelerating-science-gpt-5), TechCrunch, Wired.
