Yann LeCun, znany z bezlitosnej krytyki dużych modeli językowych jako systemów zajmujących się „czystym zgadywaniem”, właśnie dołączył do zarządu startupu Logical Intelligence. Ekipa z San Francisco przekonuje, że ich autorskie dzieło, Kona 1.0, to pierwszy w pełni praktyczny model rozumowania oparty na energii. Efekt? Rozwiązuje skomplikowane sudoku w mgnieniu oka, korzystając zaledwie z jednego procesora graficznego.

Logical Intelligence wchodzi na scenę z wsparciem LeCuna

Startup z San Francisco, Logical Intelligence, który zaledwie pół roku temu powołała do życia fizyczka kwantowa Eve Bodnia, ogłosił 21 stycznia nominację Yanna LeCuna na stanowisko szefa technicznego rady badawczej. LeCun, profesor NYU i legenda AI w Meta, od dwóch dekad promuje koncepcję modeli opartych na energii (EBM). Jak przyznaje sama Bodnia, bez jego merytorycznego wsparcia zespół nie byłby w stanie skalować technologii w tak ekspresowym tempie.

Bodnia zaznacza, że LeCun idealnie łączy akademicką głębię z twardą praktyką rynkową. To właśnie on pomaga inżynierom omijać ślepe uliczki podczas projektowania architektur, które mają być realną alternatywą dla wszechobecnych LLM-ów. Startup chwali się, że jako pierwszy stworzył realnie działający model rozumowania oparty na energii – coś, co do tej pory pozostawało głównie w sferze teoretycznych rozważań na uniwersytetach.

Do zarządu dołączył również Patrick Hillmann, jednak to nazwisko LeCuna elektryzuje branżę najbardziej. Jego zaangażowanie to jasny sygnał: EBM to nie kolejna chwilowa ciekawostka, ale poważny pretendent do zmiany układu sił w świecie sztucznej inteligencji.

Jak działa model rozumowania oparty na energii?

Modele rozumowania oparte na energii, czyli EBM (ang. energy-based models), różnią się od popularnych modeli językowych u samych podstaw. Zamiast bawić się w przewidywanie najbardziej prawdopodobnego kolejnego słowa w zdaniu, EBM analizuje zestaw konkretnych parametrów – weźmy na warsztat reguły sudoku – i szuka rozwiązania, które minimalizuje „energię” danego stanu. W skrócie: dąży do konfiguracji najbardziej zgodnej z narzuconymi ograniczeniami.

Kona 1.0 posiada mniej niż 200 milionów parametrów i potrafi trenować się na rzadkich, niepełnych danych, z których bezbłędnie wyciąga kluczowe informacje. To trochę tak, jakby pokazać komuś szkic kota i oczekiwać, że na tej podstawie zrozumie anatomię psa – model po prostu potrafi skutecznie ekstrapolować wiedzę. Co ważne, system samokoryguje się w czasie rzeczywistym, na bieżąco oceniając obrane ścieżki i zmieniając kierunek, gdy tylko wykryje błąd.

Bodnia używa tu trafnego porównania do zdobywania Everestu: podczas gdy typowy LLM idzie na oślep przed siebie i często ląduje w przepaści, EBM analizuje sytuację w kilku kierunkach jednocześnie, dostosowuje się do terenu i nigdy nie traci z oczu głównego celu. To podejście sprawia, że sztuczna inteligencja ekspercka staje się brakującym ogniwem między wąską AI a AGI.

Sudoku pokazuje przewagę: Kona 1.0 bije LLM na głowę

Na oficjalnej stronie Logical Intelligence można sprawdzić demo, w którym Kona 1.0 rozwiązuje ekstremalnie trudne łamigłówki sudoku w kilka sekund, korzystając z pojedynczego układu Nvidia H100 GPU. Najpotężniejsze obecnie modele językowe, o ile nie mają możliwości wspomagania się zewnętrznym kodem do brutalnego przeszukiwania rozwiązań, zostają daleko w tyle i działają wielokrotnie wolniej.

Ten test nie jest dziełem przypadku: został zaprojektowany tak, by zablokować sztuczną przewagę, jaką LLM-y czerpią z ogromnych baz danych, i skupić się wyłącznie na czystym procesie rozumowania. Kona ocenia stany logiczne przez pryzmat energii, dzięki czemu unika żmudnej metody prób i błędów, co drastycznie redukuje zapotrzebowanie na moc obliczeniową. To zupełnie inna liga niż to, co oferują duże modele rozumujące LRM i ich iluzja intelektu.

Wcześniejszy test Putnama przyniósł wynik na poziomie 76 procent – to rezultat, który potwierdza matematyczną precyzję modelu operującego bez wsparcia językowego. Mamy tu do czynienia z pewną ironią: gigantyczne systemy trenowane na „śmietniku internetu” przegrywają w klasycznej logicznej łamigłówce z relatywnie niewielkim modelem EBM.

Zastosowania poza językiem: energia, farmacja, chipy

Eve Bodnia celuje w sektory gospodarki, w których nie ma najmniejszego marginesu na błąd. W branży energetycznej EBM może przetwarzać tysiące zmiennych w czasie rzeczywistym, optymalizując przesył prądu – zamiast generować straty, system stawia na precyzyjną automatyzację. To podejście pokazuje, że inteligencja neuronowo-symboliczna skutecznie zwalcza halucynacje AI.

Obecnie trwają już zaawansowane rozmowy z czołowymi producentami procesorów oraz operatorami centrów danych. Kolejnym przystankiem jest farmacja: projektowanie nowych leków czy zaawansowana analiza nowotworów wymagają przetwarzania danych o ogromnym stopniu skomplikowania. W tych zadaniach warstwa językowa jest zbędna – liczy się wyłącznie czyste, surowe rozumowanie.

Model biznesowy zakłada dostarczanie firmom dedykowanych, kompaktowych modeli trenowanych na ich własnych zasobach. To całkowite przeciwieństwo monolitycznych gigantów od OpenAI czy Google – tutaj priorytetem jest personalizacja idąca w parze z wydajnością energetyczną.

Współpraca z AMI Labs i droga do AGI

Logical Intelligence zapowiada ścisłą kooperację z paryskim AMI Labs, za którym również stoi LeCun. Ten startup koncentruje się na budowie tzw. modeli świata (ang. world models), które mają rozumieć prawa fizyki, zapamiętywać stany i przewidywać konsekwencje działań – co jest kluczowe dla robotyki w świecie 3D. Podczas gdy OpenAI stawia na audio i gadżety, LeCun chce dać maszynom prawdziwy instynkt.

Bodnia postrzega drogę do AGI jako budowę ekosystemu: LLM-y będą służyć do komunikacji z ludźmi, EBM-y zajmą się logiką i rozumowaniem, a modele świata umożliwią sprawne działanie w rzeczywistości. System bez halucynacji, zdolny do samooceny i planowania. Kona 1.0 to według niej „pierwsze wiarygodne oznaki AGI”, choć na razie na poziomie niemowlęcym. To inna wizja niż ta, w której OpenAI inwestuje biliony dolarów w infrastrukturę do 2026 roku.

Na ten moment technologia nie zostanie udostępniona jako open-source – Bodnia chce najpierw dokładnie poznać jej ograniczenia. Startup aktywnie poszukuje finansowania na powiększenie zespołów i nowe partnerstwa. Odnosząc się do głosów o pękającej bańce AI, twierdzi, że to mit wynikający z fiksacji na tekście, podczas gdy prawdziwa rewolucja dzieje się w innych formach inteligencji.

Źródła: Wired (https://www.wired.com/story/logical-intelligence-yann-lecun-startup-chart-new-course-agi/), Businesswire (https://www.businesswire.com/news/home/20260120751310/en/), Logical Intelligence (https://logicalintelligence.com/), Financial Times (https://www.ft.com/content/157bb0e3-9d6c-47ac-afc5-6944981e10ef)