Wyobraźcie sobie Siri, która nie tylko słucha Waszych narzekań, ale faktycznie widzi to, co macie przed nosem. Według Marka Gurmana z Bloomberga, Apple wrzuca wyższy bieg w pracach nad trzema nowymi gadżetami: inteligentnymi okularami, specjalną zawieszką oraz słuchawkami AirPods wyposażonymi w kamery. To może być realny krok w stronę przyszłości, w której iPhone rzadziej będzie opuszczał Waszą kieszeń.
TL;DR
- Inteligentne okulary Apple zadebiutują w 2027 roku, a ich produkcja ruszy w grudniu 2026
- Multimedialna zawieszka wielkości AirTaga otrzyma dwie kamery i mikrofony, bazując na mocy iPhone'a
- AirPods z kamerami o niskiej rozdzielczości mogą trafić do sprzedaży już w 2026 roku
- Siri wykorzysta kontekst wizualny do analizy otoczenia i wykonywania precyzyjnych akcji
- Apple stawia na autorskie ramki okularów, rezygnując z partnerstw w stylu Mety i Ray-Bana
Harmonogram i status prac nad nowym trio gadżetów
Gigant z Cupertino rzadko wyrywa się przed szereg z oficjalnymi zapowiedziami, ale za kulisami praca wre. Z raportu Gurmana wynika, że inteligentne okulary trafią na linię produkcyjną już w grudniu przyszłego roku, by zaliczyć rynkowy debiut w 2027 roku. Co ciekawe, dedykowana zawieszka może pojawić się w ofercie jeszcze wcześniej, bo już w przyszłym roku, a odświeżone AirPods z kamerami – w 2026. To ewidentna próba ucieczki do przodu i odpowiedź na rynkową presję ze strony Mety, która z powodzeniem sprzedaje już swoje okulary Ray-Ban z funkcjami AI.
Ewolucja prototypów okularów przeszła długą drogę – od topornych wersji połączonych kablem z baterią i iPhone’em, aż po eleganckie, zintegrowane ramki. Choć zawieszka i nowe AirPods znajdują się na wcześniejszych etapach projektowych, Apple już teraz intensywnie testuje je w swoich laboratoriach. Trudno nie dostrzec tu pewnej ironii: firma, która zazwyczaj stawia na sprawdzone rozwiązania, teraz musi gonić konkurencję w segmencie elektroniki noszonej wyposażonej w kamery.
Inteligentne okulary – rywal dla Mety, ale bez wyświetlacza
Zapomnijcie o ekranach rodem z Vision Pro – te okulary postawią na dźwięk i zmysł wzroku. Dzięki kamerze o wysokiej rozdzielczości do multimediów oraz dodatkowej soczewce do analizy otoczenia, Siri będzie mogła wchodzić w interakcje oparte na tym, na co aktualnie patrzycie. Apple zamierza projektować oprawki całkowicie samodzielnie, oferując różne rozmiary, kolory i materiały klasy premium, aby zapewnić użytkownikom odpowiedni komfort i styl.
Lista funkcji zapowiada się obiecująco: od rozpoznawania składników na talerzu, przez wskazywanie zabytków podczas spaceru, aż po przypomnienia zależne od kontekstu. W przeciwieństwie do Mety, która posiłkuje się markami Ray-Ban czy Oakley, Apple gra solo. Brak wyświetlacza pozwoli na zachowanie lekkiej konstrukcji, choć pozostaje pytanie, czy użytkownicy faktycznie zechcą nosić kamerę na nosie przez cały dzień.
Przejście od prototypów wymagających zewnętrznego zasilania do modeli z wbudowanymi komponentami to jasny sygnał, że Apple traktuje temat masowej produkcji wyjątkowo poważnie.
Zawieszka AI – oczy i uszy iPhone’a w formie biżuterii
Ten gadżet wielkości AirTaga to w rzeczywistości smukła płytka z aluminium i szkła, skrywająca dwie kamery, głośnik oraz trzy mikrofony. Urządzenie ma pełnić rolę stale aktywnych „oczu i uszu” dla Siri, przesyłając dane wizualne do iPhone’a, który zajmie się całą magią przetwarzania procesów AI. Możliwość noszenia go jako klipsa lub naszyjnika to sprytny ruch – sprzęt ma po prostu udawać biżuterię i nie rzucać się w oczy.
Inżynierowie Apple wciąż debatują, czy wyposażyć zawieszkę w głośnik umożliwiający rozmowy bez wyciągania telefonu. W przeciwieństwie do niefortunnego projektu Humane AI Pin, propozycja Apple jest ściśle zintegrowana z ekosystemem, co eliminuje problemy urządzeń typu „standalone”. Dwie kamery stanowią tu fundament wizualnej inteligencji, co potwierdzają wcześniejsze doniesienia serwisu The Information ze stycznia.
Strategicznie to idealny sposób na dyskretną obecność sztucznej inteligencji w naszym życiu – bez krzyczenia „jestem technologicznym geekiem”. Pytanie tylko, czy klienci wyłożą około 200 dolarów za zawieszkę, która będzie patrzeć na świat w ich imieniu?
AirPods z kamerami – analiza otoczenia prosto z ucha
Nowa generacja AirPods ma zostać wyposażona w kamery o niskiej rozdzielczości, które będą skanować przestrzeń wokół nas i współpracować z Siri w czasie rzeczywistym. Możliwe, że zobaczymy je w sklepach jeszcze w tym roku, co czyniłoby je najszybciej wdrożonym elementem tego trio. To logiczna kontynuacja trendu audio-AI, o czym świadczyły chociażby plotki o przejęciu startupu Q.ai.
Zastosowane sensory pozwolą na realizację podobnych zadań co w okularach, dostarczając asystentowi niezbędnych danych wizualnych. Informacje o prototypach dotarły już nawet do działów sprzedaży detalicznej Apple, co świadczy o wysokim stopniu zaawansowania projektu. Kamery niskorozdzielcze w zupełności wystarczą algorytmom AI do zrozumienia otoczenia, bez konieczności upychania matryc Full HD wewnątrz słuchawek.
Zabawne, że sprzęt, który kiedyś służył wyłącznie do słuchania muzyki, teraz stanie się naszymi dodatkowymi oczami. Pytanie tylko, czy nie będziemy czuć się nieswojo z kamerami zamontowanymi bezpośrednio w uszach?
Siri z wizualnym kontekstem – jak to połączy gadżety z iPhone’em
Wszystkie trzy nowości będą ściśle powiązane z iPhone’em, dając Siri dostęp do tzw. „visual context”. Ten potężny upgrade ma być napędzany modelem Gemini od Google, o czym wspominaliśmy już wcześniej – Apple płaci miliard dolarów rocznie za tę współpracę. W praktyce będziecie mogli zapytać o przepis na bazie produktów w lodówce lub dostać powiadomienie o zakupach, gdy tylko miniecie konkretny sklep.
Uzależnienie gadżetów od smartfona ma swoje zalety – moc obliczeniowa zostaje w kieszeni, co oszczędza baterię akcesoriów. Czy jednak nie sprawia to, że zamiast rewolucji dostajemy po prostu drogie przedłużenie telefonu? Choć niektórzy inwestorzy VC przewidują zmierzch ery smartfonów, Apple zdaje się cementować ich pozycję jako centrum dowodzenia.
Wizualny kontekst może okazać się prawdziwym przełomem w codziennym korzystaniu z AI, nawet jeśli obrońcy prywatności już teraz ostrzegają przed wszechobecną inwigilacją.
Strategia Apple kontra Meta i Humane – in-house bez kompromisów
Apple konsekwentnie unika partnerstw w stylu Mety i Ray-Bana, stawiając na własne projekty oprawek, by zachować pełną kontrolę nad jakością. To podejście drastycznie różni ich od startupu Humane, którego pin okazał się rynkową klapą głównie przez brak solidnego ekosystemu. Mark Gurman kładzie duży nacisk na jakość wykonania premium oraz zaawansowaną optykę jako główne wyróżniki produktów z logo nadgryzionego jabłka.
Nadrzędnym celem jest stworzenie towarzysza AI, który rozumie świat w czasie rzeczywistym. Choć wersje okularów z pełnoprawnym wyświetlaczem to wciąż odległa przyszłość, modele oparte na audio i wizji są już tuż za rogiem. In-house ramki dają Apple ogromną przewagę w kwestii designu i dopasowania do potrzeb użytkownika.
Patrząc krytycznie: Apple tym razem goni, a nie wyznacza trendy – Meta ma już gotowy produkt na półkach, a Lenovo testuje swoje rozwiązania AI jak Qira. Jednak z potężnym ekosystemem iPhone’a w tle, te nowości mogą stać się hitem… albo kolejnym niewypałem na miarę AirPower.
Źródła: The Verge (główny artykuł), Bloomberg (Mark Gurman), 9to5Mac, The Information, MacRumors
