Jony Ive, który przez lata projektował ikoniczne produkty Apple, wraz z OpenAI pracuje nad urządzeniem AI, które ma radykalnie zmienić sposób, w jaki wchodzimy w interakcję z technologią. To nie będzie telefon, tablet czy smartwatch, tylko jeszcze coś innego. System ma działać bez ekranu, reagując na dźwięki i obraz z otoczenia, jak asystent, który „jest zawsze obecny”.
Ive podkreśla, iż celem nie jest maksymalizacja produktywności, ale tworzenie urządzeń, które „czyniłyby nas szczęśliwszymi”, mniej zestresowanymi i bardziej połączonymi z otoczeniem. W rozmowie z Altmanem mówił też, iż wiele obecnych urządzeń, włącznie z tymi, które sam współprojektował, wytworzyło między ludźmi a technologią relację „niewygody”. Ale choć wizja wygląda pięknie, wykonanie to zupełnie inna bajka.
Techniczne wyzwania: prywatność, moc obliczeniowa, osobowość AI
Największym problemem, z jakim mierzy się projekt, jest moc obliczeniowa. Urządzenie bez ekranu, działające w „trybie zawsze włączonym”, musi stale przetwarzać dane audio-wizualne w czasie rzeczywistym. Według doniesień, OpenAI walczy z dostarczeniem takiej mocy – choćby dla obecnych modeli AI działających w chmurze to spory koszt.
Drugim ogromnym wyzwaniem jest prywatność. jeżeli mikrofony i kamery są stale aktywne, jak zapewnić, iż urządzenie słucha tylko wtedy, gdy trzeba, oraz iż użytkownik ma pełną kontrolę nad tym, co jest rejestrowane? Nie ma tu miejsca na błędy.
Trzecim aspektem jest osobowość AI, bo jak zaprojektować sposób, by urządzenie odpowiadało „tak, jak trzeba”, bez bycia nachalnym czy irytującym? Wiele pomysłów ugrzęzło właśnie na etapie testów konwersacyjnych.
Te trzy obszary – sprzęt, prywatność, interakcja, tworzą równanie, w którym każda zmiana pociąga za sobą konsekwencje.
Gdzie jesteśmy dziś i kiedy premiera?
Pierwotne zapowiedzi mówiły o pierwszym sprzęcie już w 2026 r., ale według najnowszych raportów data może być przesunięta. Niektóre źródła mówią nawet, iż prace potrwają dłużej, by uniknąć błędów sprzętowych i koncepcyjnych.
Ive przyznał, iż zespół ma od 15 do 20 pomysłów na urządzenia, ale jeszcze nie wyłoniono, który koncept zostanie produkowany. W fazie są prototypy, analizy i testy, ale finalny kierunek przez cały czas nie jest zamknięty.
Do maja 2025 r. firma io (stworzona przez Ive, później przejęta w całości przez OpenAI) działała niezależnie, jednak po połączeniu zasoby zostaną zintegrowane z zespołami OpenAI.
Niektóre dane sugerują też, iż urządzenie nie będzie noszone ani wkładane w ucho, nie będzie to typowy gadżet typu zegarek czy słuchawka.
Jak odbije się to na rynku?
Jeśli urządzenie ujrzy światło dzienne z sukcesem, może zmienić nasze podejście do AI. Wyparty zostanie model, w którym odruch sięgania po ekran staje się centralny. Zamiast tego AI może stać się bardziej płynną częścią życia: słuchać, obserwować, reagować w tle.
Dla rynku sprzętu konsumenckiego to ogromne wyzwanie i ryzyko. Apple, Google czy inne firmy muszą patrzeć na ten projekt uważnie: bo jeżeli Ive + OpenAI stworzą coś, co działa – to może zmienić cały segment hardware’u AI.
W praktyce dla przeciętnego użytkownika oznacza to czekanie, obserwację, ale i nadzieję, iż nie dostaniemy kolejnej porażki. Wszyscy pamiętamy AI PIN-y, smart-gogle i inne urządzenia, które zapowiadały rewolucję, ale miały zbyt wiele kompromisów.
Źródło: Windows Central, The Verge, PC Mag / Zdjęcie otwierające: The Information









