Apple wprowadziło Visual Intelligence w iPhonie 16 Pro w 2024 roku. Funkcja ta weszła pod „parasolem” Apple Intelligence i pozwala użytkownikom robić zdjęcia oraz zrzuty ekranu, a następnie zadawać pytania dotyczące treści na pośrednictwem ChatGPT.
Wraz z systemem iOS 26 Apple Intelligence jest w stanie zaoferować trzy nowe funkcje Visual Intelligence dla zrzutów ekranu:
- możliwość szybkiego tworzenia wydarzeń w Kalendarzu,
- możliwość wyszukiwania podobnych obrazów (przydatnych do zakupów),
- możliwość zadawania pytań ChatGPT na temat zrzutu ekranu.
Moją ulubioną funkcją jest właśnie szybkie tworzenie wydarzeń w Kalendarzu. Jednak Visual Intelligence ma w sobie potencjał do czego o wiele większego. Tak więc można tutaj pokusić się o połączenie funkcji Visual Intelligence z aplikacją Przypomnienia. Zresztą taki jest cel Tima Cooka, aby dzięki Visual Intelligence móc robić więcej i szybciej z treściami znajdującymi się w iPhonie:
Jedną z naszych najpopularniejszych funkcji jest Visual Intelligence, która pomaga użytkownikom uczyć się i robić więcej niż kiedykolwiek z treściami na ekranie iPhone’a, dzięki czemu szybsze wyszukiwanie, podejmowanie działań i odpowiadanie na pytania w ich aplikacjach
Apple pracuje w tej chwili nad własnymi modelami wizualnymi, aby uczynić tę technologię sercem swoich przyszłych urządzeń AI. Apple planuje AirPods, inteligentne okulary oraz wisiorek, który będzie zawierał kamery i czujniki i będzie można to nosić na ciele.
Przyszłość Visual Intelligence rysuje się w kolorowych barwach, pytanie tylko, czy Apple jest w stanie wyciągnąc z tych funkcji jak najwięcej.
Źródło: Bloomberg









