Apple do tej pory raczej milczało na temat swojej strategii dotyczącej sztucznej inteligencji. W przeciwieństwie do konkurencji. Firma zaprezentowała OpenELM, nową rodzinę wydajnych modeli językowych o otwartym kodzie źródłowym. Całość rzuca nieco więcej światła na to, jak AI miałoby działać w przyszłości na iPhone’ach i komputerach Mac. Co już wiemy o pomysłach Apple i jak modele OpenELM wyglądają względem konkurencji?
OpenELM, to skrót od „Open-source Efficient Language Models”. Trudno nie napisać, iż jest to znaczący krok naprzód w przypadku Apple w zakresie AI. Nowe, lekkie modele z rodziny OpenELM zostały zaprojektowane do wydajnego działania na urządzeniach takich jak iPhone’y i komputery Mac. I to bez polegania na usługach w chmurze oraz połączeniu z internetem.
Przetwarzając dane lokalnie, Apple dąży do zwiększenia prywatności użytkowników, jednocześnie zapewniając im możliwość skorzystania z funkcji AI. Świeżo pokazane OpenELM pokazują szerszą strategię Apple polegającą na niczym innym, jak płynnym zintegrowaniu AI z własnym ekosystemem produktów.
Dzięki przetwarzaniu na urządzeniu, Apple może oferować funkcje takie, jak ulepszone generowanie tekstu, edycja obrazów i spersonalizowane rekomendacje. Wszystko to przy jednoczesnym zachowaniu bezpieczeństwa danych użytkowników na ich urządzeniach. Takie podejście jest zgodne z silnym stanowiskiem Apple w sprawie prywatności użytkowników i wysiłkami firmy na rzecz zminimalizowania zależności od usług w chmurze – w zakresie przetwarzania wrażliwych danych.
Zrozumienie OpenELM
OpenELM to rodzina czterech lekkich modeli językowych, która została udostępniona przez inżynierów Apple w bibliotece na Hugging Face. Modele OpenELM składają się odpowiednio z 70 milionów, 450 milionów, 1,1 miliarda i 3 miliardów parametrów.
Parametry to zmienne, na podstawie których sztuczna inteligencja może podejmować decyzje. Różne rozmiary pozwalają programistom wybrać najbardziej odpowiedni model dla konkretnego przypadku użycia, równoważąc tym samym wydajność i zużycie zasobów. Jedną z kluczowych cech OpenELM jest optymalizacja pod kątem niestandardowych procesorów Apple, takich jak układy z serii A i M.
Wykorzystując moc tych układów, OpenELM może wykonywać małe zadania, takie jak tworzenie wiadomości e-mail, jednocześnie minimalizując wykorzystanie pamięci i zużycie energii. Optymalizacja ta zapewnia, iż modele działają płynnie na urządzeniach Apple bez uszczerbku dla żywotności baterii lub wydajności.
Apple jak zawsze musi po swojemu
Jedną z głównych zalet przetwarzania AI lokalnie, na urządzeniu jest to, iż eliminuje ono potrzebę wysyłania danych użytkownika do chmury w celu ich analizy. Oznacza to, iż poufne informacje, takie jak osobiste wiadomości lub zdjęcia, pozostają na naszym sprzęcie, zmniejszając ryzyko naruszenia danych lub nieautoryzowanego dostępu.
Przetwarzając dane lokalnie, urządzenia Apple mogą dostarczać w czasie rzeczywistym sugestie, tłumaczenia i inne funkcje oparte na sztucznej inteligencji bez opóźnień związanych z przetwarzaniem w chmurze. Jest to szczególnie ważne w przypadku zadań wymagających natychmiastowej informacji zwrotnej, takich jak autokorekta czy też ulepszanie obrazu w czasie rzeczywistym.
OpenELM opiera się na istniejących narzędziach Apple do uczenia maszynowego na urządzeniu, takich jak Core ML. Połączenie OpenELM i Core ML otwiera przed programistami nowe możliwości tworzenia inteligentnych, skoncentrowanych na prywatności aplikacji, które działają płynnie na sprzętach Apple.
Optymalizacja to słowo klucz, które znamy przecież od lat.
Potencjalne zastosowania
Jednym z obszarów, w którym OpenELM może mieć znaczący wpływ, są zadania przetwarzania języka naturalnego. Dzięki możliwości uruchamiania modeli językowych bezpośrednio na urządzeniach, Apple mogłoby oferować bardziej zaawansowane i responsywne funkcje, takie jak inteligentne komponowanie wiadomości czy tłumaczenie z języka na język w czasie rzeczywistym. Dodatkowo, warto także wspomnieć o kolejnym, potencjalnym zastosowaniu, czyli computer vision. Wykorzystując działanie modeli OpenELM, sprzęty Apple mogłyby przeprowadzać analizę obrazu i wideo w czasie rzeczywistym, tym samym przekładając się na ulepszone działanie rozpoznawanie twarzy, wykrywanie obiektów oraz rozszerzoną rzeczywistość.
Dla porównania, firmy takie jak Google i Microsoft integrują możliwości AI ze swoimi produktami i usługami, często opierając się na przetwarzaniu w chmurze. Podejście Apple jest jak zawsze oryginalne i w tym wypadku może być wyróżniające na tle innych technologii.
Kiedy zobaczymy pierwsze efekty działania modeli OpenELM w ekosystemie sprzętów Apple? Bardzo możliwe, iż jeszcze w tym roku.
Więcej na ten temat na pewno dowiemy się na corocznej konferencji WWDC, która odbywa się w na początku czerwca.
źródło: Apple / fot. Unsplash.com