AI: Od eksploracji do produkcji – pięć studiów przypadku GenAI w działaniu

cyberfeed.pl 2 tygodni temu


Ten uruchomienie ChatGPT z OpenAI pod koniec 2022 roku rzuciło lata podziemnych badań nad sztuczną inteligencją (AI) w centrum uwagi. Dwa lata po pierwszym publicznie dostępnym generatywna sztuczna inteligencja (GenAI), ale emocje związane z tą nową technologią nie słabną, szczególnie w zarządach największych spółek.

Tempo, w jakim firmy wdrażają programy GenAI, podwoiło się między grudniem 2023 r. a lipcem 2024 r. według Bloomberg Intelligence. Z badania wynika, iż ​​sztuczna inteligencja i uczenie maszynowe przez cały czas są priorytetem dla dyrektorów ds. informatyki i ich kolegów z kierownictwa wyższego szczebla, a firmy inwestują w podstawowe modele, procesory graficzne i obsługują usługi w chmurze.

Jednak inne badania sugerują, iż przekształcenie entuzjazmu wobec AI w coś użytecznego jest znacznie trudniejsze. Firmy mają trudności z przeniesieniem projektów GenAI do produkcji, według DeloitteGigant branży konsultingowej twierdzi, iż 70% liderów biznesowych przeniosło 30% lub mniej swoich eksperymentów z AI do produkcji.

Co gorsza, analityk Gartner przewidział że 30% projektów GenAI zostanie porzuconych po etapie dowodu koncepcji do końca 2025 r. Tak więc, dlaczego organizacje mają trudności z maksymalnym wykorzystaniem sztucznej inteligencji? Podczas niedawnego spotkania rozmawialiśmy z pięcioma liderami biznesu Szczyt Płatków Śniegu 2024 w San Francisco, aby zapytać, w jaki sposób kadra zarządzająca może przekształcić sztuczną inteligencję w przewagę konkurencyjną.

TUI: Poznaj kilka świetnych zasad

Anastasiia Stefanska, analityk danych ds. analityki i AI w TUI, pomaga swojej organizacji wykorzystać nową technologię. Firma turystyczna używa Snowflake do tworzenia platformy dla zmian opartych na danych.

„Powiedziałabym, iż jesteśmy na pełnej prędkości w korzystaniu ze sztucznej inteligencji” — mówi Stefanska. „Uważamy, iż możemy wiele osiągnąć. W ostatnich kilku kwartałach pracowaliśmy nad identyfikacją przypadków użycia. Niektóre z tych przypadków są w produkcji, a nad innymi o wysokim potencjale realizowane są prace”.

Kolega Stefanskiej, Bastian Handke, lider zespołu technologicznego platformy magazynu danych przedsiębiorstwa w TUI, mówi, iż firma wykorzystuje generatywną sztuczną inteligencję do analizy danych. Firma wykorzystuje również chatboty w programach szkoleniowych. Te boty przyspieszają proces wdrażania nowych pracowników. TUI wykorzystuje również Cortex AI, duży model językowy Snowflake (LLM).

„Istnieje wiele przypadków użycia” — mówi Handke. „Wykonujemy analizę sentymentu, korzystając z funkcji z Cortex, takich jak translate. Nasi współpracownicy w innych krajach otrzymują odpowiedzi od swoich klientów w różnych językach. Analiza tych danych dzięki funkcji w Cortex jest niezwykle przydatna”.

Stefanska mówi, iż TUI stworzyło oficjalną dokumentację, która ma służyć jako przewodnik po eksploracji AI. Dokumenty te obejmują dwie zasady. Po pierwsze, nacisk kładzie się na umożliwienie – firma chce, aby pracownicy czuli się komfortowo, sugerując przypadki użycia. Druga zasada zapewnia, iż ​​ludzie pozostają w pętli.

„Decyzja należy do człowieka” – mówi. „Zarządzanie modelami i egzekucjami jest osadzone w sposobie, w jaki robimy rzeczy. W TUI rozumiemy, iż chatboty to maszyny. Traktujemy je z szacunkiem ze względu na ich zgromadzoną wiedzę, ale także patrzymy ludzkim okiem na ich procesy”.

Hastings Direct: Znajdź odpowiednie obszary do eksploracji

Sasha Jory, dyrektor ds. informatyki w firmie ubezpieczeniowej Hastings Directmówi, iż jej firma wykorzystuje AI w kilku obszarach, w tym w ocenie ryzyka i obsłudze zapytań klientów. Mówi, iż kluczem do sukcesu jest zapewnienie, iż Twoje dane są zarządzane i zrozumiałe.

„AI kocha dane” – mówi. „Musisz mieć wszystko w formacie, który AI może odczytać, przyswoić i wykorzystać. Na przykład musisz zamienić nagrania na tekst, aby AI mogła odczytać dane i udzielić odpowiedzi. Zapewnienie współpracy między naszym uczeniem maszynowym, naszą AI i naszymi danymi, we adekwatnym miejscu i formacie, jest najważniejsze dla sukcesu”.

Jory mówi, iż Hastings używa uczenia maszynowego opartego na platformie Azure w ocenie ryzyka. Technologia ta pomogła firmie udoskonalić modele cenowe i ryzyka. „Technologia jest w produkcji i radzi sobie bardzo dobrze” — mówi.

„Zauważyliśmy poprawę szybkości wprowadzania produktu na rynek o ponad 100%, liczba zmian w ocenie ryzyka, które możemy teraz wprowadzić, wzrosła ponad trzykrotnie, a droga do wdrożenia odbywa się w pełni zautomatyzowanym przetwarzaniem bezpośrednim, dzięki czemu wydania realizowane są w ciągu dnia i są proste w realizacji”.

„Nie dajemy się nabrać na szum medialny. Nie uważamy, iż AI jest panaceum na wszystko. AI musi być wykorzystywana w odpowiednich obszarach w celu poprawy i zwiększenia wydajności, a technologia musi być wdrażana ostrożnie i bezpiecznie”

Sasha Jory, Hastings Direct

Hastings używa również Azure i AI, aby pomóc pracownikom pisać listy ze skargami klientów. Jory mówi, iż firma użyła tej technologii, aby zwiększyć czytelność tych listów z wyniku 50 na 100 do około 70. Co więcej, wynik ten cały czas rośnie.

„To daje nam dobry wynik dla naszych klientów, ponieważ otrzymują oni list, który mogą przeczytać” — mówi. „To proste i oznacza, iż ​​jest mniej zwrotów akcji z klientami próbującymi zrozumieć ich problemy”.

Jory mówi, iż wstępne badania Hastings nad AI pokazują, iż technologia ta może być wykorzystywana do uczynienia biznesu mądrzejszym. „To z pewnością coś, na co patrzymy cały czas, ale jesteśmy bardzo ostrożni” – mówi.

„Nie dajemy się nabrać na szum medialny. Nie uważamy, iż AI jest panaceum na wszystko. AI musi być wykorzystywana w odpowiednich obszarach w celu poprawy i zwiększenia wydajności, a technologia musi być wdrażana ostrożnie i bezpiecznie”.

JP Morgan Chase: Cel: spójność danych

Gerard Francis, szef działu produktów ds. danych i analiz w JP Morgan Chase i szef Fusion by JP Morgan, twierdzi, iż jego wczesne badania nad sztuczną inteligencją wskazują, iż technologia ta rozwiąże kilka problemów biznesowych związanych z danymi ustrukturyzowanymi i nieustrukturyzowanymi.

„Problemy są lepiej rozumiane w świecie niestrukturalnym, niezależnie od tego, czy chodzi o techniki takie jak wyszukiwanie czy rozszerzone generowanie dokumentów” — mówi. „Robimy szereg rzeczy, aby ulepszyć doświadczenie z niestrukturalnymi danymi i przypadkami użycia, z którymi można sobie poradzić, od pytań dotyczących obsługi klienta po kwestie prawne”.

Francis mówi, iż wykorzystywanie ustrukturyzowanych danych powinno być postrzegane jako „następna fala” AI. W branży takiej jak finanse istnieje nadmiar ustrukturyzowanych danych, a ludzie wymagają dokładnych odpowiedzi. Firmy muszą rozważyć, w jaki sposób LLM mogą pomóc ludziom wygenerować tę wiedzę.

„Myślę, iż ewolucja będzie tylko trwała” – mówi. „Od początku skupialiśmy się na danych semantycznie poprawnych. Bardzo, bardzo mało osób w branży ma dane semantycznie spójne. A jeżeli nie rozumiesz semantyki, LLM nie może pracować z danymi”.

Francis wyjaśnia semantykę bardziej szczegółowo. Pracownicy mogą używać różnych kodów, takich jak „MATUR” lub „MAT”, dla terminów branżowych, takich jak dojrzałość. LLM-owie będą mieli trudności ze zrozumieniem, co te kody oznaczają bez wskazówek. Definicje mogą się również nakładać.

„Ta sama nazwa może oznaczać trzy różne rzeczy w zależności od tego, od kogo pochodzą te dane” — mówi. „Jeśli zadajesz pytanie, LLM może je przetłumaczyć, używając opisu, ale może podać niepoprawną odpowiedź, ponieważ ma inną interpretację tego słowa. JP Morgan współpracuje z wieloma klientami i dużą ilością danych, więc stworzyliśmy wspólną definicję wszystkich terminów biznesowych, których ktoś użyłby na rynkach finansowych”.

Ta semantyczna spójność przynosi świetne rezultaty. „To duża inwestycja JP Morgan w stworzenie tej technologii. Zatrudniliśmy jednych z najbardziej utalentowanych ludzi w branży, aby to zadziałało” — mówi Francis.

„Istniejemy, aby uszczęśliwiać naszych klientów i zapewnić im świetną obsługę. Dla nas AI oznacza dokonywanie tej inwestycji z myślą o przyszłości i ciągłym rozwoju”.

Scania: Szybciej i prościej

Ulf Holmström, główny naukowiec ds. danych w Scania Group, mówi, iż jego firma chce jak najlepiej wykorzystać AI. Jego zespół dba o to, aby firma skupiała się na adekwatnych obszarach.

„Badaliśmy GenAI, ale jeszcze nie jest w produkcji” — mówi. „Zaczęliśmy od wewnętrznego wsparcia, a nie procesów skierowanych do klienta. Jednak to, co można zrobić z tą technologią, jest oszałamiające”.

Holmström mówi, iż Scania bada GenAI za pośrednictwem technologii Amazon Web Services (AWS). Firma prowadzi swoje eksploracje od roku i odnotowała pewne „dobre wyniki”. Scania jest również zainteresowana technologiami rozwijanymi przez Snowflake, w szczególności Cortex.

„Na podstawie mojego doświadczenia, jeżeli Snowflake spełni swoje obietnice, będziemy mogli budować aplikacje generatywne szybciej i prościej” — mówi. „Jestem pod wrażeniem, ponieważ ciężko pracowaliśmy z AWS Bedrock. Snowflake dodaje kolejną warstwę abstrakcji na wierzch technologii od dostawców chmury”.

Scania wykorzystuje siatkę danych zbudowaną na platformie Snowflake, aby generować usługi oparte na spostrzeżeniach dla klientów. w tej chwili firma ma około 60 kont Snowflake. Holmström chce zbadać, w jaki sposób ta podstawa może stworzyć zaufaną platformę dla AI.

„Dzięki naszej siatce wiemy, iż możemy zaufać naszym danym” — mówi. „Możemy skupić się na rozwiązywaniu problemów biznesowych i pozwolić Snowflake i AWS zająć się stosem technologicznym. To prawie jak samoobsługowa sztuczna inteligencja”.

Eutelsat: Zidentyfikuj swoje główne wyzwania

Miguel Morgado, starszy właściciel produktu w centrum wydajności w Eutelsat Group, mówi, iż większość projektów AI firmy satelitarnej koncentruje się na przewidywaniu awarii i analizie przyczyn źródłowych. Jednym z kluczowych przypadków użycia jest prognozowanie pogody.

„Zdarzenia pogodowe, takie jak cyklon, burza lub ulewny deszcz, mogą mieć wpływ na anteny satelitarne” – mówi. „Wszyscy operatorzy satelitarni mają środki zaradcze, takie jak zwiększenie mocy sygnału podczas ulewnego deszczu. Dane pogodowe w czasie rzeczywistym mogą pomóc nam przewidzieć, kiedy pogoda wpłynie na terminale użytkowników w każdym regionie i zapewnić najlepszą obsługę klienta”.

Eutelsat daje swoim klientom gwarancje usług. Dane i AI mogą pomóc firmie zapewnić, iż spełnia umowy o poziomie usług. Morgado wyjaśnia, w jaki sposób jego organizacja wprowadza źródła danych do Snowflake i uruchamia algorytmy w celu generowania spostrzeżeń.

„Wszystko robimy sami” – mówi. „Nie używamy ChatGPT, Mistral ani niczego innego. Planujemy używać Cortexa w określonych przypadkach użycia. Będziemy pracować nad tym obszarem w ciągu najbliższych sześciu miesięcy. Już teraz przeprowadzamy dowód koncepcji. Testujemy grunt”.

Morgado mówi, iż eksploracje jego firmy w zakresie AI sugerują, iż wyzwania muszą zostać pokonane. Jednym z kluczowych problemów jest zapewnienie firmie dostępu do wykresu wiedzy, zbioru powiązanych opisów jednostek, który umieszcza dane w kontekście i umożliwia analizę i współpracę.

„Problem z AI polega na tym, iż łatwo powiedzieć: ‘Powiedz mi, jak radzi sobie mój satelita’. A system odpowie: ‘Jest w użyciu’. Jednak trudno zapytać: ‘Jaka jest wydajność naszej sieci w Londynie?’ Na to pytanie trudno odpowiedzieć, ponieważ potrzebujesz wykresu wiedzy na podstawie swoich danych i AI”.

Morgado mówi, iż Eutelsat współpracuje z RelationAI, aby zbadać, jak ich graf wiedzy działa na platformie Snowflake: „Jednym z największych wyzwań dla nas jest to, w jaki sposób możemy wykorzystać sztuczną inteligencję i grafy wiedzy – i to właśnie testujemy”.



Source link

Idź do oryginalnego materiału