Algorytmy AI w rozwiązaniach Jabra. Adrian Masłowski i Radek Tokarski, Jabra

avintegracje.pl 2 tygodni temu

AI to dwie litery odmieniane dzisiaj praktycznie przez wszystkie przypadki. Chociaż często są one używane czysto marketingowo, to jednak kryje się za nimi rzeczywista technologia.
Niektórzy straszą sztuczną inteligencją, inni widzą w niej olbrzymi potencjał. W wielu obszarach stała się tak oczywistym rozwiązaniem, iż w ogóle nie zauważamy jej na co dzień, ale co najważniejsze, umiejętnie wykorzystana, w odpowiedni sposób, może przynieść nam ogromne korzyści.
AI szturmem wkroczyła również do przemysłu spotkań zdalnych. Algorytmy automatyzujące pracę i zdejmujące z nas realizację wielu uciążliwych zadań nie tylko obecne są w najpopularniejszych platformach wideokonferencyjnych, ale także w fizycznych urządzeniach, stworzonych do współpracy z nimi.
Doskonałym przykładem takiego producenta jest marka Jabra, która już od wielu lat wykorzystuje algorytmy sztucznej inteligencji w swoich produktach.
Ponieważ AI dla rynku UC wkroczyła w tej chwili w fazę dojrzałą i w najbliższych latach możemy spodziewać się raczej ewolucji niż rewolucji, jest to doskonały moment, aby porozmawiać z przedstawicielami firmy Jabra o tym, jakie możliwości daje ta technologia i w jaki sposób jest ona wykorzystywana w urządzeniach producenta, a także dlaczego to właśnie sprzęt tej marki, radzi sobie zdecydowanie lepiej w połączeniu ze sztuczną inteligencją, niż inne, obecne na rynku rozwiązania.

Przeprowadzone przez firmę Jabra badania, wskazują na pewien paradoks w odniesieniu do technologii AI wykorzystywanej w przedsiębiorstwach. Podczas, gdy managerowie wskazują na wysoki poziom zaufania do sztucznej inteligencji, tylko garstka pracowników biurowych korzysta z niej w realizacji codziennych obowiązków. Wskazuje to, iż chociaż decydenci są optymistycznie nastawieni do możliwości, jakie przynosi AI, to jednak wciąż może jeszcze brakować niezbędnej wizji, czy potrzebnych umiejętności do efektywnego i skutecznego wdrożenia tych narzędzi. Aż 63% przebadanej kadry managerskiej deklaruje, iż sztuczna inteligencja może usprawnić ich pracę. Taki sam pogląd wyraża 54% pracowników. 85% wykazuje duże zainteresowanie rozwiązaniami, opartymi na sztucznej inteligencji, 82% cały czas nie wie, w jaki sposób AI może poprawić ich efektywność, natomiast tylko 26% pracowników korzysta z tych narzędzi w codziennej pracy.
Oczywiście najpopularniejszymi rozwiązaniami, z których korzystamy zarówno w pracy, jak i w życiu prywatnym są generatywne aplikacjie AI, takie jak ChatGPT, ale także platformy AI jak Microsoft CoPilot.
Coraz większą obecność i postępujący rozwój algorytmów sztucznej inteligencji widać również w najpopularniejszej dzisiaj platformie do spotkań zdalnych Microsoft Teams.
AI zapewnia automatyzację rutynowych, uciążliwych i żmudnych zadań, pozwala na ulepszenie jakości spotkań i spersonalizowanie doświadczeń ich użytkowników. Rozwijane wciąż narzędzia nie tylko potrafią ograniczyć szum tła, lepiej wyizolować mowę i poprawić jakość obrazu, ale także są w stanie zapewnić automatyczne, symultaniczne tłumaczenie na żywo, stworzyć automatyczną transkrypcję spotkania, wraz z podsumowaniem, wyszczególnieniem najważniejszych jego punktów, czy listą zadań do wykonania. Daje możliwość tworzenia automatycznych tagów, co ułatwia w przedsiębiorstwach przeszukiwanie dużych zbiorów i archiwów, ale także potrafi dopasować sposób i przekazywane treści do odbiorców, nie tylko na rynku biznesowym, ale także edukacyjnym.
Sztuczna inteligencja ma również olbrzymie znaczenie w samym sprzęcie marki Jabra. Wystarczy tylko powiedzieć, iż flagowy wideo bar PanaCast 50 pewnie by nie powstał gdyby nie AI, która odpowiada m.in. za opatentowaną technologię łączenia obrazu z trzech zainstalowanych kamer, w czasie rzeczywistym. Ponadto sztuczna inteligencja wspiera także takie narzędzia jak: dynamiczna kompozycja, inteligentne rozpoznawanie mówcy, wirtualny reżyser, który kieruje uwagę uczestników konferencji na przemawiającą w danym momencie osobę, inteligentny zoom, biała tablica (umożliwiająca równoczesne przesyłanie treści zapisywanych na tablicy, jak i widoku uczestników spotkania), czy inteligentna konferencja, która pozwala na wyznaczenie wirtualnych granic przestrzeni konferencyjnej bez ryzyka, iż nagle ktoś pojawi się przypadkowo na naszym spotkaniu, co ma najważniejsze znaczenie przede wszystkim w przypadku otwartych biur, czy pomieszczeń ze szklanymi ścianami.
Również najnowszy model PanaCast 40 VBS jest w znacznym stopniu wspierany właśnie przez AI. Mowa tutaj chociażby o inteligentnym łączeniu obrazu już nie z trzech, ale z dwóch kamer, a także śledzeniu osób mówiących, automatycznemu kadrowaniu, czy przełączaniu poszczególnych kadrów w zależności od układu uczestników w sali i przebiegu samego spotkania.

Najnowszy wideo bar Jabra PanaCast 40 VBS został wyposażony w dwie kamery. Za składanie obrazu z nich również odpowiedzialne są algorytmy AI.

Warto tutaj zwrócić uwagę również, iż PanaCast 40 VBS wpisuje się w taki nowy standard, opracowany przez firmę Jabra, we współpracy z Microsoft tzw. Express Roomy. Są to sale do spotkań, które można zbudować nie w godziny, ale w minuty. To rozwiązania do miejsc, w których nie chcemy wiercić dziur w ścianach, nie chcemy kłaść okablowania. PanaCast 40 VBS może pracować, bezprzewodowo, w oparciu o sieć Wi-Fi, zarówno o ile chodzi o ekran wykorzystywany do sterowania jak i sam wideo bar. Microsoft po prostu zaleca instalację urządzenia na stojaku i umieszczenie go pod ekranem. Nie ma zatem konieczności wiercenia uchwytów, kucia, stosowania kłopotliwego okablowania itd. To wszystko przynosi cały szereg zalet dla działu AV pracującego w firmie czy dla integratora. Natomiast największymi zaletami dla użytkownika jest bardzo prosty w użyciu panel dotykowy i bardzo prosty interfejs użytkownika, z którym będą mieli do czynienia w każdej z sal, gdzie zostanie wdrożone najnowsze rozwiązanie. Nie wymaga to długotrwałych szkoleń, czasu potrzebnego na wdrożenie, adaptację itp., a jak wiadomo dużą częścią budżetu każdego wdrożenia jest właśnie czas.
Nieco inaczej wygląda sytuacja, o ile chodzi o słuchawki marki Jabra. Dzisiaj nie tyle mają one zaimplementowane algorytmy AI, ale są najlepszą bramą do efektywnego korzystania z tych narzędzi na co dzień. Dzięki temu, iż są wyposażone w rozwiązania gwarantujące najlepsze przetwarzanie mowy oraz doskonałą czytelność wypowiadanych komunikatów, pozwalają na bardzo precyzyjne przekazywanie komend np. agentom AI.
Ma to najważniejsze znaczenie, w szczególności gdy weźmiemy pod uwagę, iż rynek zmierza właśnie w kierunku sterowania narzędziami bazującymi na sztucznej inteligencji przy pomocy głosu, a nie wpisywanych z poziomu klawiatury promptów.
Producent ma w swojej ofercie także niezwykle rozbudowaną platformę Engage AI, stworzoną przede wszystkim z myślą o contact center, która pomaga zautomatyzować zadania administracyjne, automatycznie eliminuje hałas z rozmów i potrafi analizować ton rozmowy, bez konieczności wnikania w jej treść, wspomagając tym samym agentów w ich codziennej pracy.
Zgodnie z zapowiedziami, już niedługo możemy oczekiwać również zestawów słuchawkowych, czy słuchawek dousznych, które nie będą wymagały połączenia z zewnętrznymi urządzaniami czy aplikacjami, ale będą miały już na pokładzie chipy umożliwiające korzystanie z potencjału sztucznej inteligencji.
Postanowiliśmy zapytać przedstawicieli firmy Jabra, jak wygląda implementacja algorytmów AI w urządzeniach producenta, jakie dają one możliwości użytkownikom i jak będzie wyglądał rozwój sztucznej inteligencji w zastosowaniach UC w najbliższej przyszłości?

Niewykluczone, iż już niedługo słuchawki będą wyposażane w chipy AI, które pozwolą na realizowanie, takich zadań jak: tłumaczenie na żywo, transkrypcja czy spotkania, czy też wsparcie rozmówcy bezpośrednio w słuchawkach, bez konieczności podłączania ich do komputera czy telefonu.

Łukasz Kornafel, „AVIntegracje”: Kiedy algorytmy AI pojawiły się i jak wyglądał ich rozwój w urządzeniach marki Jabra?
Adrian Masłowski, Pre-Sales Account Manager EMEA, Jabra:
Tak naprawdę algorytmy AI są implementowane do naszych rozwiązań, od kiedy tylko pojawiły się na rynku.
Nieco ponad pięć lat temu kupiliśmy amerykański startup o nazwie Altia Systems, co pozwoliło nam na wejście do świata wideo z bardzo fajnymi technologiami. Chociażby możliwość składania panoramicznego obrazu z trzech, a teraz z dwóch niezależnych obiektywów, bazuje właśnie na uczeniu maszynowym. Bez nowoczesnych procesorów i zaawansowanych algorytmów, byłoby to zupełnie niemożliwe. To od strony wideo. Z pespektywy audio natomiast, zaawansowane algorytmy AI umożliwiają odseparowanie ludzkiej mowy od tła otoczenia w znacznie lepszy sposób, niż wcześniejsze technologie noise cancellingu. Ponadto w przypadku takiego oprogramowania, jak Engage AI, pozwalają np. na rozpoznawanie emocji na bazie tonu głosu. Wiele systemów, dostępnych na rynku, umożliwia rozpoznanie emocji osoby mówiącej, w oparciu o wypowiadane przez nią słowa. Nasz system nie analizuje w żaden sposób treści, ale tylko bazuje na rozpoznawaniu tonu głosu, co sprawia, iż platforma Engage AI jest niezwykle bezpiecznym rozwiązaniem np. dla banków, placówek medycznych, instytucji zaufania publicznego czy sektora prawniczego. W ich przypadku nagrywanie rozmów i przesyłanie do firm trzecich jest absolutnie wykluczone.

Świetnie, iż poruszyłeś ten aspekt. Biorąc pod uwagę ogólnoświatową sytuację geopolityczną, tematem, który jest w tej chwili szczególnie mocno akcentowany jest właśnie bezpieczeństwo. Czy mógłbyś nieco przybliżyć nam, jak jest on postrzegany i realizowany przez firmę Jabra?
Jeżeli chodzi o zagadnienia dotyczące wideo, wszystkie nasze algorytmy związane ze zszywaniem obrazu, rozpoznawaniem twarzy rozmówcy, czy automatycznym kadrowaniem, są zaszyte w urządzeniu i nie przesyłamy żadnych danych wrażliwych pomiędzy naszym urządzeniem a jakimkolwiek serwerem. Malutki wyjątek stanowi nasza kooperacja z firmą Microsoft i ich rozwiązania dla platformy Teams. W takim wypadku wymiana danych następuje pomiędzy urządzeniem, a chmurą danych Microsoft. Natomiast tu warto podkreślić, iż wymiana ta jest szyfrowana.

Wspomniałeś o platformie Teams. Czy mógłbyś powiedzieć, jakie zalety przynosi kooperacja sprzętu Jabra i najpopularniejszych na rynku platform UC, właśnie w kontekście AI?
AI najbardziej w tym momencie kojarzy nam się z różnymi agentami, takimi jak ChatGPT, Google Gemini czy Microsoft Copilotem, które próbują pomóc nam w codziennym życiu. Jednak rewolucja nie opiera się i nie będzie opierała się o pisanie, ale będzie ona już niedługo bazowała przede wszystkim na komunikacji werbalnej z agentami.
I tutaj wchodzimy my, cali na żółto (śmiech) i dajemy do tego zadania odpowiedni interfejs. Im polecenia, które wydajemy różnym agentom AI, są dla nich lepiej zrozumiałe, tym większa jest szansa na najbardziej trafne odpowiedzi. Jak wskazują przeprowadzane przez nas niezależne badania, możemy pochwalić się 97-98% skutecznością w komunikacji z narzędziami AI, wykorzystując nasze topowe rozwiązania audio. Dla porównania, rozwiązania konsumenckie osiągają do 40%. To już choćby nie jest różnica, to jest przepaść.

Algorytmy sztucznej inteligencji odpowiadają, m.in. w wideo barze PanaCast 50 VBS, za łączenie obrazu z trzech kamer co pozwala na stworzenie spektakularnego obrazu w ramach spotkania wideokonferencyjnego.

Przejdźmy zatem do praktyki. Jakie są najważniejsze, najpopularniejsze narzędzia AI stosowane przez waszych klientów, których użycie nie byłoby możliwe bez sprzętu z logo Jabra?
Moim zdaniem ten efekt synergii zarówno, o ile chodzi o platformę Microsoft Teams, jak i Copilot oraz nasz sprzęt widoczny jest przede wszystkim w transkrypcji.
Na przykład nasze rozwiązania wideo, mają bardzo dobre mikrofony, które świetnie rozpoznają mówców w sali. A flagowy model Jabra PanaCast 50, we współpracy z technologią oferowaną przez Microsoft, potrafi niezależnie rozpoznawać choćby do 10 mówców w sali! Dzięki temu, w trakcie generowania transkrypcji, już nie mówi sala, ale mówią poszczególne osoby w sali.
Dla mnie, rewolucja AI, to właśnie te małe rzeczy, których po pewnym czasie, nie będziemy już choćby zauważali, a będą one na co dzień ułatwiać nam pracę i komunikację.
Nasze 180 stopni w urządzeniach PanaCast jest możliwe tylko i wyłącznie dzięki algorytmom uczenia maszynowego, ponieważ zszywanie obrazu z trzech obiektywów, a w przypadku najnowszego modelu PanaCast 40 VBS dwóch, bazuje na przeprowadzanej 60 razy na sekundę analizie obrazu, dzięki czemu urządzenia potrafią znaleźć idealny punkt łączenia tak, aby nie przebiegał on przez problematyczne przedmioty, dziwne kształty, czy twarze uczestników spotkania, co sprawiłoby, iż punkt zszycia obrazu byłby widoczny. Z drugiej strony wszystkie nasze tryby wideo, poza śledzeniem mówcy, opierają się właśnie na algorytmach sztucznej inteligencji. System kadruje po rozpoznaniu pozycji twarzy, ramion i dłoni.
Punktem wyjścia do pracy z każdym trybem wideo jest poprawne rozpoznanie każdej z osób biorących udział w spotkaniu, bez tego nie da się wykorzystać poprawnie żadnego z tych narzędzi.

Algorytmy AI są wykorzystywane w rozwiązaniach Jabra odkąd tylko pojawiły się na rynku. w tej chwili coraz więcej urządzeń producenta z nich korzysta.

Jak dzisiaj wygląda rozwój AI w rozwiązaniach audio dla rynku UC?
Radosław Tokarski, Enterprise Accounts Manager na region Europy centralnej i wschodniej w Jabra:
Dzisiaj, praktycznie wszyscy producenci, działający w sektorze konsumenckim i mający określoną renomę, zastanawiają się, jak zaimplementować algorytmy w swoich rozwiązaniach. I cały czas ten rozwój nabiera rozpędu. Jednak, gdy mówimy np. o konsumenckich słuchawkach, nie są to jeszcze urządzenia, które mogą pracować niezależnie, samodzielnie. Aby cieszyć się możliwościami AI, wciąż potrzebne jest połączenie z telefonem. Dzisiaj, głównym widocznym trendem i wyzwaniem, z którym mierzą się wszyscy producenci jest to, aby nie trzeba było pisać poleceń dla agentów AI, ale by dało się z nimi rozmawiać. Te trendy można zauważyć również w naszych raportach. Wciąż obserwujemy bardzo duży entuzjazm w organizacjach, o ile chodzi o AI. Widzimy, iż bardzo przydatne rozwiązanie, które realnie może usprawnić nam pracę, a pracownicy liczą na to, iż niedługo proste, powtarzalne czynności będzie można przekazać właśnie na rzecz AI, a oni będą mogli skupić się na swojej kreatywnej pracy.
Widać jednoznacznie, iż przyszłość AI, jest mówiona. Ja sam, korzystając z różnych agentów, zauważam, jak wiele czasu zajmuje wpisywanie pytań, czy jakichś dodatkowych poleceń, związanych z tematem, które chcę poruszyć. Tak było, aż do momentu, gdy będąc na spacerze i mając nasze słuchawki, okazało się, iż choćby w tak urokliwym otoczeniu parku z jeziorem, jestem w stanie załatwić wiele spraw, bez konieczności patrzenia w telefon. Właśnie wtedy zrozumiałem, jak wielkim ułatwieniem jest możliwość rozmawiania z agentami AI.
Nie jest tajemnicą, iż jesteśmy w stanie znacznie szybciej i efektywniej rozmawiać niż pisać, nie musimy tak bardzo skupiać uwagi itd.
Tutaj jednak trzeba zauważyć, iż dzisiaj transkrypcja tych poleceń z języka mówionego, na konkretne zadania dla sztucznej inteligencji, w urządzeniach konsumenckich, jest na naprawdę niskim poziomie, w szczególności, gdy jest się gdzieś w głośnym otoczeniu czy w ruchu. gwałtownie okazało się, iż wykorzystując profesjonalne rozwiązania marki Jabra, które od zawsze były tworzone właśnie po to, aby mowa była maksymalnie zrozumiała i przekazana w odpowiedni sposób, od zawsze posiadały algorytmy usuwające dźwięki z otoczenia, znacznie lepiej radzimy sobie w ramach głosowej komunikacji z algorytmami AI niż w przypadku rozwiązań konsumenckich.

Słuchawki Jabra są doskonałym rozwiązaniem do współpracy z narzędziami AI. Dzięki wysokiej jakości komponentom i oprogramowaniu odpowiedzialnemu za najwyższy poziom zrozumiałości mowy, możemy być pewni, iż każde polecenie wydawane sztucznej inteligencji, zostanie doskonale zrozumiane.

Z czego przede wszystkim, Twoim zdaniem, biorą się te różnice wynikające z zastosowania do głosowej komunikacji ze sztuczną inteligencją profesjonalnych rozwiązań marki Jabra, a urządzeń konsumenckich?
Myślę, iż wynika to z kilku różnych elementów. Z jednej strony, jest to oczywiście jakość wykorzystywanych komponentów. Chociaż działamy już dosyć długo na rynku, to jednak i tak wszystkie elementy, wykorzystywane do budowy naszych rozwiązań, z serii na serię są coraz lepsze. Nie tylko pod względem komfortu pracy, czy wrażeń słuchowych, ale także wykorzystania ich właśnie do poleceń głosowych.
Tutaj jednak chciałbym zwrócić uwagę na jeszcze jeden aspekt. Obecnie, za każdym rozwiązaniem AI stoi odpowiedni software, pracujący na danej maszynie i odpowiedzialny za realizację określonych zadań. Takim przykładem jest rozwiązanie o nazwie Engage AI. To specjalne oprogramowanie, stworzone dla podmiotów z obszaru contact center.
Jego zadanie polega na pomocy agentowi w przeprowadzeniu rozmowy z klientem, ale już w oparciu o algorytmy uczące się. Rozwiązanie to, np. już po samym tonie głosu, bez analizy treści, jest w stanie pokazać agentowi, jaki jest nastrój jego rozmówcy i pomóc w poprowadzeniu rozmowy we adekwatny sposób, czy rozładowaniu napięcia. Oczywiście, ułatwia to również analizowanie pracy każdego z agentów.
Dodatkowo w aplikacji zaszyta jest również funkcjonalność ClearSpeech, wspierająca same mikrofony. Agenci pracują w różnych warunkach, nie zawsze w biurze. Czasami kontaktują się oni z klientami, np. na wietrze albo w hałaśliwym otoczeniu. W takiej sytuacji wspomniane oprogramowanie nie tylko jest w stanie wyciąć te dźwięki, ale także sprawić, iż nasz głos będzie brzmiał bardzo naturalnie. Dodatkowo, algorytmy te mogą poprawić również jakość sygnału osoby dzwoniącej do contact center np. w sytuacji, gdy dzwoni ona z ulicy, czy z samochodu. Jednak jak wspomniałem, cały czas są to rozwiązania bazujące na odpowiednim oprogramowaniu. Ja widzę nieco inaczej przyszłość algorytmów AI dla rynku UC. Urządzenia będą musiały, za jakiś czas, stać się niezależnymi agentami AI i ta ewolucja u nas również nastąpi, i to już wkrótce!
Zaawansowane algorytmy będą w stanie np. sprawić, iż do sprawnej komunikacji i transmisji głosu na najwyższym poziomie nie będzie potrzebny już mikrofon na pałąku, który nie zawsze jest elementem cieszącym się największą sympatią wśród użytkowników. Wykorzystując głębokie sieci neuronowe, sztuczną inteligencję i dając urządzeniom możliwość uczenia się specyfiki ich wykorzystania przez użytkowników, będzie można całkowicie pozbyć się wysuwanych mikrofonów, na rzecz rozwiązań dyskretnych, zachowując znakomite parametry, najwyższą jakość i wciąż spełniając bardzo wyśrubowane wymagania poszczególnych platform UC.
Oczywiście, aspiracją wszystkich producentów jest to, aby te algorytmy sztucznej inteligencji pracowały na chipsetach zainstalowanych w samych urządzeniach, np. słuchawkach, ale tutaj znów trzeba wziąć pod uwagę czas pracy na baterii, cenę, wagę, komfort użytkowania itp.
Chciałbym podać taki przykład wzięty z życia, który pokazuje, iż pomimo tego, iż na rynku już dzisiaj mamy dostępne bardzo zaawansowane narzędzia, to jednak efekty ich pracy mogą być bardzo różne i czasami dalekie od ideału. Byłem niedawno na konferencji, w trakcie której wykorzystywana była automatyczna transkrypcja. Chociaż zastosowano wysokiej jakości rozwiązania technologiczne, bardzo dobre mikrofony itp., to jednak algorytmy zostały albo bardzo źle skonfigurowane, albo w ogóle nie zostały one przygotowane do tego konkretnego zadania. Przede mną na scenie głos zabrał specjalista opowiadający o systemach kamer, śledzeniu mówcy itp. Była to naprawdę bardzo interesująca prezentacja. Jednak okazało się, iż system automatycznej transkrypcji, całkowicie mylnie przekazywał niektóre pojęcia, czy wygłaszane zdania. Wystarczy wspomnieć takie przykłady jak: „duńskie punkty położone”, „Modern Warfare” (a więc jedna z części gry Call of Duty), „automatyczne warzywa”, „mikrofon niszczy Izrael”, „a to są książki i pozytywki”, „obsługa konferencyjna grzmi”.
Moim zdaniem to doskonały przykład na to, iż pomimo bardzo dobrze przygotowanego zaplecza sprzętowego, algorytmy AI po prostu nie nadążyły za słowem mówionym.

Adrian Masłowski, Pre-Sales Account Manager EMEA, Jabra (z lewej) i Radosław Tokarski, Enterprise Accounts Manager na region Europy centralnej i wschodniej w Jabra.

A jakie możliwości dają algorytmy AI w innych niż słuchawki rozwiązaniach np. zestawach głośnomówiących czy wideo barach?
Tutaj, najważniejszym czynnikiem rozwoju będzie to, jak zaawansowane i mocne chipsety będą w stanie dostarczać flagowi producenci. W przypadku tych instalowanych na stałe rozwiązań, potrzebne są bardzo mocne układy obliczeniowe. Myślę, iż w przypadku systemów wideo, nieszybko zobaczymy rozwiązania, które pozwoliłyby na dokonywanie obliczeń bezpośrednio na pokładzie urządzeń. Na pewno najważniejszymi wyzwaniami, w przypadku rozwiązań przeznaczonych do instalacji w pomieszczeniach, są problemy związane z ich akustyką, odbiciami, szumem klimatyzacji, hałaśliwymi instalacjami (np. wodnymi czy kanalizacyjnymi), czy hałasem dobiegającym z sąsiadujących przestrzeni. We wszystkich tych bolączkach AI będzie mógł pomóc w znakomity sposób.

Firma Jabra może poszczycić się również tym, iż wasze rozwiązania personalne nie tylko zapewniają znakomitą zrozumiałość mowy i świetną jakość przekazywanych treści, ale także mają zaawansowane algorytmy ochrony słuchu. Czy możesz powiedzieć coś więcej na ten temat?
Mowa tu o rozwiązaniach, które mają za zadanie zapewnienie bezpieczeństwa użytkowników słuchawek. Są one realizowane poprzez algorytmy, które pracują na poziomie słuchawek i są odpowiedzialne za filtrowanie sygnałów o wysokiej głośności, czy dźwięków o wysokiej częstotliwości. Korzystamy z ponad 150 lat doświadczenia naszej marki aparatów słuchowych klasy medycznej – ReSound – aby mieć pewność, iż każdy nasz produkt audio został zaprojektowany z myślą o sprawdzonej ochronie słuchu. Stąd szereg zaawansowanych technologii, które mają za zadanie pomóc w ochronie słuchu. Przykładowa Jabra PeakStop™ zapobiega docieraniu szkodliwych skoków dźwięku do ucha, utrzymując poziomy dźwięku zawsze w bezpiecznym zakresie, a Jabra IntelliTone™ zapewnia, iż średni poziom dźwięku, na który jesteśmy narażeni w ciągu dnia pracy, znajduje się na optymalnym poziomie, aby chronić nasz słuch. Zaufało nam ponad 80% firm z listy Fortune 500 na całym świecie, ponieważ oferujemy światowej klasy, wiarygodne rozwiązania audio, które zapewniają doskonałą jakość dźwięku, jednocześnie chroniąc nasz słuch i zdrowie poznawcze podczas każdego połączenia.

Radku, Adrianie. Jak Waszym zdaniem będzie wyglądał rozwój algorytmów AI w Waszych słuchawkach i rozwiązaniach wideo?
Radosław Tokarski:
Na pewno pojawi się zaawansowana analityka, już nie tylko przydatna dla pionu inżynierskiego, informująca o tym kto, przez jaki czas używał danych słuchawek i w jakim otoczeniu one pracowały, ale także już uwzględniająca zaawansowane rozpoznawanie środowiska, analizę mowy, co ułatwi budowanie własnej, lokalnej bazy, pomocnej w rozwijaniu algorytmów.
Myślę, iż prawdziwą rewolucją będą takie funkcje jak symultaniczne tłumaczenie, realizowane bezpośrednio na pokładzie słuchawek. Dzięki zastosowaniu chipsetów o odpowiedniej mocy, będziemy w stanie zrealizować taki scenariusz, iż mówiąc do kogoś np. po polsku będzie on mógł słyszeć nas mówiących po hiszpańsku, francusku czy włosku, wciąż z zachowaniem naszej barwy głosu. Ponadto, słuchawki będą w stanie zapisać w naszym telefonie transkrypcję spotkania i to z podziałem na poszczególnych rozmówców.

Adrian Masłowski: W najbliższych latach nie spodziewałbym się jakichś wielkich przełomów. To będą niewielkie zmiany, które po pewnym czasie użytkowania staną się dla odbiorców niezauważalne, a będą przynosiły ogromny zysk. Systemy staną się dużo bardziej precyzyjne, dokładne, ale równocześnie dla użytkowników końcowych, a więc uczestników spotkań w sali, korzystanie z nich będzie zdecydowanie prostsze. I to jest cel całej tej rewolucji AI w świecie UC. Systemy mają być prostsze do zarządzania i o wiele bardziej intuicyjne. Na pewno tryby wideo będą bardziej zaawansowane, automatyczne kadrowanie, czy dodawanie podpisów będzie zdecydowanie precyzyjniejsze. Wdrażane systemy będą również znacznie lepiej potrafiły poradzić sobie z zastaną akustyką. Mowa tutaj o eliminacji echa w pomieszczeniu, normalizacji dźwięku w sali, automatycznym wyrównaniu głośności poszczególnych mówców.

Rozmawiał: Łukasz Kornafel, „AVIntegracje”
zdjęcia: „AVIntegracje”

Idź do oryginalnego materiału