Rewolucja AI dzieje się tu i teraz, a Polska ma szansę być jej liderem – to główny wniosek z Google Cloud Summit 2025, który odbył się w Warszawie. Na PGE Narodowym dyskutowano o globalnych trendach, ale przede wszystkim o polskiej specjalizacji, talentach i „głodzie sukcesu”. Na scenie obok siebie stanęli przedstawiciele Google, liderzy biznesu tacy jak Rafał Brzoska, a także twórcy polskich “jednorożców AI”.
18 września na PGE Narodowym w Warszawie odbyła się kolejna edycja Google Cloud Summit, jednego z największych wydarzeń technologicznych w regionie. Hasłem przewodnim i tematem, który przenikał zarówno sesję otwierającą, ponad 70 prelekcji w sześciu salach, jak i kuluarowe dyskusje, była nie tylko chmura, ale i sztuczna inteligencja. Jednak nie w kontekście odległej przyszłości, ale jako realne narzędzie, które już teraz redefiniuje biznes, społeczeństwo i naszą codzienność. Wydarzenie pokazało pełne spektrum rewolucji AI – od globalnej wizji Google, przez praktyczne wdrożenia w polskich firmach takich jak Orlen, eSky czy InPost, aż po debatę o przyszłości ludzkości z udziałem liderów biznesu i działaczy społecznych.

Opening Keynote: Polska w sercu rewolucji AI
Wydarzenie rozpoczynające Google Cloud Summit 2025 na PGE Narodowym otworzyła Magdalena Dziewguć, dyrektor zarządzająca Google Cloud w Polsce i CEE. W swoim wystąpieniu podkreśliła, iż Polska stała się jednym z najważniejszych globalnych hubów technologicznych, a obecna generacja ma przywilej i odpowiedzialność, by adekwatnie pokierować transformacją AI, która jest już nieunikniona i na stałe zmieni życie każdego człowieka, jak i każdy biznes.
Głównym mówcą sesji był Matt Renner, President of Global Revenue w Google Cloud, który po raz pierwszy odwiedził Polskę a zarazem – jak się okazało – kraj swoich przodków. Renner stwierdził, iż branża technologiczna przechodzi “reset hiperskalerów” (największych dostawców chmury) napędzany przez AI, a Google Cloud jest w tej zmianie liderem dzięki trzem kluczowym wyróżnikom: kompletnemu, zoptymalizowanemu stosowi technologicznemu (od własnych chipów po modele Gemini), otwartej architekturze oraz partnerskiemu podejściu do klienta.

Na scenie do Matta Rennera dołączyli liderzy polskiego sektora energetycznego, z którymi rozmawiał o praktycznym zastosowaniu AI. Michał Firman, CIO w Orlenie, ogłosił strategiczne partnerstwo z Google w obszarze sztucznej inteligencji, zdradzając przy tym, iż koncern dzięki AI już dziś wydłużył żywotność jednego ze swoich odwiertów gazu o 5-10 lat. Z kolei Dariusz Śpiewak, CIO w Polskich Elektrowniach Jądrowych, podkreślił, iż AI jest kluczowa dla dotrzymania harmonogramu przy budowie elektrowni i iż PEJ będzie w tym zakresie polegać na technologii partnerów, takich jak Westinghouse.

W części poświęconej edukacji, Paweł Czerwony z Google for Education oraz Tomasz Kulasa, dyrektor w Ministerstwie Edukacji Narodowej, omówili strategiczne partnerstwo na rzecz cyfrowej transformacji polskiej oświaty. Jak podkreślono, ramach programu “Cyfrowy uczeń” do 11 600 szkół trafią Chromebooki, a nauczyciele otrzymają wsparcie i szkolenia z wykorzystania narzędzi cyfrowych, w tym AI.

Sesję kontynuowały dwa panele dyskusyjne. W pierwszym, “Jak AI redefiniuje IT”, udział wzięli Łukasz Bolikowski (Comarch), Michał Potoczek (WEBCON) i Bartek Pucek (Proofs.io). Eksperci zgodnie stwierdzili, iż największym wyzwaniem we wdrażaniu AI nie jest sama technologia (10% wysiłku) ani jej skalowanie (20%), ale zarządzanie zmianą w organizacji, które stanowi aż 70% całego wysiłku.

Drugi panel, “AI Made in Poland”, zgromadził na scenie Karola Traczykowskiego (Docplanner / ZnanyLekarz) i Sebastiana Kondrackiego (SpeakLeash / Bielik AI). Karol Traczykowski opowiedział o asystencie Noa AI, który pomaga lekarzom automatyzować tworzenie dokumentacji medycznej. Podkreślił, iż siłą Polski jest specjalizacja i budowanie z naszego kraju najlepszego na świecie medycznego modelu “speech-to-text” dla języków innych niż angielski. Z kolei Sebastian Kondracki wyjaśnił potrzebę istnienia polskiego modelu językowego Bielik. Porównał globalne modele do transportu publicznego, a Bielika do wyspecjalizowanego narzędzia, które znacznie lepiej radzi sobie z niuansami języka polskiego i lokalnym kontekstem kulturowym, np. odróżnianiem… klusek śląskich od pyz.

Sesję zamykały wystąpienia Marianne Janik, wiceprezes Google Cloud na region EMEA North, oraz Luke’a McNamary’ego, analityka z Mandiant. Janik podkreśliła, iż Google od dekady pracuje nad rozwiązaniami w zakresie suwerenności danych, oferując modele od chmury publicznej z kontrolą kluczy, przez chmury obsługiwane przez lokalnych partnerów, aż po całkowicie odizolowane (“air-gapped”), z których korzysta m.in. brytyjskie i niemieckie Ministerstwo Obrony. Z kolei Luke McNamara zwrócił uwagę, iż w cyberbezpieczeństwie trwa wyścig zbrojeń. Atakujący używają AI do zwiększenia efektywności, a obrońcy – by szybciej reagować na zagrożenia.

Spotkania z przedstawicielami Google: Suwerenność danych i krajobraz cyberzagrożeń
Tematyka suwerenności i cyberbezpieczeństwa była na tyle istotna, iż nie zakończyła się na głównej scenie. Tak się składa, iż przedstawiciele wybranych polskich redakcji (w tym ITReseller.pl) mogli szerzej przedyskutować najważniejsze dla Polski kwestie bezpieczeństwa i suwerenności chmury z obojgiem wspomnianych przed chwilą prelegentów – Marianne Janik i Lukiem McNamarą.
Marianne Janik o suwerenności w chmurze
Marianne Janik podkreśliła, iż suwerenność danych i chmury to temat, którym Google zajmuje się od blisko dekady. W odpowiedzi na rosnące obawy klientów i regulatorów, firma wypracowała trzy modele, które pozwalają dostosować poziom suwerenności do konkretnych potrzeb:
- Publiczna chmura z granicami suwerenności – Standardowe rozwiązanie, w którym klienci mają pełną kontrolę nad lokalizacją swoich danych oraz kluczami szyfrującymi. W większości przypadków, po dokonaniu oceny ryzyka, jest to model w pełni wystarczający.
- Chmura dedykowana (tzw. “model francuski”) – W pełni funkcjonalny region Google Cloud, ale obsługiwany przez zaufanego, lokalnego partnera. We Francji jest to firma Thales. Rozwiązanie to spełnia rygorystyczne, krajowe normy bezpieczeństwa (np. francuski standard SecNumCloud) dla sektora publicznego i infrastruktury krytycznej.
- Chmura “Air-gapped” – Najwyższy poziom suwerenności, gdzie technologia Google jest instalowana w infrastrukturze klienta, całkowicie odizolowana od zewnętrznych sieci. Ten model został wybrany m.in. przez ministerstwa obrony Wielkiej Brytanii i Niemiec.
Janik odniosła się również do głośnej obawy dotyczącej potencjalnego dostępu amerykańskich władz do danych w chmurze (tzw. “scenariusz Trumpa”). Zapewniła, iż Google stosuje rozwiązania techniczne, które uniemożliwiają taki dostęp. jeżeli klient zarządza własnymi kluczami szyfrującymi, firma technicznie nie jest w stanie odczytać danych, co daje klientom “techniczne weto” wobec ewentualnych żądań rządowych. Podkreśliła, iż kluczem jest pragmatyzm i odpowiednia ocena ryzyka, a nie blokowanie innowacji. Jako przykład pozytywnego wpływu chmury na rozwój podała polską firmę ElevenLabs, która na platformie Google Cloud stała się tzw. globalnym jednorożcem.

Luke McNamara o Polsce na celowniku hakerów
Luke McNamara, analityk ds. wywiadu o zagrożeniach z Mandiant, przedstawił natomiast ponury, ale realistyczny obraz cyberzagrożeń, z jakimi mierzy się Polska. Według danych pochodzących z Mandiant, Polska, zaraz po Ukrainie, jest najczęstszym celem rosyjskich cyberataków w Europie.
McNamara podzielił zagrożenia na trzy główne kategorie:
- Ataki motywowane finansowo – Głównie ransomware i kradzież danych dla okupu. W Polsce najczęściej dotykają one sektor handlu detalicznego, a w dalszej kolejkości firmy produkcyjne, technologiczne i instytucje rządowe.
- Szpiegostwo państwowe – Oprócz Rosji, bardzo dużą aktywność wymierzoną w Polskę wykazuje grupa hakerska UNC1151, powiązana z Białorusią. Istotne zagrożenie stanowią również grupy z Chin, specjalizujące się w wykorzystywaniu luk typu “zero-day” w publicznie dostępnych systemach (VPN, routery). Nowym, rosnącym problemem są północnokoreańscy pracownicy IT, którzy, ukrywając swoją tożsamość, zatrudniają się zdalnie w europejskich firmach (także w Polsce), aby zdobywać środki finansowe dla reżimu.
- Haktywizm i operacje informacyjne – Prorosyjskie grupy haktywistyczne regularnie przeprowadzają ataki (np. na polską elektrownię wodną), których głównym celem jest efekt psychologiczny i dezinformacja. Często wyolbrzymiają one skalę i skutki swoich działań.
Analityk podkreślił, iż najsłabszymi punktami, które prowadzą do większości udanych włamań, są w tej chwili niezabezpieczona infrastruktura brzegowa (brak aktualizacji) oraz kwestie tożsamości (słabe uwierzytelnianie wieloskładnikowe). W kontekście AI McNamara stwierdził, iż trwa wyścig zbrojeń – hakerzy używają AI do zwiększenia efektywności swoich działań, a obrońcy, by szybciej wykrywać zagrożenia, automatyzować zadania i niwelować braki kadrowe.

Ponad 70 prelekcji w 6 salach: Przegląd wybranych sesji
Jedną z ciekawszych atrakcji było ponad 70 prelekcji i warsztatów, które odbywały się równolegle w sześciu salach PGE Narodowego. Tematyka była niezwykle szeroka – od głębokich nurkowań technicznych w architekturę AI, przez strategie wdrażania chmury w firmach, aż po liczne studia przypadków (case studies) prezentowane wspólnie przez Google i ich klientów. Poniżej przedstawiamy podsumowanie kilku wybranych prezentacji.
Jak eSky zautomatyzowało produkcję wideo reklamowych dzięki AI
Inga Wawrzyniak-Gacek z eSky oraz Krzysztof Rosiński z Google przedstawili case study kampanii reklamowej, która powstała w zaledwie dwa tygodnie dzięki połączeniu ludzkiej kreatywności z generatywną AI. Proces rozpoczął się od analizy danych eSky, z których wyłoniono trendujące kierunki podróży, takie jak Dubaj i Bali. Następnie, przy użyciu modelu językowego, wygenerowano pomysły kreatywne, które stały się podstawą do stworzenia spotów wideo przy użyciu modeli Veo 3 i Imagen 4.
Efekty przerosły oczekiwania. Dwa wygenerowane przez AI spoty, umieszczone w kampanii obok trzech tradycyjnych, wygenerowały 70% wszystkich kliknięć. Systemy reklamowe Google chętniej alokowały na nie budżet, co przełożyło się na niższe koszty dotarcia i większe zasięgi. Jak podkreśliła Inga Wawrzyniak-Gacek, AI nie tylko zwiększa efektywność, ale też “dodaje odwagi” do podejmowania kreatywnego ryzyka, które przy tradycyjnej produkcji (np. z wytresowanymi kotami i grafiką 3D) byłoby zbyt kosztowne.

ElevenLabs: Głos jako nowy interfejs
Jędrek Śmigielski z ElevenLabs przedstawił wizję, w której głos, najbardziej naturalny sposób komunikacji, staje się nowym, głównym interfejsem w interakcji z maszynami. Przez lata robotyczne, pozbawione emocji syntezatory mowy (IVR) zniechęcały firmy do budowania aplikacji głosowych. ElevenLabs, dzięki realistycznym i emocjonalnym modelom AI, całkowicie to zmienia, co potwierdzają wdrożenia u ponad 60% firm z listy Fortune 500.
Śmigielski wyjaśnił, iż kluczowym wyzwaniem w budowie agentów głosowych jest latencja (opóźnienie). Aby ją zminimalizować, ElevenLabs stworzyło własny, zintegrowany stos technologiczny (od text-to-speech po speech-to-text), który pozwala na obsługę połączeń z opóźnieniem rzędu 150 ms. Jako przykład spektakularnego sukcesu podał firmę Mesho, jednego z największych marketplace’ów w Indiach, gdzie agenty głosowe ElevenLabs obsługują ponad 60 000 połączeń dziennie w dwóch językach, automatyzując 90% zapytań i redukując koszty o 80%.

Od prostych promptów do architektury wieloagentowej
Ewa Wojtach i Mikołaj Stefaniak z Google na przykładzie aplikacji do oceny wartości odżywczej produktów spożywczych opowiedzieli o typowej drodze, jaką przechodzą deweloperzy budujący systemy AI. Ich podróż rozpoczęła się od jednego, monolitycznego agenta, którego prompt stawał się coraz dłuższy i bardziej złożony w miarę dodawania kolejnych narzędzi i funkcjonalności.
Doprowadziło to do problemu “zagubienia w środku” (ang. lost in the middle), gdzie model językowy gubił kontekst i pomijał instrukcje znajdujące się w środku długiego promptu. Rozwiązaniem okazało się rozbicie jednego agenta na kilka mniejszych, wyspecjalizowanych, np. jednego do zbierania danych o produkcie, a drugiego do jego oceny. To z kolei zrodziło nowe wyzwania: jak zapewnić efektywną komunikację między agentami (rozwiązaniem okazał się ustrukturyzowany output, np. w formacie JSON) oraz jak zoptymalizować wydajność, co udało się osiągnąć m.in. dzięki przejściu na mniejszy model (Gemini Flash) i zrównolegleniu zadań.

Suwerenność danych i chmurowa elastyczność
Michał Ajduk z Google zajął się z kolei jednym z najgorętszych tematów w branży – suwerennością danych. Podkreślił, iż Google oferuje klientom elastyczne podejście, pozwalające pogodzić zgodność z regulacjami (jak nowe standardy cyberbezpieczeństwa w Polsce) z dostępem do innowacji AI. Przedstawił tym samym trzy główne modele zapewniania suwerenności:
- Google Cloud Data Boundary – Rozwiązanie software’owe, które pozwala na ścisłą kontrolę nad lokalizacją danych (np. tylko na terenie UE) i dostępem do nich. Klucze szyfrujące pozostają u klienta, co w praktyce adresuje większość potrzeb firm.
- Dedykowane regiony chmurowe – Utrzymywane przez lokalnych, zaufanych partnerów (np. T-Systems w Niemczech), przeznaczone dla sektora publicznego i infrastruktury krytycznej.
- Google Distributed Cloud (Air-gapped) – Prywatna, w pełni odizolowana od sieci instancja chmury Google, instalowana w infrastrukturze klienta. Z tego rozwiązania korzystają m.in. instytucje militarne, jak niemiecka Bundeswehra.
Ajduk zaznaczył, iż celem tych rozwiązań jest umożliwienie klientom korzystania z najnowszych technologii AI, choćby przy najbardziej rygorystycznych wymaganiach dotyczących bezpieczeństwa i lokalizacji danych.

Closing Keynote: Jak AI zdefiniuje na nowo Polskę, Europę i świat?
Zwieńczeniem całego dnia była debata, w której wzięli udział Martyna Wojciechowska (prezeska Fundacji UNAWEZA), Rafał Brzoska (założyciel i CEO InPost), dr Maciej Kawecki (prezes Instytutu Lema) oraz Mati Staniszewski (współzałożyciel ElevenLabs). Dyskusja, prowadzona przez Magdalenę Dziewguć, skupiła się na szansach i zagrożeniach, jakie rewolucja AI niesie dla Polski i świata, wykraczając daleko poza technologię i biznes.
Dwa oblicza rewolucji: fascynacja i lęk
Paneliści byli zgodni, iż sztuczna inteligencja fundamentalnie i nieodwracalnie zmienia świat, jednak ich perspektywy na tę zmianę były dość zróżnicowane. Mateusz Staniszewski opowiedział o realnym wpływie AI na ludzkie życie, podając przykłady odtworzenia głosu amerykańskiej kongresmenki, która straciła go w wyniku choroby Parkinsona, czy stworzenia interaktywnego awatara fizyka Richarda Feynmana do celów edukacyjnych. Z kolei dr Maciej Kawecki przyznał, iż czuje rozdwojenie – z jednej strony fascynuje go geniusz twórców AI, z drugiej przerażają go słowa czołowych badaczy, którzy mówią o “końcu gatunku ludzkiego, jaki znamy”. Podkreślił, iż jest to rewolucja, której nie jesteśmy w stanie w pełni kontrolować. Na ten lęk pragmatycznie odpowiedział Rafał Brzoska, stwierdzając: “Jak nie jesteś w stanie z czymś walczyć, musisz się zaadaptować”. Jego zdaniem, skoro rewolucji nie da się zatrzymać, jedyną drogą jest wykorzystanie jej do ulepszenia i przedłużenia istnienia ludzkości.

Polska szansa: talenty, specjalizacja i “głód sukcesu”
Wszyscy uczestnicy debaty zgodzili się natomiast, iż największą siłą Polski w globalnym wyścigu AI nie są pieniądze, ale ludzie i ich talenty. Dr Kawecki argumentował, iż choć Europa “przespała” rewolucję w tworzeniu fundamentalnych modeli, to naszą szansą jest “obsadzanie świata” polskimi talentami. Wskazał, iż giganci technologiczni coraz częściej kupują startupy nie dla samej innowacji, ale właśnie dla pozyskania genialnych umysłów. Rafał Brzoska nie zgodził się jednak z tezą, iż pociąg z napisem AI już odjechał. Porównał obecną sytuację do wynalezienia samolotu – fakt, iż dokonali tego Amerykanie, nie powstrzymał reszty świata przed budowaniem na tym fundamencie własnych, często lepszych rozwiązań. Uważa, iż polski “głód sukcesu” i zdolność do nieszablonowego myślenia mogą pozwolić naszym firmom całkowicie “odjechać światu” w komercjalizacji i zastosowaniu istniejących już technologii AI.
Człowiek w centrum: czas, dobrostan i krytyczne myślenie
Martyna Wojciechowska konsekwentnie przypominała natomiast o ludzkim wymiarze rewolucji AI. Wyraziła obawę, iż technologia może pogłębić rozwarstwienie społeczne między globalną Północą a Południem, dlatego najważniejsze jest, by AI służyła poprawie życia ludzi, a nie tylko maksymalizacji zysków. Zwróciła też słusznie uwagę na największe wyzwanie edukacyjne naszych czasów: kształtowanie krytycznego myślenia u młodych ludzi, aby potrafili świadomie i bezpiecznie poruszać się w świecie zdominowanym przez AI. Podkreśliła również, iż AI na razie nie jest w stanie zastąpić człowieka w kreatywności i budowaniu głębokich relacji.
Debata zakończyła się mocnym wezwaniem do działania: Polska ma ogromną szansę na sukces w erze AI, ale wymaga to oddolnej inicjatywy, współpracy ponad podziałami i łączenia różnych talentów – technologicznych, biznesowych i społecznych.














