Nowy chip działa za pomocą… światła. Czy tak wygląda przyszłość?

news.5v.pl 1 tydzień temu

Czy możliwe jest, by komputery przyszłości zamiast prądu używały światła do przetwarzania informacji? A dlaczego nie? Dwie amerykańskie firmy zaprezentowały urządzenia, które wykorzystują lasery do przeprowadzania obliczeń matematycznych. I niby wyglądają niepozornie, jednak w ich wnętrzu kryją się rewolucyjne wręcz możliwości. Zastosowanie światła jako narzędzia obliczeniowego to nie tylko zmiana medium, ale adekwatnie zmiana paradygmatu architektury komputerów i ich przyszłości.

Współczesne komputery elektroniczne stają się coraz mniej efektywne. Od dekad rozwój ich mocy obliczeniowej opierał się na prawie Moore’a – liczbie tranzystorów, które da się upchnąć na jednym chipie. Problem w tym, iż z fizycznego punktu widzenia zaczynamy dochodzić do granic wyznaczanych nam przez fizykę. Ciepło, zakłócenia, energochłonność – to wszystko sprawia, iż kolejne generacje chipów przestają nas zaskakiwać.

Na drugim biegunie znajduje się sztuczna inteligencja, której potrzeby obliczeniowe rosną adekwatnie w tempie wykładniczym. GPT-4, Claude, Gemini wymagają przetwarzania ogromnych macierzy danych. I właśnie tutaj przyda nam się… światło. Wydajność tradycyjnych chipów nie nadąża za potrzebami obliczeniowymi AI. I dlatego właśnie fotonika budzi w nas wielkie emocje. To wręcz obietnica szybszych, wydajniejszych i potężniejszych układów w urządzeniach.

Komputery, które liczą dzięki światła

Lightmatter z Kalifornii i Lightelligence z Bostonu pokazały światu dwa nowe typy procesorów, które część obliczeń wykonują dzięki światła laserowego. Nie chodzi tu o samo przesyłanie danych (jak w łączach światłowodowych), ale o rzeczywiste operacje matematyczne, np. mnożenie macierzy – arcyważne dla trenowania sieci neuronowych. Czynnikiem warunkującym sukces są tu prędkość i energooszczędność: światło porusza się znacznie szybciej niż elektrony, a komponenty optyczne nagrzewają się mniej niż ich elektroniczne odpowiedniki.

Uruchomiono na nich m.in. algorytm uczący się grać w Pac-Mana oraz duże modele językowe. I tutaj zaznaczamy: to nie prototypy, a już gotowe układy, które spokojnie mogą trafić do użytku przemysłowego choćby w ciągu najbliższych kilku lat. Fakt, iż udało się uruchomić na nich zaawansowane modele AI, pokazuje, iż rewolucja w tym zakresie odbywa się „na serio”. To nie są ani mrzonki, ani pobożne życzenia.

Czytaj dalej poniżej

Lightmatter integruje cztery chipy fotoniczne i dwa elektroniczne, umożliwiając precyzyjne sterowanie danymi wewnątrz systemu. Układ hybrydowy pozwala łączyć szybkość światła z niezawodnością elektronicznych kontrolerów. Z kolei PACE od Lightelligence skupia się na rozwiązywaniu problemów optymalizacyjnych: tu skorzystają m.in. logistyka, zarządzanie ruchem, analiza ryzyka oraz finanse. Szybkość przetwarzania ogromnych ilości danych przy możliwie niskim poborze mocy może być game-changerem w owych sektorach.

Architektura oparta na świetle

Fotony niosą informacje zawsze i wciąż – odmiennie od układu: „prąd płynie lub nie płynie”. choćby niewielkie zakłócenia mogą powodować i wyeskalować poważne błędy obliczeniowe. Lightmatter i Lightelligence radzą sobie z tym inaczej: pierwszy integruje układy elektroniczne do kontroli strumienia danych, drugi – wykorzystuje kontrolowaną losowość jako zaletę w problemach optymalizacyjnych. Różne formy walki z problemem analogowości sygnałów świetlnych pokazują, iż fazę teorii już dawno przekroczyliśmy. Mamy w rękach gotowe rozwiązania i one… działają.

Innym problemem pozostaje programowanie i integracja z obecnymi systemami. Komputery fotoniczne będą wymagać innych narzędzi optymalizacji kodu. Jednak fakt, iż komponenty mogą być wytwarzane w istniejących fabrykach chipów, znacznie skraca czas ich adaptacji rynku. Co więcej, ich modularność i możliwość łączenia z istniejącymi układami pozwala na elastyczne skalowanie stopnia ich wdrożenia. To będzie oznaczać, iż koszty takiego przejścia w kierunku nowszej technologii nie będą mordercze. Z czasem natomiast uda się zmniejszyć jej pułap cenowy — jak zwykle to zresztą ma miejsce w przypadku „nowinek”.

Mówimy o komputerach, które nie tylko działają inaczej, ale mogą być produkowane przy użyciu tych samych narzędzi, co chipy oparte na krzemie. Skalowalność? Realna. Przewaga? Niesamowita. Jest się o co bić.

Czy idziemy w kierunku rewolucji?

Centra danych mogą już w ciągu 3–5 lat zyskać hybrydowe jednostki obliczeniowe oparte na świetle. Co to oznacza dla nas — przeciętnych użytkowników? Bardziej zaawansowane AI, szybsze odpowiedzi, mniejsze zużycie energii. A dla branży? Całkowitą redefinicję architektury systemów informatycznych. To zaś może wpłynąć nie tylko na producentów sprzętu, ale także na software house’y, firmy analityczne, twórców systemu i operatorów infrastruktur IT. Nowe kompetencje, nowe języki, nowe możliwości – i nowi liderzy na rynku. A potem już tylko nowe możliwości i jeszcze więcej korzyści dla klienta końcowego.

Nadeszła era fotoniki nie teoretycznej, nie eksperymentalnej, ale tej stosowanej. Uzyskaliśmy wreszcie pełnoprawny, funkcjonalny model nowego typu komputera. A to nie zdarza się często. Ktokolwiek wątpi w to, iż mamy przed sobą nową erę w informatyce, powinien w tym momencie zastanowić się po raz wtóry.

Idź do oryginalnego materiału