
Turbulencja to ten rodzaj chaosu, który potrafi zabić silnik, wywrócić prognozę pogody i zaskoczyć choćby fizyków. Teraz naukowcy po raz pierwszy zasymulowali ją z taką dokładnością, iż w danych widać swoiste tornada zbudowane z liczb.
Frontier, superkomputer Departamentu Energii USA w Oak Ridge, to dziś najpotężniejsza maszyna dostępna dla nauki otwartej. Jego moc liczona jest w eksaskali – to znaczy, iż w ciągu sekundy jest w stanie wykonać ponad 1 000 000 000 000 000 000 operacji.
Na tej cyfrowej górze mocy obliczeniowej zespół prof. P. K. Yeunga z Georgia Institute of Technology odpalił bezpośrednią symulację turbulencji w trzech wymiarach. Zamiast korzystać z uproszczonych modeli, badacze policzyli równania płynów wprost, w każdym punkcie trójwymiarowej siatki.
Ta siatka była dosłownie monstrualna: 32 768 pkt w każdym kierunku, co w sumie daje ponad 35 bln węzłów obliczeniowych. Im gęstsza siatka, tym dokładniej komputer widzi zawirowania, zderzenia wirów i drobne drgania prędkości. Do tej pory żadna maszyna na świecie nie była w stanie utrzymać takiego poziomu szczegółowości dla w pełni rozwiniętej turbulencji.
Czym adekwatnie jest turbulencja i dlaczego tak trudno ją policzyć?
Z fizycznego punktu widzenia turbulencja to przepływ, w którym wszystko dzieje się naraz: duże wiry rozpadają się na mniejsze, w jednej części strugi pojawia się spokój, a kilka milimetrów dalej – gwałtowny zryw. Prędkość i ciśnienie zmieniają się w czasie i przestrzeni w sposób pozornie chaotyczny.
Istotnym parametrem, który opisuje taki przepływ, jest liczba Reynoldsa. To stosunek sił bezwładności (dążących do utrzymania ruchu) do sił lepkości (czyli tarcia wewnętrznego płynu). Przy małej liczbie Reynoldsa mamy łagodny, warstwowy przepływ – jak miód, który powoli spływa z łyżki. Przy dużej liczbie pojawia się burza wirów – jak woda uderzająca w głazy w górskim potoku.
W symulacji na Frontierze naukowcy osiągnęli liczbę Reynoldsa rzędu 2500. To zakres, w którym przepływ jest już silnie turbulentny, a skala zawirowań rozciąga się od dużych struktur aż po drobne, gwałtowne fluktuacje. Żeby uchwycić wszystkie te poziomy naraz, trzeba właśnie bilionów punktów siatki – inaczej najmniejsze wiry po prostu zniknęłyby w przybliżeniach.
Tornada w danych: ekstremalne zdarzenia i statystyka chaosu
Jednym z najciekawszych pytań, jakie stawiają sobie badacze turbulencji, jest to o skrajności: jak silne mogą być najrzadsze, najbardziej gwałtowne zawirowania w dojrzałej turbulencji. W prawdziwym świecie takie lokalne ekstremalne zdarzenia odpowiadają np. za:
- punktowe ulewy, które w krótkim czasie zalewają ulice,
- strefy wyjątkowo zanieczyszczonego powietrza w mieście,
- lokalne niestabilności wewnątrz komory spalania, potrafiące nagle zdusić płomień.
Zamiast próbować przewidzieć każde takie zdarzenie z osobna, fizycy szukają rozkładów prawdopodobieństwa – chcą wiedzieć, jak często i jak bardzo mogą wyskoczyć dane wielkości. W nowej symulacji udało się porównać statystyki dwóch kluczowych parametrów:
- dyssypacji energii, czyli tego, jak skutecznie energia ruchu dużych struktur zamienia się w mniejsze drgania i ciepło,
- enstrofii, która mierzy intensywność lokalnych wirowań, coś w rodzaju gęstości wirów w danym fragmencie płynu.
Okazało się, iż rozkłady tych wielkości różnią się w subtelny, ale istotny sposób. Związana z silnymi, punktowymi zawirowaniami enstrofia wykazuje bardzo grube ogony statystyczne, co oznacza większą skłonność do ekstremalnych wartości. To właśnie te rzadkie, ale bardzo silne wiry widać w wizualizacjach jako tornadopodobne struktury z ujemnych fluktuacji ciśnienia.
Stare prawa fizyki w nowej rozdzielczości
Rekordowa symulacja nie tylko ujawniła nowe szczegóły, ale też pozwoliła zweryfikować klasyczne prawa turbulencji wyprowadzone dziesięciolecia temu, kiedy o eksaskalowych komputerach nikt choćby nie marzył.
Jednym z takich praw jest tzw. anomalia dyssypacyjna. W dużym skrócie mówi ona, iż przy bardzo dużej liczbie Reynoldsa średnie tempo rozpraszania energii w turbulencji przestaje zależeć od lepkości płynu. Innymi słowy, choć lepkość pracuje na poziomie najmniejszych skal, globalna intensywność turbulencji stabilizuje się na poziomie w miarę niezależnym od tego parametru.
Dane z Frontiera potwierdzają, iż to prawo działa choćby przy ekstremalnej rozdzielczości – anomalia dyssypacyjna jest dobrze widoczna. Jednocześnie symulacja pokazuje, iż poprawki związane z tzw. intermittencją, czyli nieregularnością i plamistością małoskalowej turbulencji, są silniejsze niż sugerowały uproszczone modele. Te niuanse mogą mieć duże znaczenie tam, gdzie liczą się detale: w prognozowaniu nagłych zjawisk pogodowych czy w precyzyjnym modelowaniu mieszania paliwa i powietrza w silnikach.
Zamiast jednego maratonu seria kontrolowanych sprintów
Tak ogromna symulacja nie mogłaby powstać, gdyby badacze próbowali po prostu uruchomić ją w najwyższej rozdzielczości od startu do końca. Właśnie dlatego zespół Yeunga zastosował sprytną strategię nazwaną multiresolution independent simulation.
Najpierw przeprowadzono dłuższe obliczenia w niższej rozdzielczości, które pozwoliły rozbujać turbulencję i ustabilizować jej globalne adekwatności. Dopiero na tak przygotowanym przepływie nakładano krótkie, bardzo gęste zrywy obliczeniowe, w których siatka miała pełne 32 768 pkt w każdej osi.
Te krótkie epizody wysokiej rozdzielczości, rozsiane w czasie i odpowiednio uśrednione, dały obraz najmniejszych skal turbulencji bez konieczności liczenia całego zjawiska non-stop na maksymalnych ustawieniach. To nie tylko oszczędność czasu i energii, ale też dowód na to, iż eksaskalowe superkomputery wymagają nowych, sprytnych strategii wykorzystania mocy obliczeniowej.
Turbulencja jako wspólne laboratorium
Część rekordowego zestawu danych została udostępniona już w publicznej bazie Johns Hopkins Turbulence Database, z której korzystają badacze z całego świata. Dla naukowców zajmujących się modelowaniem przepływów to skarb, bo mogą testować własne hipotezy, trenować algorytmy uczenia maszynowego, tworzyć nowe wizualizacje i porównywać swoje przybliżenia z referencyjną symulacją o niespotykanej dotąd dokładności. Już teraz wiadomo, iż dataset z Frontier stanie się punktem odniesienia dla wielu przyszłych publikacji o turbulencji.
Turbulencja pozostaje jednym z najtrudniejszych problemów fizyki klasycznej, ale Frontier pokazał, iż wreszcie jesteśmy w stanie symulować ją z dokładnością porównywalną z najlepszymi eksperymentami laboratoryjnymi. I to w geometrii, którą sami wybieramy. To z kolei oznacza, iż stare teorie można wreszcie sprawdzać nie na kartce, ale w cyfrowej rzeczywistości, w której każdy wir i każdy skok ciśnienia zapisany jest w postaci liczb.




![Duża luka cyfrowa. Tylko co trzecia mikrofirma korzysta z nowoczesnych technologii [BADANIE]](https://g.infor.pl/p/_files/39037000/ai-firma-pracownik-pracodawca-39037279.jpg)



