Newsletter Dane i Analizy, 2023-01-02

blog.prokulski.science 1 rok temu

Cotygodniowa dawka linków, czyli archiwum newslettera Dane i Analizy

Witaj w pierwszym numerze newslettera "Dane i Analizy" w nowym roku! Mam nadzieję, iż spędziłeś święta w miłym towarzystwie i jesteś gotowy na kolejne wyzwania w pracy. Albo spędziłaś i jesteś gotowa :)

W tym numerze polecam trzy artykuły, które mogą być pomocne w rozwoju Twoich umiejętności: "The Art of Writing Amazing REST APIs" to kompendium wiedzy dla tych, którzy chcą nauczyć się tworzyć skalowalne i łatwe w użyciu interfejsy sieciowe "Simple Parquet Tutorial and Best Practices" to zestaw porad dla tych, którzy chcą rozszerzyć swoje umiejętności związane z przetwarzaniem danych w formacie parquet "A Real-Time Streaming Project with Smartphone Data" to przewodnik po najlepszych praktykach związanych z przetwarzaniem danych z telefonów komórkowych w czasie rzeczywistym.

Mam nadzieję, iż te artykuły przyniosą Ci wiele korzyści w pracy (i nie tylko). Do zobaczenia w kolejnym numerze!

Powyższy wstęp napisała sztuczna inteligencja, oczywiście w wydaniu ChatGPT. Dostała proste polecenie:

Napisz wstęp do newslettera. Założenia:
- pierwszy numer w nowym roku
- polecane artykuły: pisanie dobrych REST API, bardziej zaawansowane wykorzystanie plików parquet, przetwarzanie danych strumieniowych z telefonu

Co prawda nie czytała ona tych artykułów, więc nie do końca pisze prawdę (sprawdź samodzielnie - te teksty naprawdę są godne uwagi). Trochę też poprawiłem (głównie z "my" na "ja") Jednakże przygotowanie całości trwało kilka minut a nie pół godziny...

Mogę się pakować, nic tu po mnie ;-)

Piszę jednak o tym z innego powodu. To jest zmiana, która się dzieje razem z ChatGPT. Nie roboty mordujące ludzi, a narzędzia ułatwiające (przyspieszające, a co za tym idzie znacznie zmniejszające koszty) tworzenie treści. Kilka gotowych narzędzi wymienił w swoim podsumowaniu Michał Sadowski (rozdział Narzędzia i technologie). Tworzenie stron produktowych? Wrzuć cechy produktu do maszyny i gotowe! O proszę bardzo.

Zadanie:

Przygotuj opis szamponu przeciwłupieżowego dla kotów. Szampon pachnie fiołkami, zawiera minerały i nie uczula. Futro kota jest puszyste i odporne na zabrudzenia. Kot mniej linieje. Opakowanie ma 250 g gęstego płynu, co wystarczy na 5 kąpieli. Opakowanie jest biodegradowalne.

Wynik:

Nasz szampon przeciwłupieżowy dla kotów to idealny sposób na zadbanie o dobre samopoczucie i zdrowie Twojego ulubieńca. Formuła szamponu została opracowana z myślą o potrzebach skóry i sierści kotów, a jej składniki aktywne działają skutecznie przeciwko problemowi łupieżu.
Szampon pachnie świeżymi fiołkami, dzięki czemu pielęgnacja Twojego kota stanie się przyjemnością dla obu stron. Zawiera również minerały, które odżywiają i wzmacniają sierść, dzięki czemu futro staje się puszyste i odporne na zabrudzenia. Nasz szampon jest także bezpieczny dla skóry i nie uczula.
Regularne stosowanie szamponu przeciwłupieżowego pomoże zmniejszyć linienie się Twojego kota, co przyczyni się do lepszego samopoczucia zarówno dla niego, jak i dla Ciebie. Opakowanie szamponu zawiera 250 g gęstego płynu, co wystarczy na około 5 kąpieli. Co ważne, opakowanie jest biodegradowalne, co przyczynia się do ochrony środowiska. Pielęgnacja sierści kota nigdy nie była tak prosta i przyjemna. Spróbuj naszego szamponu i przekonaj się sam!

I co Ty na to? Maszyny nas zastąpią?


#AI_ML

AI can now create images out of thin air
Jak sztuczna inteligencja generuje obrazki z szumu? Kolejny świetnie przygotowany artykuł popularnonaukowy z The Washington Post

#analiza_danych_koncepcje

Top 10 machine learning algorithms in Finance
10 najważniejszych algorytmów ML razem z krótkim wprowadzeniem i przykładowym kodem w Pythonie. Bardziej jako zajawka, materiał wyjściowy do dalszych poszukiwań, niż pełne kompendium wiedzy

#big_data

A Real-Time Streaming Project with Smartphone Data
Chcesz poćwiczyć streaming danych a nie masz dobrego źródła? Wykorzystaj swój telefon i jego czujniki! Internet of Things chałupniczo, ale niczym się to w zasadzie nie różni od produkcyjnych czy wręcz przemysłowych rozwiązań

#devops

Top 24 Tips and Tricks with NgInx
Nginx ma swoje zakamarki i sztuczki, wiele rzeczy można zrobić "na serwerze" WWW zamiast w aplikacji przez ten serwer serwowanej. I o tych sztuczkach jest ten tekst (z przykładami)

#programowanie_ogólnie

The Art of Writing Amazing REST APIs
Jak myśleć o projektowaniu interfejsów API? Co czyni API dobrze zaprojektowanym?

#python

Event-Driven Apps Using Kafka and Python
Zamawianie mebli ze sklepu... albo raczej kawałek oprogramowania, który taki proces może obsłużyć

Simple Parquet Tutorial and Best Practices
Parquet to format zapisu danych, który trzyma schemat danych (typy, zagnieżdżenia) oraz kompresuje dane (mam przykład 2.2 GB CSV która po (!) dodaniu około 200 kolumn w .parquet zajmuje jakieś 270 MB).
Ale aby w pełni wykorzystać "moc" tego formatu warto poznać kilka sztuczek

Last Mile Delivery From Multiple Depots in Python
Wraz z szybkim rozwojem zakupów online firmy stają w obliczu coraz większych wymagań dotyczących szybkiej i taniej dostawy. Dostawa ostatniej mili odnosi się do ostatniego etapu łańcucha dostaw, w którym paczki są dostarczane z magazynu do domu klienta

Predictive Maintenance in Python - Exploratory Analysis and Visualization
Mamy dużo danych o sprzęcie, możemy więc na ich podstawie odpowiednio wcześnie zadbać o urządzenia aby po prostu się nie zepsuły. O analizie i danych (oczywiście odpowiednich danych) pod tym kątem jest ten tekst, a w uzupełnieniu sporo przydatnego kodu i pomysłów na wizualizację danych

Object-Oriented Discrete Event Simulation - with SimPy
Przychodzi pacjent do przychodni i czeka w kolejce. Ile poczeka? Czy proces na który czeka pacjent jest optymalny? Można to sprawdzić poprzez symulacje

#spark

How to Encrypt and Decrypt the Data in PySpark?
Anonimizacja danych w Sparku - po prostu

3 Ways To Aggregate Data In PySpark
A żeby nie było samotnie powyższemu artykułowi - coś o agregowaniu danych w Sparku

#sql

SQL Anti-Patterns for BigQuery
BigQuery daje spore możliwości, ale płacimy adekwatnie za każdą wykonaną kwerendę (precyzyjniej: za ilość przetworzonych podczas zapytania danych). Warto więc nauczyć się kilku rzeczy, które koszty obniżą


Zestawienie linków przygotowuje automat, wybacz więc wszelkie dziwactwa ;-)

Idź do oryginalnego materiału