
Chińska AI nie zwalnia. Dostaliśmy właśnie nowy model DeepSeek, który według wstępnych testów dorównuje na przykład pod względem kodowania najlepszym zamkniętym modelom amerykańskim. Dodatkowo, od należącego do Alibaby AI labu Qwen otrzymaliśmy model Qwen-Image Edit, który potrafi edytować grafikę na podstawie promptów tekstowych. I w dobrej tradycji chińskiej AI – modele te są otwarte i za darmo.
Kiedy na przełomie zeszłego i bieżącego roku DeepSeek wypuścił swoje dwa rewolucyjne modele – DeepSeek V3 i DeepSeek R1, świat AI zadrżał w posadach. Okazało się, iż chińscy badacze są w stanie zbudować systemy AI, które nie tylko nie są gorsze, ale pod pewnymi względami wręcz lepsze niż czołowe laby AI z USA. Zaczęliśmy się przyzwyczajać do myśli, iż dobra AI może pochodzić także z Państwa Środka.
Oczywiście od tego czasu amerykańskie firmy AI nie zasypiały gruszek w popiele. Światło dzienne ujrzał świetny model Gemini-2.5-Pro od Google, który przez miesiące prowadził na LM Arenie, potem pokazały się modele Claude 4 od Anthropica, które uzyskiwały świetne wyniki w testach kodowania, wreszcie dostaliśmy GPT-5 od OpenAI, które przegoniło Gemini w LM Arenie i dogoniło najlepsze modele Claude w kodowaniu.
Jak się okazuje, Chińczycy też nie próżnowali.
Nowy DeepSeek też dogania Claude’a?
W sposób dla siebie charakterystyczny, chiński DeepSeek po prostu „wrzucił” swój nowy model, DeepSeek V3.1 na Hugging Face, bez opisu czy komentarza. Ponieważ jednak nowe modele z chińskiego labu są wyczekiwane przez wiele osób, to niedługo po pojawieniu się nowego modelu został on przetestowany przez miłośników AI.
Wyniki? Przede wszystkim doskonałe umiejętności w kodowaniu – w jednym z podstawowych benchmarków dotyczących programowania, czyli Aider, V3.1 uzyskał 71,6%, a więc nieco więcej niż Claude Opus 4 w trybie „nierozumującym”.
Dużą zaletą nowego DeepSeeka jest również szybkość – osiąga on podobne wyniki, co najnowszy z „rozumujących” modeli R1, ale uzyskuje je w o wiele krótszym czasie, w ciągu sekund a nie minut. To też, w połączeniu z faktem, iż dostęp do modelu jest darmowy (wciąż będziemy jednak musieli zapłacić za usługi chmurowe, bo liczącego niemal 700 mld parametrów na swoim PC nie zmieścimy) sprawia, iż V3.1 jest niezwykle tani w użytkowaniu. Według jednego z szacunków, ukończenie jednego złożonego zadania z programowania kosztuje w przypadku chińskiego modelu około dolara, w przypadku konkurencyjnych systemów niemal 70 dolarów.
To oczywisty problem dla Anthropica, którego modele są trochę lepsze – zwłaszcza w trybie rozumującym – od nowego DeepSeeka, ale za to o wiele droższe, praktycznie najdroższe na rynku. Presję na Anthropica wywarły już darmowe modele gpt-oss od OpenAI i najnowszy GPT-5, który został wyceniony sporo niżej niż modele Claude. Teraz pojawienie się konkurencyjnego darmowego modelu chińskiego jeszcze tę presję zwiększa.
Qwen do edycji grafiki. Photoshop już niepotrzebny?
Oprócz modelu ogólnego przeznaczenia od DeepSeeka dostaliśmy też wysoce specjalizowany model od Qwena, labu należącego do detalicznego giganta Alibaby. To model Qwen-Image Edit, a więc jak nazwa wskazuje, model AI do edycji grafiki.
Zbudowany na bazie Qwen-Image, modelu do generowania grafiki o 20 mld parametrów, nowy Qwen pozwala nam na dokonywanie szerokiego wachlarza zmian na naszych grafikach. Pozwala na przykład na zmianę ubioru osoby (możecie zamienić córkę na zdjęciu w księżniczkę) czy dodanie/ zamianę tekstu na zdjęciu. Niestety raczej nie po polsku – Qwen umie to zrobić po chińsku i angielsku.
Jeśli chcecie wypróbować nowy model, to możecie to zrobić przez chata Qwena. Tu będziecie musieli się ograniczyć do około ośmiu edycji na 12 godzin, jeżeli nie posiadacie płatnej subskrypcji na platformie. Każdy może też pobrać model z Hugging Face i używać go na własnej infrastrukturze – w tym wykorzystywać do celów komercyjnych, bo jest on dostępny na liberalnej licencji Apache 2.0.
Czy będzie w stanie zastąpić Photoshopa? Zobaczymy. Moja pierwsza próba zamiany córki w księżniczkę była tylko częściowo udana. Dostała książęcą sukienkę, ale model zmienił jej nieco rysy twarzy. W Photoshopie zajęłoby mi to o wiele więcej czasu niż tych kilkanaście sekund w ciągu których edycji dokonał Qwen, ale, być może, z nieco lepszym skutkiem. Przynajmniej jeżeli chodzi o rysy.
Źródło zdjęcia: Tao Yuan/Unsplash