Alibaba przedstawił nową linię modeli językowych Qwen3. Brzmi jak kolejna zabawka z pudełka wielkich korporacji, ale nie – to całkiem solidna seria.
Zamiast jednej uniwersalnej wersji, mamy tu cały wachlarz modeli, od 0,6 miliarda parametrów do absurdalnych 235 miliardów. Coś dla każdego: od ludzi, którzy tylko chcą zapytać AI o pogodę, po tych, którzy każą jej debugować własne koszmary kodowe.
Modele Qwen3 dostępne są w wersji open source, między innymi na Hugging Face i GitHub, czyli tam, gdzie lubią siedzieć ludzie z laptopami bez naklejek, bo “czystość estetyczna”. Można je pobierać, testować, stawiać na własnej infrastrukturze. Kto woli kliknąć „uruchom” w przeglądarce, ten też znajdzie opcje w chmurze.
Seria została zbudowana z myślą o elastyczności. Modele potrafią szybko odpowiadać na proste zapytania, ale jeśli pojawi się coś bardziej złożonego, uruchamiają tzw. „tryb refleksji”. Nie, nie siadają wtedy w lotosie i nie rozmyślają nad istnieniem. W praktyce to wewnętrzne przetwarzanie, które pozwala modelowi zastanowić się chwilę dłużej nad tym, co robi. Działa to podobnie do mechanizmów wykorzystywanych przez OpenAI.
W niektórych przypadkach modele Qwen3 korzystają z architektury Mixture of Experts. Czyli zamiast uruchamiać wszystko naraz jak przeciążony laptop w liceum, model deleguje zadania do konkretnych podzespołów – „ekspertów” od konkretnych rzeczy. Tylko niektórzy z nich działają jednocześnie, co obniża zużycie zasobów i przyspiesza pracę.
Qwen3 obsługuje 119 języków. Trudno się dziwić, skoro został wytrenowany na 36 bilionach tokenów. To więcej niż liczba wiadomości, które dostajesz z grupy rodzinnej na święta. W skład tych danych wchodziły m.in. teksty edukacyjne, fragmenty kodu, rozmowy, treści syntetyczne. Dzięki temu modele mają niezłe rozeznanie w tym, o czym ludzie zwykle gadają, co próbują napisać w Pythonie i gdzie robią błędy logiczne w pytaniach egzaminacyjnych.
Co z wynikami? Największy model, Qwen-3-235B-A22B, osiągnął wyższe wyniki w testach Codeforces i AIME niż OpenAI o3-mini i Google Gemini 2.5 Pro. Ale spokojnie – nie można go jeszcze publicznie używać. Jest jak ta ekskluzywna beta, do której zaproszenia dostają tylko wybrani. Natomiast publicznie dostępny Qwen3-32B też nie siedzi w kącie – w LiveCodeBench, czyli teście umiejętności kodowania, wypadł lepiej niż OpenAI o1.
Modele można wykorzystywać lokalnie lub przez chmurę. To daje wybór – jedni chcą pełnej kontroli i stawiają wszystko u siebie, drudzy wolą kliknąć „uruchom” i iść zrobić kawę.
Do tego modele Qwen3 dobrze radzą sobie z wykonywaniem instrukcji, potrafią integrować się z zewnętrznymi narzędziami i obsługują różne formaty danych. Nie tylko piszą, ale rozumieją kontekst, przetwarzają kod, odpowiadają na konkretne pytania i ogarniają więcej niż przeciętny student w sesji.
Tuhin Srivastava, dyrektor Baseten, powiedział w rozmowie z TechCrunch, że Qwen3 to przykład na to, że modele open source zbliżają się do jakości zamkniętych systemów. Mimo ograniczonego dostępu do nowoczesnych chipów w Chinach, takie konstrukcje są już aktywnie używane lokalnie – co pokazuje, że nie trzeba mieć całego zaplecza z Doliny Krzemowej, by tworzyć coś porządnego.
Qwen3 to propozycja dla tych, którzy potrzebują czegoś więcej niż chatbot do rozmowy o pogodzie. Zróżnicowane wersje, otwarty dostęp, możliwość działania lokalnie i przez chmurę – to zestaw narzędzi, który może się przydać każdemu, kto pracuje z tekstem, danymi, kodem albo po prostu lubi grzebać przy nowoczesnych rozwiązaniach.