Qwen 3.6 — chińskie AI od Alibaby rzuca rękawicę ChatGPT i Claude. Co potrafi i czy warto się nim zainteresować?
Alibaba właśnie wypuściło Qwen 3.6 — nową generację modeli AI, która w kilku testach programistycznych pokonuje czołowe modele OpenAI i Anthropic. Do tego jest open source i dostępna za darmo. Sprawdzamy, co naprawdę zmienia ta premiera.
⏱ 6 min czytania
✍️ Redakcja TechFlux
📋 Co znajdziesz w tym artykule:
Czym właściwie jest Qwen 3.6?
Qwen (wymawiane jak angielskie „chen”) to seria dużych modeli językowych rozwijanych przez zespół Alibaby — chińskiego giganta technologicznego, którego skala działalności jest porównywalna z Amazonem. Seria Qwen istnieje od kilku lat, ale dopiero ostatnie miesiące przyniosły modele, które realnie wchodzą w zasięg topowych produktów zachodnich.
Qwen 3.6 to najnowsza odsłona tej rodziny, wydana w marcu i rozwijana kolejnymi wersjami przez kwiecień 2026. Seria składa się z kilku wariantów różniących się wielkością i przeznaczeniem — od kompaktowego modelu 27B (27 miliardów parametrów) po ogromne modele MoE (Mixture of Experts) z setkami miliardów parametrów.
Dla porównania: ChatGPT oparty na GPT-4 to zamknięty, płatny produkt. Qwen 3.6 w wersji open-source można pobrać na własny serwer i używać bezpłatnie — lub przetestować przez API Alibaby bez instalacji.
ℹ️ Ważne:
Qwen 3.6 to nie jeden model — to cała rodzina. Qwen3.6-Plus i Qwen3.6-Max-Preview to wersje hostowane w chmurze Alibaby (API), natomiast modele 27B i 35B-A3B można pobrać i uruchomić lokalnie na własnym sprzęcie lub serwerze.
Co nowego w stosunku do poprzedników?
Poprzednia seria — Qwen 3.5 — była już solidna, ale Qwen 3.6 to upgrade z wyraźnym fokusem na dwa obszary: kodowanie agentowe i długie konteksty. Oto co się realnie zmieniło:
1. Agentic Coding — model myśli jak programista na projekcie
Qwen 3.6 potrafi rozumować na poziomie całego repozytorium kodu — nie tylko pisze funkcję na żądanie, ale rozumie strukturę projektu, zależności między plikami i potrafi samodzielnie wprowadzać wieloetapowe zmiany. To ważna różnica wobec modeli, które „rozumieją” tylko wycinek kodu podany w jednym oknie.
2. Thinking Preservation — model pamięta swój tok rozumowania
To jedna z ciekawszych nowości. Standardowo modele AI za każdym razem startują „od nowa” — każda wiadomość w rozmowie jest dla nich jak reset. Qwen 3.6 wprowadza opcję preserve_thinking: model może zachować swój wewnętrzny tok myślenia pomiędzy wiadomościami. W praktyce chodzi o scenariusze, gdzie piszesz kod przez dziesiątki tur rozmowy — zamiast za każdym razem „tłumaczyć” modelowi gdzie skończyliście, on po prostu pamięta kontekst swojego rozumowania.
3. Kontekst do 1 miliona tokenów
Standardowe okno kontekstu wynosi 262 144 tokeny (ok. 200 000 słów), ale można je rozszerzyć do ponad miliona tokenów. To odpowiednik kilku tysięcy stron tekstu — wystarczająco dużo, żeby „wczytać” całe repozytorium GitHub lub kilkaset dokumentów PDF jednocześnie.
4. Multimodalność i 201 języków
Wersje wizualne Qwen 3.6 (modele 27B i 35B dostępne na Hugging Face) to modele multimodalne — rozumieją zarówno tekst, jak i obrazy. Obsługują 201 języków i dialektów, co stawia je zdecydowanie powyżej większości zachodnich konkurentów pod kątem globalnego zasięgu językowego.
💡 Pro tip:
Jeśli chcesz przetestować Qwen 3.6 bez zakładania konta na Alibaba Cloud — skorzystaj z OpenRouter.ai. Wersja Qwen3.6-Plus-Preview była dostępna bezpłatnie w fazie preview. Wystarczy klucz API OpenRouter.
Wyniki w testach — jak wypada na tle GPT i Claude?
Benchmarki AI warto traktować z rezerwą — każdy producent chętnie pokazuje testy, w których jego model wygrywa. Dlatego spojrzymy zarówno na mocne strony Qwen 3.6, jak i na obszary, w których nie jest liderem.
Gdzie Qwen 3.6 prowadzi
Qwen3.6-Max-Preview (flagowy wariant API) osiąga według danych Alibaby pierwsze miejsca w sześciu kluczowych benchmarkach programistycznych. Szczególnie wyraźna przewaga widoczna jest w teście QwenWebBench (generowanie kodu front-endowego) — wynik 1558 punktów ELO wobec 1182 punktów dla Claude Opus 4.5. To różnica, którą odczujesz przy budowaniu interfejsów webowych.
Na SkillsBench (szeroka ocena umiejętności programistycznych) Qwen3.6-Max-Preview wyprzedza konkurentów o ponad 10 punktów procentowych. W testach agentowych (modele działające autonomicznie, wykonujące wieloetapowe zadania) wyniki są równie mocne.
Gdzie wynik jest wyrównany lub gorszy
W teście SWE-Bench Verified — uznanym za złoty standard oceny modeli programistycznych w kontekście prawdziwych bugów na GitHubie — Claude Opus 4.6 utrzymuje wynik 80,8% i pozostaje liderem. W Terminal-Bench 2.0 (zadania terminalowe na serwerze) oba modele notują identyczny wynik 65,4% — remis.
⚠️ Uwaga:
Przy czytaniu benchmarków zawsze sprawdzaj, która wersja modelu była testowana. Alibaba w swoich porównaniach często używa Claude Opus 4.5 jako punktu odniesienia — nowszy Claude Opus 4.6 wypada lepiej w kilku z tych testów. Wyniki są uczciwe, ale diabeł tkwi w szczegółach.
Open source i bezpłatny dostęp — co to znaczy w praktyce?
Modele z serii Qwen 3.6 są dostępne na Hugging Face i ModelScope na licencji, która pozwala na lokalne uruchomienie, modyfikacje i zastosowania komercyjne — pod warunkiem że nie budujesz konkurencyjnego produktu dla Alibaby (standardowe ograniczenie w licencjach open-weight).
Modele 27B i 35B-A3B to wersje multimodalne do pobrania. Jeśli masz dostęp do karty graficznej z minimum 24 GB VRAM (np. RTX 4090 lub kilka kart serwerowych), możesz uruchomić je lokalnie przez vLLM lub SGLang.
Dla większości użytkowników bardziej praktyczna jest jednak opcja API — przez Qwen Studio (dawniej Qwen Chat), które oferuje interfejs webowy i aplikację mobilną, albo przez API Alibaba Cloud Model Studio kompatybilne zarówno z formatem OpenAI, jak i Anthropic.
💡 Pro tip:
Jeśli już korzystasz z biblioteki openai w Pythonie lub Node.js, możesz podłączyć Qwen 3.6 zmieniając tylko endpoint i klucz API — cała reszta kodu zostaje bez zmian. To ogromna zaleta dla programistów testujących różne modele.
Dla kogo jest Qwen 3.6?
Qwen 3.6 nie jest jeszcze modelem dla przeciętnego użytkownika szukającego zamiennika ChatGPT Plus. Ale dla kilku grup jest już bardzo praktycznym wyborem:
Programiści i devopsi — jeśli piszesz dużo kodu i chcesz modelu, który naprawdę rozumie repozytorium, Qwen 3.6 przez Qwen Code (terminal agent kompatybilny z Qwen) albo przez API warto przetestować. Codzienny limit 1000 bezpłatnych wywołań przez Qwen Code to solidna porcja do testowania.
Twórcy aplikacji AI — kompatybilność z API OpenAI i Anthropic oznacza, że możesz przetestować Qwen jako zamiennik droższego modelu bez przepisywania backendu. Wersja Plus Preview była dostępna za darmo przez OpenRouter w fazie testowej.
Firmy analizujące duże dokumenty — okno kontekstu do miliona tokenów robi różnicę, gdy regularnie przetwarzasz długie raporty, umowy lub duże bazy wiedzy. [LINK WEWNĘTRZNY: najlepsze narzędzia AI do analizy dokumentów]
Entuzjaści local AI — jeśli eksperymentujesz z uruchamianiem modeli na własnym sprzęcie przez Ollama, LM Studio czy podobne narzędzia, modele 27B i 35B warto dodać do kolekcji. [LINK WEWNĘTRZNY: jak uruchomić model AI lokalnie — poradnik]
ℹ️ Ważne:
Qwen 3.6 to wciąż produkt w fazie aktywnego rozwoju — dlatego kilka wariantów nosi oznaczenie „Preview”. Alibaba zbiera feedback społeczności i regularnie wypuszcza ulepszone wersje. Warto śledzić oficjalnego bloga Qwen pod adresem qwen.ai/blog.
❓ Najczęściej zadawane pytania
Chcesz być na bieżąco z nowościami ze świata AI?
Co tydzień piszemy o nowych modelach, narzędziach i zastosowaniach AI — bez marketingowego szumu, tylko konkrety. Sprawdź pozostałe artykuły z kategorii AI na TechFlux.

