Alibaba wypuściła Qwen3.6-27B z 27 mld parametrów, który przewyższa model z 397 mld parametrów w benchmarkach kodowania. Dostępny jako open-source.

Źródło zdjęcia: The Decoder
Alibaba wypuściła nowy model językowy Qwen3.6-27B z 27 miliardami parametrów, który w benchmarkach programistycznych pokonuje swojego znacznie większego poprzednika Qwen3.5-397B-A17B. Model jest dostępny jako open-source i wykazuje lepsze wyniki pomimo 15-krotnie mniejszej liczby parametrów.

OpenAI po raz drugi eliminuje osobny model programistyczny Codex, integrując go z GPT-5.5. Wersja 5.3 była ostatnim samodzielnym Codex.

OpenAI zaleca porzucenie starych promptów dla GPT-5.5. Minimalne instrukcje przewyższają złożone, a definicje ról wracają na szczyt zalecanej struktury.
Nowy model osiągnął 77,2 punktów w teście SWE-bench Verified w porównaniu do 76,2 punktów swojego 397-miliardowego poprzednika, oraz 59,3 punktów w Terminal-Bench 2.0 wobec 52,5 punktów większego modelu.
• Przewaga mniejszego modelu: Qwen3.6-27B z 27 miliardami parametrów przewyższa Qwen3.5-397B-A17B (397 miliardów parametrów) w niemal wszystkich testach programistycznych
• Konkretne wyniki: Nowy model osiągnął 77,2 vs 76,2 punktów w SWE-bench Verified i 59,3 vs 52,5 punktów w Terminal-Bench 2.0
• Architektura dense: W przeciwieństwie do złożonych modeli MoE (Mixture of Experts), Qwen3.6-27B jest łatwiejszy w uruchomieniu i obsłudze
• Szerokie zastosowania: Model obsługuje zarówno tekst, jak i zadania multimodalne, konkurując z modelami pokroju Claude 4.5 Opus
• Dostępność open-source: Model jest dostępny przez Qwen Studio, Alibaba Cloud Model Studio API oraz platformy Hugging Face i ModelScope
Qwen3.6-27B wykazuje imponującą wydajność w testach kodowania, przewyższając nie tylko swojego większego poprzednika, ale także inne modele MoE z rodziny Qwen. Wyniki pokazują, że model radzi sobie równie dobrze w zadaniach rozumowania i multimodalnych, takich jak GPQA Diamond i MMMU, konkurując z czołowymi modelami jak Claude 4.5 Opus.
Kluczową zaletą nowego modelu jest jego architektura "dense", która sprawia, że jest znacznie łatwiejszy w uruchomieniu niż bardziej złożone architektury MoE. W modelach MoE różne pod-modele są aktywowane w zależności od zadania, co zwiększa złożoność obliczeniową i wymogi sprzętowe.
Qwen3.6-27B jest skierowany do deweloperów poszukujących silnej wydajności w programowaniu bez konieczności radzenia sobie z masywnym modelem. Model jest dostępny w kilku formatach: przez Qwen Studio, API Alibaba Cloud Model Studio oraz jako otwarte wagi na platformach Hugging Face i ModelScope.
Jednak jak zawsze w przypadku wyników benchmarkowych, rzeczywista wydajność może się różnić od testowych rezultatów. Ponadto efektywne chińskie modele open-source mogą czerpać korzyści z badań i rozwoju pochodzących z zachodnich laboratoriów AI.
Qwen3.6-27B reprezentuje trend w kierunku bardziej efektywnych modeli AI, które oferują konkurencyjną wydajność przy znacznie mniejszych rozmiarach, co przekłada się na niższe koszty obliczeniowe i łatwiejszą implementację.