CAISI twierdzi, że Deepseek V4 Pro jest o 8 miesięcy za GPT-5, ale niezależne pomiary pokazują stały dystans między krajami.

Źródło zdjęcia: The Decoder
Nowy warsztat pozwala wytrenować funkcjonalny GPT na laptopie w mniej niż godzinę, budując każdy komponent od zera bez gotowych bibliotek.

Współzałożyciel OpenAI stanął przed sądem w sprawie Muska, broniąc majątku wartego nawet 30 miliardów dolarów i odpierając zarzuty o „moralną niewypłacalność”.
Amerykańskie Centrum ds. Standardów i Innowacji AI (CAISI) opublikowało raport sugerujący, że chińskie modele sztucznej inteligencji tracą dystans do konkurentów z USA. Analiza przeprowadzona przez agencję rządową wskazuje na rosnącą lukę technologiczną między krajami. Pełny raport dostępny jest na stronie The Decoder.
Centrum przetestowało najnowszy chiński model Deepseek V4 Pro w różnych obszarach, od cyberbezpieczeństwa po rozwój oprogramowania. Wyniki badań mają pokazywać, że chiński model znajduje się na poziomie amerykańskich rozwiązań sprzed około ośmiu miesięcy.
CAISI, które funkcjonuje w ramach Narodowego Instytutu Standardów i Technologii (NIST), nazywa Deepseek V4 Pro „najbardziej zaawansowanym chińskim modelem AI do tej pory”. Jednak w prywatnych testach model miał osiągać gorsze wyniki niż sugeruje to raport techniczny samego Deepseek.
Podczas gdy Deepseek prezentuje swój model jako równorzędny z aktualnymi amerykańskimi rozwiązaniami jak Opus 4.6 i GPT-5.4, CAISI twierdzi, że faktycznie znajduje się na poziomie starszego GPT-5. Szczególnie widoczne różnice dotyczą rozumowania abstrakcyjnego, cyberbezpieczeństwa i rozwoju oprogramowania. Matematyka to jedyny obszar, w którym Deepseek V4 niemal dorównuje najlepszym amerykańskim modelom.
Rosnące znaczenie może mieć aspekt ekonomiczny. Deepseek V4 Pro okazał się tańszy od porównywalnego GPT-5.4 mini w większości testów, co nabiera znaczenia w miarę jak modele AI mają obsługiwać coraz dłuższe i bardziej złożone zadania. Tymczasem najlepsze amerykańskie modele stają się coraz droższe.
Kwestia ta jest istotna, ponieważ firmy nie dysponują jeszcze wiarygodnymi metodami pomiaru zwrotu z inwestycji w AI, szczególnie uwzględniając efekty wtórne jak szkolenia, podnoszenie kwalifikacji czy kontrola błędów. Po przekroczeniu pewnego progu możliwości, wydajność „wystarczająco dobra” przy niskiej cenie może okazać się bardziej atrakcyjna niż najwyższa wydajność w premium cenach.
Przykład stanowi Cursor, konkurent Claude Code, który podobno zostanie przejęty przez SpaceX. Firma zbudowała swój dostosowany model kodowania w oparciu o chiński model open-weight, co czyni go znacznie tańszym od oferty OpenAI czy Anthropic.
CEO OpenAI Sam Altman wydaje się podzielony w tej kwestii. W niedawnym poście na X napisał: „Ciągle myślę, że chcę, żeby modele były tańsze/szybsze bardziej niż mądrzejsze, ale wydaje się, że po prostu bycie mądrzejszym to nadal najważniejsza rzecz.”
Stanowisko Altmana może opierać się na założeniu, że inteligentniejsza AI mogłaby pomóc w ulepszaniu samej siebie, przyspieszając postęp we wszystkich obszarach. OpenAI, Anthropic i chińscy deweloperzy wszyscy niedawno stwierdzili, że ich własne modele już przyspieszają ich prace badawczo-rozwojowe.
Raport CAISI, mimo swojego prawdopodobnie politycznego charakteru, pokazuje złożoność oceny postępów w wyścigu sztucznej inteligencji między superpaństwami. Podczas gdy możliwości techniczne pozostają istotne, czynniki ekonomiczne mogą odegrać równie ważną rolę w kształtowaniu przyszłości branży AI.