Badacze opracowali system LCM zarządzający pamięcią AI bez strat. Agent Volt z LCM osiąga lepsze wyniki niż Claude Code przy kontekstach do 1M tokenów.

Źródło zdjęcia: arXiv.org
Badacze z uniwersytetu opublikowali nową architekturę zarządzania pamięcią dla dużych modeli językowych o nazwie Lossless Context Management (LCM). Badanie dostępne w serwisie pokazuje, że system LCM przewyższa Claude Code w zadaniach wymagających długiego kontekstu, osiągając lepsze wyniki przy wszystkich długościach kontekstu między 32K a 1M tokenów.

Były główny naukowiec OpenAI zeznawał w procesie Muska, ujawniając udziały warte 7 miliardów dolarów i broniąc decyzji o usunięciu CEO.

Mieszkańcy Maryland będą musieli zapłacić 2 mld dolarów za modernizację sieci energetycznej obsługującej centra danych AI zlokalizowane w innych stanach.
Agent kodujący Volt, wzbogacony o technologię LCM i oparty na modelu Opus 4.6, uzyskał wyższe wyniki niż Claude Code w benchmarku OOLONG, który testuje modele na długich kontekstach. To przełomowe osiągnięcie w dziedzinie zarządzania pamięcią AI.
LCM wprowadza dwa kluczowe mechanizmy deterministyczne zarządzane przez silnik. Pierwszy to rekursywna kompresja kontekstu, w której hierarchiczny graf podsumowań (DAG) automatycznie kompaktuje starsze wiadomości, zachowując jednocześnie wskaźniki do wszystkich oryginalnych treści. Drugi mechanizm to rekursywny podział zadań, gdzie prymitywy równoległe zarządzane przez silnik, takie jak LLM-Map, zastępują pętle pisane przez model.
Autorzy badania, Clint Ehrlich i Theodore Blackman, porównują to podejście do ewolucji w projektowaniu języków programowania — przejścia od instrukcji GOTO do strukturalnego sterowania przepływem. Ta zamiana maksymalnej elastyczności na gwarancje terminacji przynosi konkretne korzyści: zerowy koszt ciągłości przy krótkich zadaniach oraz bezstratne odzyskiwanie wszystkich poprzednich stanów.
Wyniki benchmarkowe pokazują, że rekursywna manipulacja kontekstu może przewyższać nie tylko konwencjonalne LLM, ale także zaawansowane agenty kodujące z natywnym dostępem do systemu plików. To znaczące osiągnięcie, które wskazuje na potencjał deterministycznych podejść do zarządzania pamięcią w AI.
LCM stanowi zarówno potwierdzenie, jak i rozszerzenie paradygmatu rekursywnego zapoczątkowanego przez Recursive Language Models. System oferuje gwarancje terminacji oraz możliwość odzyskania wszystkich stanów, co czyni go szczególnie wartościowym dla aplikacji wymagających niezawodności i transparentności.
Badanie otwiera nowe możliwości dla rozwoju systemów AI zdolnych do pracy z bardzo długimi kontekstami bez utraty informacji, co może mieć szerokie zastosowania w analizie dokumentów, programowaniu i innych zadaniach wymagających przetwarzania dużych ilości danych.