Nowy framework TRUST osiąga 72,4% dokładności w audycie AI, przewyższając standardowe metody o 4–18 punktów procentowych przy zachowaniu odporności.

Źródło zdjęcia: arXiv.org
Naukowcy z Yu-Chao Huang na czele opublikowali w serwisie arXiv nowy framework TRUST, który ma zrewolucjonizować sposób audytu systemów sztucznej inteligencji. przedstawia zdecentralizowane podejście do weryfikacji dużych modeli rozumowania i systemów wieloagentowych, które według autorów eliminuje główne problemy obecnych scentralizowanych rozwiązań.
Anthropic podwaja limity Claude Code i podpisuje umowę z SpaceX na 300 MW mocy obliczeniowej. Nowa infrastruktura poprawi dostęp do AI.

OpenAI wypuściło Symphony, które przekształca trackery zadań w centrum kontroli dla autonomicznych agentów AI, eliminując problem ludzkiej uwagi jako wąskiego gardła.
Framework TRUST (Transparent, Robust, and Unified Services for Trustworthy AI) ma rozwiązać cztery kluczowe ograniczenia obecnych systemów audytu: podatność na ataki i błędy systematyczne, problemy ze skalowalnością, brak przejrzystości oraz zagrożenia prywatności związane z ujawnianiem procesów rozumowania.
TRUST wprowadza trzy główne innowacje techniczne. Pierwszą są hierarchiczne skierowane grafy acykliczne (HDAGs), które rozkładają rozumowanie Chain-of-Thought na pięć poziomów abstrakcji, umożliwiając równoległy rozproszony audyt. Druga innowacja to protokół DAAN, który projektuje interakcje wieloagentowe na grafy interakcji przyczynowych (CIGs) w celu deterministycznej atrybucji przyczyn źródłowych.
Trzecim elementem jest wielopoziomowy mechanizm konsensusu działający wśród kontrolerów obliczeniowych, ewaluatorów LLM i ekspertów ludzkich z głosowaniem ważonym udziałami. System ten gwarantuje poprawność nawet przy 30% udziale złośliwych uczestników.
Autorzy udowodnili twierdzenie o bezpieczeństwie i rentowności, które zapewnia, że uczciwi audytorzy osiągają zyski, podczas gdy złośliwi aktorzy ponoszą straty. Wszystkie decyzje są rejestrowane w blockchain, ale segmentacja zaprojektowana z myślą o prywatności zapobiega rekonstrukcji zastrzeżonej logiki.
Framework obsługuje cztery główne zastosowania: zdecentralizowany audyt systemów AI, odporne na manipulacje rankingi modeli, bezpieczne adnotacje danych bez potrzeby zaufania oraz zarządzane autonomiczne agenty. Według autorów, TRUST pioniersko wprowadza zdecentralizowany audyt AI dla bezpiecznego i odpowiedzialnego wdrażania systemów zdolnych do rozumowania.
TRUST reprezentuje znaczący krok naprzód w kierunku bezpieczniejszej i bardziej przejrzystej sztucznej inteligencji, oferując konkretne rozwiązania dla rosnących wyzwań związanych z weryfikacją zaawansowanych systemów AI.