CAISI podpisało umowy z Google DeepMind, Microsoft i xAI na testowanie zaawansowanych modeli AI pod kątem bezpieczeństwa narodowego.

Źródło zdjęcia: The Decoder
Amerykański rząd uzyskał dostęp do testowania modeli sztucznej inteligencji przed ich publicznym wydaniem. Centrum Standardów i Innowacji AI (CAISI) z Departamentu Handlu podpisało nowe umowy z Google DeepMind, Microsoft i xAI, rozszerzając wcześniejsze porozumienia z Anthropic i OpenAI. Szczegóły tej inicjatywy bezpieczeństwa narodowego opisuje .

FDA zatwierdziła już ponad 1300 urządzeń medycznych z AI, ale sukces wymaga głębokiego zrozumienia specyfiki sektora medycznego.

OpenAI planuje masową produkcję pierwszego telefonu agentowego w 2027 roku. Urządzenie będzie wyposażone w specjalny procesor MediaTek Dimensity 9600.
Program ma na celu ocenę zaawansowanych systemów AI pod kątem potencjalnych zagrożeń dla bezpieczeństwa narodowego, zanim trafią one do powszechnego użytku.
CAISI, będące częścią amerykańskiego Departamentu Handlu, systematycznie rozbudowuje swoją współpracę z najważniejszymi laboratoriami AI. Nowe umowy z Google DeepMind, Microsoft i xAI uzupełniają wcześniejsze porozumienia zawarte z Anthropic i OpenAI.
„Niezależna, rygorystyczna nauka pomiarowa jest niezbędna do zrozumienia zaawansowanej AI i jej implikacji dla bezpieczeństwa narodowego” — wyjaśnia dyrektor CAISI, Chris Fall. Agencja już teraz przeprowadza kompleksowe analizy, mając na koncie ponad 40 ewaluacji różnych systemów AI.
Kluczowym elementem rozszerzonych umów jest możliwość przeprowadzania testów w środowiskach klasyfikowanych. To znaczący krok naprzód w porównaniu do pierwotnych porozumień, które koncentrowały się głównie na wspólnych ocenach bezpieczeństwa i badaniach nad łagodzeniem ryzyka.
Laboratoria AI współpracują z rządem, dostarczając nie tylko standardowe wersje swoich modeli, ale również specjalne warianty z ograniczonymi zabezpieczeniami. Takie podejście pozwala testerom na dokładniejszą analizę potencjalnych luk bezpieczeństwa i sposobów ich wykorzystania.
Program zyskuje na znaczeniu w kontekście coraz większych możliwości modeli AI w zakresie identyfikowania i wykorzystywania słabości systemów bezpieczeństwa, a także nasilającej się konkurencji technologicznej z Chinami.
Rozszerzenie współpracy między rządem USA a pięcioma największymi laboratoriami AI stanowi istotny krok w kierunku proaktywnego podejścia do bezpieczeństwa sztucznej inteligencji, umożliwiając identyfikację zagrożeń przed wprowadzeniem systemów do powszechnego użytku.