Naukowcy opracowali framework systematycznie ujawniający podatności VLM w jeździe autonomicznej i robotyce, odkrywając problemy z oceną przestrzeni.

Źródło zdjęcia: arXiv.org

Notion uruchamia Developer Platform z Workers, synchronizacją danych i integracją zewnętrznych agentów AI, przekształcając się w centrum orkiestracji pracy AI.

Ian Crosby, założyciel upadłego Bench Accounting, pozyskał 10 mln dolarów na nowy startup Synthetic, który ma stworzyć w pełni autonomicznego księgowego AI.
Naukowcy z indyjskich uczelni opracowali system REVELIO, który systematycznie wykrywa błędy modeli wizyjno-językowych w zastosowaniach krytycznych dla bezpieczeństwa. Badanie opublikowane na arXiv ujawnia dotychczas nieznane podatności najnowocześniejszych VLM w scenariuszach jazdy autonomicznej i robotyki domowej.
Modele wizyjno-językowe coraz częściej wykorzystywane są w aplikacjach wymagających najwyższego poziomu bezpieczeństwa ze względu na swoje szerokie możliwości rozumowania i zdolność do generalizacji. Jednak mogą wykazywać katastrofalne błędy w specyficznych sytuacjach rzeczywistych, co stanowi poważne zagrożenie.
Autorzy badania — Isha Chaudhary, Vedaant V Jain, Kavya Sachdeva, Sayan Ranu i Gagandeep Singh — zdefiniowali tryb błędu jako kompozycję interpretowalnych, istotnych dla domeny konceptów, w których docelowy VLM konsekwentnie zachowuje się niepoprawnie. Identyfikacja takich błędów wymaga przeszukiwania wykładniczo dużej dyskretnej przestrzeni kombinatorycznej.
REVELIO adresuje to wyzwanie poprzez połączenie dwóch procedur wyszukiwania. Pierwsza to świadome różnorodności wyszukiwanie beam search, które efektywnie mapuje krajobraz błędów. Druga to strategia próbkowania Thompsona oparta na procesach Gaussa, umożliwiająca szerszą eksplorację złożonych trybów błędów.
Zespół zastosował REVELIO w domenach jazdy autonomicznej i robotyki domowej, odkrywając wcześniej niezgłaszane podatności w najnowocześniejszych modelach wizyjno-językowych. W środowiskach drogowych modele często demonstrują słabe umocowanie przestrzenne i nie uwzględniają głównych przeszkód, co prowadzi do rekomendacji skutkujących symulowanymi wypadkami.
W zadaniach robotyki domowej VLM albo pomijają zagrożenia bezpieczeństwa, albo zachowują się nadmiernie zachowawczo, produkując fałszywe alarmy i redukując efektywność operacyjną. Te odkrycia ujawniają fundamentalne ograniczenia w sposobie, w jaki współczesne modele przetwarzają i interpretują informacje wizualne w kontekście bezpieczeństwa.
Poprzez identyfikację strukturalnych i interpretowalnych trybów błędów, REVELIO oferuje praktyczne wglądy, które mogą wspierać celowane ulepszenia bezpieczeństwa VLM. Framework umożliwia developerom i badaczom systematyczne testowanie modeli w krytycznych scenariuszach, co może przyczynić się do opracowania bardziej niezawodnych systemów AI dla zastosowań wymagających najwyższego poziomu bezpieczeństwa.