Badacze z CNRS wykorzystali modele przyczynowe i solvery logiczne do analizy binarnych sieci neuronowych kolcowych, osiągając lepsze wyniki niż SHAP.

Źródło zdjęcia: arXiv.org
Naukowcy z francuskich instytucji badawczych CNRS opracowali nowatorską metodę wyjaśniania działania binarnych sieci neuronowych kolcowych (BSNN) przy użyciu modeli przyczynowych. Ich podejście, opisane w opublikowanym na arXiv, wykorzystuje logikę i solvery SAT oraz SMT do generowania wyjaśnień działania sieci na poziomie pikseli.

Greg Brockman podczas zeznań w sprawie Muska vs OpenAI poprawiał każde słowo adwokata i unikał konkretnych odpowiedzi. Jego notatki z 2017 r. ujawniają szczegóły.

Naukowcy opracowali metodę LOCA, która identyfikuje przyczyny sukcesu ataków jailbreak. Wymaga tylko 6 zmian zamiast 20 jak poprzednie metody.
Zespół badaczy pod kierownictwem Aditya Kar z CNRS IRIT oraz współpracowników z CERCO UMR5549 wprowadził fundamentalnie nowe podejście do analizy sieci neuronowych. Binarne sieci neuronowe kolcowe, które naśladują sposób przetwarzania informacji przez biologiczne neurony, dotychczas były trudne do interpretacji ze względu na swoją złożoność.
Kluczową innowacją jest formalna definicja BSNN i reprezentacja jej aktywności kolcowej jako binarnego modelu przyczynowego. To podejście pozwala na zastosowanie metod opartych na logice do wyjaśniania wyjść sieci, co stanowi znaczący postęp w dziedzinie wyjaśnialnej AI.
Autorzy zademonstrowowali skuteczność swojego podejścia, trenując BSNN na zbiorze danych MNIST — standardowym benchmarku zawierającym obrazy cyfr pisanych odręcznie. Następnie zastosowali zarówno solvery SAT (satisfiability), jak i SMT (satisfiability modulo theories) do znajdowania abdukcyjnych wyjaśnień klasyfikacji sieci na podstawie cech na poziomie pikseli.
Porównanie z metodą SHAP, jedną z najpopularniejszych technik wyjaśniania decyzji modeli AI, wykazało istotną przewagę nowego podejścia. Podczas gdy SHAP może wskazywać na cechy, które w rzeczywistości nie mają wpływu na decyzję modelu, metoda opracowana przez francuskch badaczy gwarantuje eliminację całkowicie nieistotnych elementów z wyjaśnień.
To badanie otwiera nowe możliwości w obszarze zaufanej i przejrzystej sztucznej inteligencji. Możliwość precyzyjnego wyjaśniania decyzji sieci neuronowych ma kluczowe znaczenie dla zastosowań w obszarach krytycznych, takich jak medycyna, finanse czy systemy bezpieczeństwa, gdzie zrozumienie podstaw decyzji AI jest niezbędne.
Opracowana metodologia może przyczynić się do rozwoju bardziej niezawodnych i audytowalnych systemów AI, co jest szczególnie istotne w kontekście rosnących wymagań regulacyjnych dotyczących przejrzystości algorytmów sztucznej inteligencji.